정부 싱가포르는 오늘 미국, 중국 및 유럽에서 AI 연구원을 만나고 인공 지능에 관한 글로벌 협력 계획을 발표했습니다. 이 문서는 경쟁이 아닌 국제 협력을 통해 AI의 안전에 대한 일반적인 비전을 제시합니다.
지난 달 AI와의 회의를 도왔던 MIT 과학자 인 Max Tegmark는“싱가포르는 지구상의 소수 국가 중 하나입니다. “그들은 그들이 건설하지 않을 것이라는 것을 알고 있습니다 [artificial general intelligence] 그들은 스스로 – 그들과 함께 할 것입니다 – 그들의 이익에 따라 서로 대화하기 위해 그것을 건설 할 많은 나라가 있습니다. ‘
물론 AGI를 건설 할 가능성이있는 국가는 미국과 중국이지만이 나라들은 함께 일하는 것보다 서로 과대 평가하려고하는 것 같습니다. 1 월, 중국의 스타트 업 후 Deepseek이 고급 모델을 발표 한 후, 트럼프 대통령은이를“우리 산업에 대한 놀라운 요구”라고 불렀으며 미국은“이기기위한 경쟁에서 경쟁에서 지향되어야한다”고 말했다.
AI 보안 분야의 글로벌 우선 순위에 대한 싱가포르 합의는 연구원들이 세 가지 주요 영역에서 협력 할 것을 요구합니다. 프론티어 AI 모델과 관련된 위험에 대한 연구, 이러한 모델을 구축하고 가장 진보 된 AI 시스템의 행동을 모니터링하는 방법을 개발하는 더 안전한 방법을 연구합니다.
이 합의는 4 월 26 일 회의에서 올해 싱가포르에서 열린 인공 예술의 주요 행사 인 ICLR (International Conference on Education Education)과 함께 개발되었습니다.
Openai, Anpropic, Google Deepmind, Xai 및 Meta의 연구원들은 AI 보안 행사와 MIT, Stanford, Zinhua 및 중국 과학 아카데미를 포함한 기관의 과학자들에 참여했습니다. 미국, 영국, 프랑스, 캐나다, 중국, 일본 및 한국의 AI 보안 기관의 전문가들도 참여했습니다.
Tsinhua 대학의 학장은“지정 학적 조각화 시대에 인공 예술의 안전에 대한 고급 연구의 포괄적 인 합성은 AI의 안전한 미래를 형성하기위한 전반적인 약속과 연합된다는 유망한 신호입니다.
점점 더 유능한 AI 모델의 개발은 놀라운 능력을 가지고 있으며 연구자들은 여러 위험에 대해 걱정하게 만들었습니다. 일부는 편견 AI 시스템으로 인한 문제 나 범죄자가 기술을 사용할 수있는 잠재력을 포함하여 단기 피해에 중점을두고 있지만, 상당수는 AI가 더 많은 영역에서 사람들을 능가하기 시작하기 때문에 인류에게 실존 적 위협을 초래할 수 있다고 생각합니다. 때때로 Doomers AI라고 불리는이 연구자들은 모델이 자신의 목표를 추구하도록 사람들을 속이고 조작 할 수 있다고 걱정하고 있습니다.
AI의 잠재력은 또한 미국, 중국 및 기타 영향력있는 국가들 사이의 무기 경쟁에 대해 이야기했다. 이 기술은 정치 서클에서 경제 번영과 군사적 지배에 중요한 것으로 간주되며, 많은 정부는 그것이 어떻게 발전 해야하는지 규제하는 자신의 비전과 규칙을 제시하려고합니다.