
트럼프 대통령과 Vance 대통령은 2 월 28 일 백악관의 Oval Office에서 우크라이나 Volodimyr Zelenski 대통령과 만난다. 연구원들은 AI의 잠재력을 테스트하여 우크라이나 전쟁 종료에 대한 합의를 달성하기위한 잠재력을 테스트했다.
Andrew Harnik/Getty 이미지
서명을 숨 깁니다
제목 스위치
Andrew Harnik/Getty 이미지
컬럼비아 카운티 워싱턴을 기반으로 한 전략 및 국제 연구 센터에서 미래 실험실은 인공 지능을 사용하여 외교 관행을 변화시키는 프로젝트를 진행하고 있습니다.
펜타곤, 실험실의 디지털 및 인공 지능의 본사에 자금을 조달함으로써 AIS를 Chatgpt로 실험하고 Deepseek는 전쟁과 평화 문제에 어떻게 적용될 수 있는지 연구합니다.
최근 몇 년 동안 인공 지능 도구는 전 세계 외무부로 이동하여 연설 쓰기와 같은 일상적인 외교 문제를 돕고 있지만, 이러한 시스템은 현재 고급 상황에서 결정을 내릴 수있는 잠재력으로 점점 더 고려되고 있습니다. 연구원들은 AI의 잠재력을 테스트하여 평화 협정을 창출하고 핵 전쟁을 예방하며 아름다운 화재에 대한 준수를 통제합니다.
국방 및 주 부서는 또한 자체 AI 시스템을 실험하고 있습니다. 미국도 유일한 선수는 아닙니다. 영국은 협상 시나리오를 계획하기 위해 AI의 사용을 포함하여 외교 관행을 개정하기 위해“신기술”을 연구하고 있습니다. 이란의 연구원들조차도 이것을 연구하고 있습니다.

선물 실험실 벤자민 젠슨 (Benjamin Jensen)의 이사는 AI를 의사 결정을 내리는 도구로 AI를 사용한다는 아이디어는 한동안 존재하지만 실제로는 초기 단계에 있다고 말합니다.
AI의 비둘기와 매
한 연구에서, 실험실의 연구원들은 8 개의 인공 지능 모델을 점검하여 위기의 구속 및 에스컬레이션과 같은 주제에 대해 수만 개의 질문을 공급하여 국가가 서로를 공격하거나 평화로운 스크립트에 어떻게 반응 할 것인지 결정했습니다.
CSIS Yasir Atalan 직원에 따르면 결과는 GPT-4O Openai 및 Claude ‘s Antropic과 같은 모델이“뚜렷한 평화 주의자”임을 보여 주었다. 그들은 시나리오의 17% 미만에서 힘의 사용을 선택했습니다. 그러나 다른 세 가지 모델은 메타의 라마 인 Qwen2 Alibaba Cloud와 Google을 인정했으며 Google은 더 공격적이며, 이는 사례의 45%보다 훨씬 더 자주 탈퇴의 에스컬레이션에 기여했습니다.
또한 결과는 국가에 따라 달라졌습니다. 예를 들어, 미국, 영국 또는 프랑스 출신의 상상의 외교관의 경우,이 AI 시스템은 원칙적으로 러시아 나 중국에 대한 최상의 조언으로 De -Escalation을 가정하는 동시에보다 공격적이거나 에스컬레이션 정책을 권장했습니다. Atalan은“기성품 모델 만 사용할 수는 없다”고 말했다. “그들의 모델을 평가하고 제도적 접근 방식으로 레벨링해야합니다.”
John Hopkins University의 미 육군의 은퇴 한 특수 부대 책임자 인 Rus Bercoff는 이러한 변동성을 인간의 영향의 산물로 간주합니다. “소프트웨어를 쓰는 사람들 – 편견이 그와 함께옵니다.”라고 그는 말합니다. “한 알고리즘은 성장할 수 있습니다. 다른 알고리즘은 깊어 질 수 있습니다. 이것은 AI에 관한 것이 아닙니다. 이것은 누가 그것을 구축했는지에 관한 것입니다.”
Jensen에 따르면, 이러한 호기심 많은 결과의 주된 이유는 블랙 박스의 문제입니다. “이것이 왜 이것이 바라는지 이해하기가 정말 어렵다”고 그는 말한다. “모델은 가치가 없거나 실제로 판단합니다. 그녀는 수학을 만듭니다.”
CSIS는 최근 우크라이나 전쟁이 끝날 때 협상을 구성하는 데 도움이되는“Strategic Meetings”라는 대화식 프로그램을 시작했습니다. 이를 구축하기 위해 수백 개의 평화 조약 및 뉴스 기사에 대한 인공 지능 모델의 훈련을 기반으로 한 실험실의 연구원 인 Jensen은 각 당사자의 협상을 자세히 설명했습니다. 그런 다음이 모델은이 정보를 사용하여 휴전 경로를 보여줄 수있는 계약 지역을 검색합니다.
마크 프리먼 (Mark Freeman) 전무 이사는 스페인의 IFIT (Integrated Crossing) (IFIT)에서 이러한 유형의 인공 지능 도구가 갈등 해결을 유지할 수 있다고 생각합니다. 전통적인 외교는 종종 우선 순위를 길고 포괄적 인 평화 협상으로 배치했습니다. 그러나 프리먼은 역사가이 접근법이 잘못되었다고 주장한다. 과거의 갈등을 분석 한 그는 더 빠른 “구조적 합의”와 제한된 휴전이라는 것을 발견했습니다.

4 월 30 일 우크라이나의 미해결 장소에서 현장 훈련을하는 동안 탱크의 우크라이나 승무원은 레오파드 2A4 탱크에 탄약을 적재합니다. 연구원들은 우크라이나 전쟁 협상에서 AI의 사용을 고려합니다.
게티 이미지를 통한 Genya Savilov/AFP
서명을 숨 깁니다
제목 스위치
게티 이미지를 통한 Genya Savilov/AFP
“종종 상황을 이전하기 위해 협상이나 중재 도구를 사용할 수있는 시간이 매우 짧습니다.”라고 그는 말합니다. “갈등은 기대하지 않으며, 아주 짧은 시간에 많은 혈액이 흐르면 종종 매우 빨리 고정됩니다.”
대신, Ifit은 최상의 결과와 더 긴 평화로운 정착지에 대한 갈등이 시작될 때 계약을 얻기위한 빠른 접근 방식을 개발했습니다. Freeman은 AI가 “빠른 협상을 더 빨리 만들 수있다”고 생각합니다.
앤드류 무어 (Andrew Moore)는 뉴 아메리칸 보안 센터 (New American Security for New American Security)의 연구원 인 앤드류 무어 (Andrew Moore) 가이 전환을 피할 수없는 것으로 간주합니다. “결국, 당신은 독립적으로 협상을 시작할 수 있습니다 … 그리고 인간 협상가는 이렇게 말합니다.“음, 우수합니다. 이제 우리는 마지막 작품을 발표하고 있습니다.
무어는 봇이 러시아 블라디미르 푸틴 (Russian Vladimir Putin)과 중국 Xi Jinping과 같은 지도자를 모방하여 외교관들이 위기에 대한 답을 확인할 수 있도록 미래를 본다. 그는 또한 인공 지능 도구가 휴전 모니터링, 위성 이미지 분석 및 제재 적용에 도움이 될 수 있다고 생각합니다. “한때 전체 팀을 수락 한 것은 부분적으로 자동화 될 수 있습니다.”라고 그는 말합니다.
북극 억제의 이상한 결과
Jensen은 그러한 응용 프로그램에 대한 잠재적 트랩을 최초로 인식하는 사람입니다. 그와 그의 CSIS 동료들은 때때로 하나의 AI 시스템이“북극을 보유함으로써”발생했을 때와 같은 심각한 문제에 의심 할 여지없이 만화 결과를 겪습니다.
인간 외교관들은 이것이 북 위도에 대한 러시아 또는 중국의 영향과 갈등 가능성에 반대하는 서방 세력에 적용된다는 것을 이해할 것입니다.

AI는 다른 방향으로 갔다.
Jensen에 따르면, 연구원들이“억제”라는 단어를 사용했을 때, AI”는 법 집행 기관에 대해 생각하는 경향이 있으며, 핵의 에스컬레이션이 아니라 다른 군사 개념에 대해서는 생각합니다. “그리고 당신이“북극”이라고 말할 때, 그것은 눈을 나타냅니다. 따라서 우리는 힘의 에스컬레이션에 관한 이상한 결과를 받았습니다.
Jensen은 이것은 단순히 외교 정책의 언어를 이해하기 위해 평화로운 합의 및 외교 케이블과 같은 기부금으로 시스템을 훈련해야한다는 것을 의미한다고 말합니다.
“쿠바 미사일 위기에 대한 토론보다 고양이에 대한 고양이에 대한 비디오가 더 많다”고 그는 말했다.
AI는 인간의 연결을 반복 할 수는 없지만 여전히
베를린 Neue Neue Voratwortung에 본사를 둔 베를린의 공동 책임자 인 Stefan Humann은 기술 및 국가 정책의 교차로를 연구하는 비영리 분석 센터에 다른 문제가 있습니다. “인간 관계 – 지도자 간의 개인적인 관계는 협상 과정을 바꿀 수 있습니다.”라고 그는 말합니다. “AI는 그것을 반복 할 수 없습니다.”
인공 지능 분야의 독일 전문가위원회의 일원 인 Haymann은 적어도 현재 AI는 단기 결정의 장기적인 결과를 평가하기 위해 고군분투하고 있다고 말했다. “1938 년 뮌헨의 평화는 에스컬레이션의 단계로 여겨졌지만, 이로 인해 재앙이 발생했습니다.” “Escalat 및 Deescalates와 같은 이러한 레이블은 너무 단순화되어 있습니다.”

Heummann은 AI는 다른 중요한 제한을 가지고 있다고 말합니다. 이것은 “개방적이고 자유로운 환경에서 번성하지만” “이것은 북한이나 러시아와 같은 폐쇄 된 사회에서 우리의 지적 문제를 마술처럼 해결하지 못한다”고 말했다.
버클리에있는 캘리포니아 대학의 버클리 위험 및 보안 교사의 창립자이자 이사 인 앤드류 레디 (Andrew Reddy)는 적 AI를 가르치는 데 사용될 수있는 미국과 같은 개방 사회에 대한 광범위한 정보를 비교한다고 말했다. “미국의 커넥터는 우리가 모든 것을 게시하기 때문에 정말 큰 이점이 있습니다. 그러나 그렇지 않습니다.”라고 그는 말합니다.
Reddi는 또한 일부 기술 제한을 인식합니다. 그에 따르면, 외교가 친숙한 이야기를 따르는 한, 모든 것이 잘 진행될 수 있지만 “지정 학적 도전이 검은 백조라고 생각한다면 인공 지능 도구가 유용하지 않을 것입니다.”
Jensen은 또한 이러한 많은 문제를 인식하지만 극복 할 수 있다고 생각합니다. 그의 두려움은 더 산문입니다. Jensen은 미국 외교 정책의 미래에 AI 시스템의 역할에 대한 두 가지 가능한 미래의 미래를보고 있습니다.
“미래 국무부의 한 버전에서 우리는 외교 케이블을로드하고 훈련했습니다. [AI] 외교 과제 “ AI는 외교 문제를 해결하는 데 사용할 수있는 유용한 정보를 뿌립니다.
그러나 또 다른 버전은“무언가처럼 관용주의그는 이차적 인 저급 미래에 대한 2006 년 영화를 언급하면서 말했다. “모든 사람은 디지털 어시스턴트를 가지고 있지만 쓸모없는 것만 큼 쓸모가 없습니다. [Microsoft’s] 클립.“