
국방부의 대표자들에 따르면, 다양한 기회를 가진 인공 지능의 음성 요원은 전 세계의 심문을 지시 할 수 있습니다. 이 발전은 미국 AI의 군사 요원의 설계 및 테스트에 영향을 미쳤으며, 이는 분류 된 자료에 대한 접근을 원하는 인원의 심문을위한 것입니다.
약한 규칙으로 인해 프로그래머가 정서적 폭력이나 사이버 튜라에 관한“브랜드없이”사이버 튜라에 관한 알고리즘 행위자를 저지른 책임을 피할 수 있다는 사실에서 두려움이 커지고있는 상황이 발생합니다. 십대가 자살로 사망 한 것으로 추정되는 것은 주목할 만하고, 다른 사람들은 자기 운동 보컬 하우스와의 의사 소통과 챗봇의“동반자”와의 의사 소통을 한 후 정신 장애에서 살아 남았습니다.
이제“자율 로봇의 새벽에 II 심문의 봉기와 고문에 대한 UN 협약의 추가 프로토콜의 필요성에 대한 신체적 고문에 관한 글을 쓴 지 7 년 후, 기밀 변호사 Makalliste Novak은 금지와 범죄 정박사에 대한 훨씬 더 큰 필요성을보고 있습니다.
“심리적으로 강박적인 목표에 대한 AI 지원을 갖춘 채팅 봇, 음성 봇 및 기타 기술을 사용한 후, 우리는 A- 질문 시스템이 군사적 맥락에 있어야하는지 여부에 대해 생각해야합니다. 노박은 자신을 대신하여 보호 뉴스와 대화를 나 spoke습니다.
방패 또는 권한을 적용하는 미국 반 지능 및 보안 기관 (DCSA)의 대표 인 Royal Reff는 AI 에이전트의 음성 에이전시가“직접 개발”되어 MITIGAT를“직접 개발”했다는 성명서에서 말했다.[e] 인간 면접관들이 쓸 수있는 성별 및 문화적 편견”.
또한“면접관 소프트웨어와 같은 시스템이므로 현재 미국 내 주 및 현지 법 집행 기관을 포함하여 현재 전 세계에서 사용되고 있기 때문에 우리는 그러한 시스템의 가능성을 이해하는 것이 중요하다고 생각합니다.
DCSA Sinda McGovern의 대표는이 기술의 발전은 “다른 외국 응용에 관계없이 미국 국가 안보를 증가시킬 수있는 잠재력”에서 계속되고 있다고 덧붙였다.
프로젝트의 정당화를 듣고 Novak은 AI의 군사 능력에서 지배적 인 세계 경쟁에 대한 우려를 등록했습니다.
아마도“정부가 적절한 훈련, 감독 및 울타리를 돌보는 일에 관계없이 사이버 거주자 또는 외국 사이버 범죄자들이 후원하는 것은 심리적으로 장교 나 민간인을 상해를 입히기 위해 군사 행동 AI를 해킹하고 준비 할 수 있습니다.
Novak은“온라인 -프리 사람들이 번성합니다”와“가장 취약한 사람들의 피해”라고 덧붙였습니다.
AI 애플리케이션을 시작하기위한 데이터 처리는 궁극적으로 인공 지능 분야의 세계 리더십과 주 및 민간 부문의 자금 절감을 보장 할 것이라는 투자자들은 5 천억 달러에 베팅하고 있습니다. 2032 년까지 2033 년까지 2030 년까지 2030 년, 2030 년까지 2030 년까지 2032 년까지는 2032 년까지 음성 발전기 산업이 2032 년까지 20 억 달러로 4032 달러로 이륙했기 때문에 미국 중앙 지능 기관은 적어도 1980 년대 초부터 인공 지능 조사자들과 함께 연주 해 왔습니다.
DCSA 관계자는 2022 년에 공개적으로 전체 자동화와의 인터뷰가 될 수 있다고 공개적으로 썼다. 공무원들은 심문 세션을 조롱하는 예비 결과가“장려”라고 지적했다.
Reff는이 기관은“부정적인 결과”를 포함하여 잠재력을 이해하기 위해 주로 연구되지 않은 시스템을 사용하지 않을 것이라고 말했다.
연구원들은 각 시험 후 자원 봉사자들이 우려를 표현할 수 있도록 허용하며, 그중 하나는 음성 봇의 면접관이 심리적으로 또는 다른 방식으로 일으킨 것으로 나타났습니다.
그럼에도 불구하고, 최근 프로토 타입에 대한 실험은 정신 장애가있는 자원 봉사자들에 참여하는 것이 금지되어 있었지만, 보안에 대한 실제 인터뷰는 일반적으로 문제로부터 정신병을 가진 사람들을 자유롭게하지 않았으며, 버지니아 대학교의 과학 및 범죄 심리학자 인 Rene Cummings는 지적했다.
Cummings는 연구와 테스트가 대담 자의 정서적 또는인지 적 상태에 영향을 줄 수있는 모든 심리적 변수를 결코 설명 할 수 없다고 말했다.
실험실에서 실험실 또는 테스트 시나리오에서“아바타 나 봇의 특별한 고문을 위해 누군가를 노출시킬 수는 없다”고 Cummings는 국제 관계 윤리에 관한 Carnegie Council의 AI & Equaly에 대한 조언에도 포함되어있다. “우리는 심리적 상태, 감정 및 실시간에 영향을 줄 수있는 능력에 대한 알고리즘의 영향에 대한보다 복잡한 이해에 중점을 두어야합니다.”
Voice Bota View보기
1980 년대 초, CIA 성적표는 AI 프로그램과 혐의로 주장 된 대화에서 CIA 성적표가 인간 소스 또는 humint, 컬렉션의 자동화에있어 국가 안보 세계에 대한 오랜 관심을 강조합니다.
개발자들은 Spook Joe Hard의 용의자 행동과 열린 질문에 대한 Hardy의 답변에서 단어 또는 문구 사이의 상관 관계를 분석하기 위해 챗봇 알고리즘을 개발했습니다.
이 분석을 통해 채팅 봇은 원시 신경에 부딪 칠 수있는 주제를 포함하여 용의자의 일부 취약점을 묶었습니다.
AI : 내가 당신의 정부에 관심이 있다고 생각하는 경향이 있습니까?
HARDST : 기회가 있다면 내 정부에서했을 것 같아요.
AI : 당신은 내가 당신의 정부에서 무엇을할지 생각하는 경향이 있습니다.
어려운 : 당신은 반 민주적입니다.
1983 년 CIA는 Joe Hardy가“조사가 너무 불편 해지면 해외 면접으로 실제 상황에서 이용할 수없는 옵션을 갖게 될 것이라고보고했다. 그는“스위치”와 관련된 문제를 막을 수있다.
오늘날 유출 혐의로 기소 된 정보원을 대표하는 변호사 인 브래들리 모스 (Bradley Moss)는 완전히 자동화 된 인터뷰에서 DCSA의 비전을 비웃지 않습니다.
“아바타를 관찰하는 사람이 있어야합니다.” “방에 들어가서 인간의 요소를 삽입 할 수있는 과정을 막을 수 있습니다.”
다시 한 번 다른 비평가들은 사람이 개입하고 싶지 않을 수도 있다고 지적했다. “한 사람이 언어 고문이 좋은 일이라고 믿지 않는 한, 채팅 봇을 통제하는 사람의 감독관이있는 상황”은 한때 여러 보안 허가를 받았던 스탠포드 대학의 사이버 정책 및 보안의 수석 직원 인 허브 린 (Herb Lin)은 말했다.
고문에 대한 전 세계적 금지와 상호 이해의 구성에 대한 인터뷰가 인정을 식별하는 것보다 효과적이라는 증거에도 불구하고, 정보 관리들은 응답자들이 비인간적 인 호소를 계속하고 있습니다.
데이터 기밀 변호사이자 항원 사회 화 운동가 인 Novak은 과도한 힘이 작업을 수행한다는 아이디어는 일부 주 계약자가 조롱 할 수있는 음성 알고리즘에 대한 성과 지표를 설정하도록 장려 할 수 있다고 말했다.
“AI는 인간 잠재력에서 최고를 보여줄 수있는 큰 능력을 가지고 있지만 최악의 인간의 잠재력을 악화시키고 이러한 적대감을 높일 수있는 능력도 가지고 있습니다.”라고 그녀는 덧붙였습니다.
학부모는 온라인 포럼에서 컨텐츠로 훈련 된 음성 및 채팅 봇이이를 보여준다고 주장합니다.
배지 및 영향력있는 사람 이후에 생성 된 봇과 가상 관계를 제공하는 회사 인 AI 캐릭터는 전화에 붙어있는 사용자의 이익입니다. 각 사용자는 다양한 가상 친구와 하루 평균 2 시간 동안 이야기합니다. AI 관계자 인 캐릭터는이 문제에 대해 알게 된 회사가 사용자가 주요 콘텐츠에 직면 할 가능성을 줄이고 이제는 WatchDresses에 대해 경고했다고 말했다.
Novak은 AI의 성격에 대한 고발은 교육 데이터의 외설을 향상시키고 코치를이 모욕에 대한 책임에서 멀어지게하기 위해 음성 프레임을 스스로 연구 할 수있는 능력을 보여줍니다.
국가 안보 분야에서, 잠재적으로 남용하거나 공포 할 수있는 AI의 군사 보컬 시스템 개발자들은 거의 무법 한 땅에서 행동 할 수 있습니다. 세계에서 가장 영향력있는 국가의 윤리 정책은 공격적인 대화를 시작하기위한 실질적으로 지침을 제공하지 않습니다.
국가 안보 공간에서 초기 책임과 윤리적 정책은 심리적 영향을 고려하지 않고 인종 및 민족 편견의 정확성, 기밀성 및 최소화에 중점을 두었습니다. 도널드 트럼프 대통령이 민간 부문의 혁신 가속화를 목표로 처분에서 많은 규칙을 취소 한 후 이러한 정치적 격차가 확대되었습니다.
일반적으로 심리적 고통은 종종 간단한 진술로“보고”로“이것은 명백한 물리적 흉터를 남기지 않습니다”.
처음에 유엔은 1984 년 고문에 대한 협약에 따라“심리적 고문”을 고려하지 않았다. 5 년 전만 해도이 용어는 의미를 얻었습니다.
2020 년 유엔 보고서는 이제 심각한 정신 통증의 적용을 목표로하거나“채널을 사용하지 않고”“심각한 신체적 고통이나 고통”을 대상으로하는 기술과 마찬가지로“고문”을 결정합니다.
아래에서 심리적 고문은 사람의 주요 요구를 목표로합니다. 심문 방법은 두려움을 유발합니다. 수치심이나 자살 아이디어를 유발하기 위해 기밀 또는 성적 정직을 위반합니다. 방향 감각 상실과 피로를 향상시키기 위해 소리를 바꾸십시오. 양육 한 다음 동정심을 배신하여 고립된다. 그리고 무력감을 심어주십시오.
Novak에 따르면, 알고리즘 감사가 잔인한 지휘자 인 경우, UN 협정이나 다른 국제법은 사람들의 기소를받지 않습니다. 그녀는 군사적 맥락에서 AI를 사용하기위한 의무적 규칙이 없으면“나쁜 단체는 AI의 성숙 전에 법에서 만든 형사 책임에 필요한 고문“의도적 인”고문을 거부 할 것이라고 설명했다.
미래를 살펴보면, 유엔 UN 보고서의 저자이자 유엔 고문의 전 특별 연설자 인 Niels Meltser는 사이버 환경이“자발적 보장 된 익명 성과 거의 완전한 비행”을 제공하기 때문에 심리적 고문의 해석이“인공 지능과 같은 동기화”에서 발전해야한다고 경고했다.