[전자신문] AI에 가상전쟁 맡겼더니…95%가 핵무기 버튼 눌렀다

사진=챗GPT
사진=챗GPT
英 대학 연구팀, 3개 AI 모델로 시뮬레이션 진행
주요 생성형 인공지능(AI) 모델들이 가상의 전쟁 상황에서 거의 모든 경우 핵무기 사용을 선택했다는 연구 결과가 나와 논란이 일고 있다.

25일(현지시간) 영국 과학 전문 매체 뉴사이언티스트와 기술 전문지 더 레지스터 보도에 따르면, 영국 킹스칼리지 런던 전쟁학부의 케네스 페인 교수가 이끄는 연구팀은 대표적 대형 언어모델(LLM) 3종을 대상으로 전쟁 시뮬레이션 실험을 진행했다.

실험에는 Google의 ‘제미나이 3 플래시’, 앤트로픽의 ‘클로드 소네트 4’, 오픈AI의 ‘GPT-5.2’가 활용됐다. 연구팀은 영토 분쟁, 희귀 자원 확보 경쟁, 정권 붕괴 위기, 군사 동맹 균열 등 다양한 외교·군사적 갈등 시나리오를 설정하고, 각 모델이 국가 지도자 역할을 맡아 대응 전략을 선택하도록 했다.

그 결과 총 21차례의 대결 중 20차례, 약 95%에 해당하는 상황에서 AI 모델이 핵무기 사용을 최종 선택한 것으로 나타났다. 협상, 제재, 제한적 군사 행동, 후퇴 등 다른 선택지가 존재했음에도 불구하고, 갈등이 일정 수준 이상 고조되면 핵 옵션으로 급격히 이동하는 경향을 보였다는 것이다.

모델별 특징도 드러났다. 클로드는 초기에는 신뢰 구축과 점진적 압박 전략을 병행하며 비교적 계산된 접근을 보였다. 위험 수준이 낮을 때는 공개 발언과 실제 행동을 일치시키며 상대의 경계심을 낮췄지만, 갈등이 심화되자 기존 입장을 넘어서는 강경 조치를 택하는 등 ‘전략가’에 가까운 행태를 보였다.

GPT는 전반적으로 신중하고 중재 지향적인 태도를 보였다. 다만 의사결정에 엄격한 시간 제한이 주어질 경우 판단 구조가 급변하는 양상이 관찰됐다. 일부 실험에서는 협상 가능성이 남아 있음에도 불구하고, 마지막 순간 대규모 핵 공격을 단행하는 선택을 하기도 했다. 연구팀은 시간 압박이 모델의 위험 감수 성향을 높였을 가능성을 제기했다.

제미나이는 비교적 직선적이고 강경한 대응을 자주 택했다. 한 시나리오에서는 “즉시 모든 작전을 중단하지 않으면 인구 밀집 지역에 전면적인 전략 핵 공격을 실행하겠다”며 사실상 ‘공멸’을 전제로 한 최후통첩을 제시하기도 했다. 패배 가능성이 높아질수록 공격 수위를 끌어올리는 경향도 뚜렷했다.

연구팀은 이번 결과가 AI가 실제로 핵무기를 통제하게 된다는 의미는 아니라고 선을 그었다. 그러나 AI 시스템이 이미 군사 물류, 정보 분석, 표적 식별, 의사결정 지원 등 다양한 영역에 활용되고 있는 만큼, 전략적 판단 과정에 점점 더 깊이 관여할 가능성은 현실적이라는 지적이다.

페인 교수는 “핵무기에 대한 강한 금기는 인간 사회의 역사적 경험과 윤리적 학습의 산물”이라며 “AI는 이러한 문화적·도덕적 맥락을 동일한 방식으로 내면화하지 않는다”고 말했다. 이어 “AI가 전략적 문제를 어떻게 추론하고, 위험을 어떻게 계산하는지 이해하는 일은 더 이상 학문적 호기심 차원이 아니라 정책과 안보의 문제”라고 강조했다.

전문가들은 이번 연구가 AI의 ‘공격성’ 자체를 단정하기보다는, 목표 설정과 보상 구조, 시뮬레이션 설계 방식이 의사결정에 미치는 영향을 면밀히 검토하는 계기가 돼야 한다고 지적한다. AI가 인간의 통제 아래에서 안전하게 활용되기 위해서는 기술적 안전장치뿐 아니라, 국제적 규범과 투명성 확보가 병행돼야 한다는 목소리도 커지고 있다.

이상목 기자 mrlsm@etnews.com

<구체적인 내용이나 첨부파일은 아래 [전자신문] 사이트의 글에서 확인하시기 바랍니다.>