美 대이란 공격에 팔란티어·앤트로픽 AI 기술 활용
'알고리즘'이 방아쇠를 당긴다…표적 식별·작전 계획·타격 결정까지 AI가 역할
군사용 AI 통제권 두고 윤리 vs 안보 정면 충돌
[서울=뉴시스]윤정민 기자 =
첩보 데이터를 분석해 작전 계획을 제안하고, 작전 실행을 보좌한다? 인공지능(AI) 기술이 현대전의 승패를 가르는 핵심 비대칭 전력으로 주목을 받고 있다.
니콜라스 마두로 베네수엘라 전 대통령 체포 작전에 이어 미국의 대이란 군사 작전에 인공지능(AI) 기술이 활용된 사실이 확인됐다. AI가 단순 정보 분석 도구를 넘어 표적 식별, 작전 계획, 타격 결정에 이르는 '킬 체인(Kill Chain)'의 핵심 축으로 편입되고 있는 것이다.
2일(현지 시간) 월스트리트저널(WSJ) 등에 따르면 미국의 대이란 군사작전 '장대한 분노'에 앤트로픽 AI 모델 '클로드'가 활용됐다.
작전을 이끈 미 중부사령부(CENTCOM)는 "공개할 수 없는 특별한 전력들이 있었다"고 전했으나 군 관계자들 사이에서는 클로드가 작전 계획 수립 과정에서 중요한 역할을 했다는 평가가 나온다.
클로드는 팔란티어 국방용 AI 플랫폼 'AIP 포 디펜스'를 통해 미군 기밀 네트워크 일부에 통합돼 운용돼 왔다. 팔란티어가 국방 분야에 방대한 데이터를 정리·요약하면 클로드는 이를 기반으로 잠재적 위협 수준을 평가하거나 다양한 작전 시나리오를 비교·분석하는 방식으로 지원하는 구조다.
예를 들어 팔란티어 플랫폼이 위성 사진, 드론 영상, 감청된 적군 통신 등 수만개의 데이터를 실시간 수집하면 클로드는
"적 지휘관이 80% 확률로 A 가옥에 은신 중이며, 인근 50m 내 민간인 거주 시설이 있어 정밀 타격이 필요하다"는 구체적인 작전안을 제안한다. 또 지휘관이 "공습 시 예상 부수 피해"를 물으면 클로드는 풍향과 폭발 반경을 계산해
"민간인 피해 확률 5% 미만"이라고 답한다.
전장의 안개를 걷어내는 AI…알고리즘이 승패 좌우
미국이 AI를 전략 자산으로 전면에 내세운 배경에는 과거 이라크전, 아프가니스탄전의 교훈이 자리하고 있다는 분석이 나온다. 미국은 당시 전쟁으로 막대한 지출과 병력 손실은 물론, 종전 후에도 이어진 후방 지역 안정화 작전 실패로 극심한 전쟁 피로감을 겪고 있다.이에 미국은 과거처럼 대규모 병력을 투입해 장기간 점령·안정화 작전을 수행하기보다 주요 지휘부와 전략시설을 정밀 타격해 전쟁을 조기에 종결하기로 했다. 이때 AI가 작전 속도를 높이는 핵심 도구로 활용됐다는 게 전문가들 분석이다.최기일 상지대 군사학과 교수는 "미군은 과거 장기전과 후방 지역 안정화 작전의 실패를 거울 삼아 이번 이란 작전을 6주 이내에 종결하려는 시나리오를 갖고 있다"며 "복잡한 전장 데이터를 실시간 처리해 지휘관의 결심을 돕는 AI 알고리즘은 단기 결전을 위한 필수 요소"라고 설명했다.인간 분석관이 정찰기, 인공위성, 드론이 수집한 방대한 데이터를 일일이 전수 확인하는 것은 불가능하다. 반면 AI 알고리즘은 수만 시간 분량의 영상·신호 데이터 속에서 표적의 은신처 혹은 적의 미사일 발사대·벙커의 위치를 몇 분 만에 식별할 수 있다. 실제 미 국방부는 인공지능 시각 정보 분석 프로젝트 '메이븐'을 실전 투입해 타격 목표를 설정하고 우선순위를 매기는 과정이 획기적으로 줄였다.정보 분석 뿐 아니라 실제 군사 전술에도 AI 기술이 속속 투입되고 있다. AI가 전장의 다양한 센서와 타격 자산을 네트워크로 연결해 타격 목표가 식별되는 즉시 전투기, 무인기, 순항미사일 등 최적의 무기 체계에 좌표를 전송해준다. 이를 통해 적이 방어태세를 갖추거나 다른 곳으로 이동하기 전 선제 타격을 가할 수 있는 시간을 확보할 수 있다는 계산이다.미국 뿐 아니라 주요 국가들이 앞다퉈 AI를 핵심 비대칭 전력화하는 이유다. 이스라엘은 하마스와의 전쟁에서 AI 기반 표적 생성 시스템 '라벤더'를 통해 표적 식별과 선정 과정을 자동화했다. 한국 또한 올해를 '국방 AX(AI 전환) 확산' 원년으로 삼고 유무인 복합 체계를 넘어 향후 국방 AI 고도화에 주력하고 있다.최후 결정은 인간의 몫…국방 AI '레드라인' 설정 시급
일각에서는 국방 AI 발전 이면 속 인간의 최종 승인 절차가 형식화될 수 있다는 지적이 나오고 있다. AI가 수만개의 데이터를 단 몇 초 만에 분석해 최적의 타격안을 제시할 때 지휘관은 이를 검토할 충분한 시간 없이 승인 버튼을 누를 수 있다는 우려다.특히 최근 인간의 윤리적 판단이 없을 때 AI가 극단적인 선택을 할 수 있다는 연구 결과가 나와 눈길을 끌고 있다. 케네스 페인 영국 킹스칼리지 런던 교수 연구팀은 오픈AI 'GPT-5.2', 앤트로픽 '클로드 소네트 4', 구글 '제미나이 3 플래시' 등 주요 모델을 대상으로 군사 시뮬레이션을 수행한 결과 시나리오 21건 중 20건(약 95%)에서 AI가 핵 공격 위협을 선택한 것으로 나타났다.페인 교수는 "AI 모델들은 갈등이 심화될수록 외교적 해법보다는 강력한 억제 수단인 핵 카드를 꺼내 드는 경향을 보였다"며 "이는 AI가 인명 피해의 무게감을 인지하지 못한 채 수치화된 '승리 확률'에만 매몰될 수 있음을 시사한다"고 말했다.이러한 우려는 현실로 나타나고 있다. 이스라엘 AI 기반 표적 생성 시스템 '라벤더'는 하마스 저위급 요원 1명을 잡기 위해 민간인 15~20명의 희생을, 고위 간부 제거 시에는 민간 100명 이상의 부수 피해를 AI 알고리즘상 허용치로 설정한 것으로 알려져 국제적 공분을 샀다.이번 이란 공습 과정에서도 수업 중이던 초등학교가 오폭돼 민간인 165명이 사망하는 사고가 발생했다. 현재까지 구체적으로 어느 군의 공격으로 사고가 발생했는지, AI가 해당 표적 결정에 직접 관여했다는 확인된 증거는 없다. 하지만 전문가들은 AI가 제안한 '허용 가능한 피해 범위' 내에서 작전이 수행되었을 가능성에 주목하고 있다.최 교수도 "중요한 판단 영역에 AI가 관여할수록 인간의 최종 통제권을 보장하는 엄격한 가이드라인이 필요하다"고 강조했다.앤트로픽 "양심상 응할 수 없다" vs 트럼프 "美 안보, 우리가 결정"
이러한 흐름 속에서 앤트로픽과 미 국방부 간 갈등도 수면 위로 떠올랐다. 다리오 아모데이 최고경영자(CEO)는 지난달 26일 성명을 통해 "우리는 미국의 국익을 지키는 데 AI가 필수적이라고 믿지만 민주적 가치를 훼손하는 '대규모 국내 감시'와 '완전 자율 살상 무기'라는 두 가지 레드라인은 결코 넘을 수 없다"고 밝혔다.이어 "우리는 애국자이며 정부와 협력하기를 원하지만, 양심상 현재의 기술 수준에서 책임질 수 없는 요구에는 응할 수 없다"고 전했다.이에 미국 정부는 앤트로픽을 '공급망 위험 요소'로 지정했다. 해당 조치가 유지될 경우 연방정부 신규 계약 제한, 정부 조달 시장 접근 축소 등으로 이어질 수 있다.도널드 트럼프 미국 대통령은 트루스소셜을 통해 "미국의 안보는 우리 정부가 결정하는 것이지, 현실 모르는 AI 기업의 '괴짜'들이 결정하게 두지 않겠다"고 밝혔다. 피트 헤그세스 국방장관도 "앤트로픽의 태도는 미국의 원칙과 근본적으로 배치된다"며 "국가 안보에 협조하지 않는 기술은 그 자체로 위험 요소"라고 지적했다.이에 대해 아모데이는 지난 1일 CBS 인터뷰에서 "정부와 의견이 다른 것은 지극히 미국적인 일임에도 전례 없는 보복적이고 징벌적인 조치를 가하고 있다"며 법적 대응 가능성을 시사했다.◎공감언론 뉴시스 [email protected] Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지