미국 군대는 2월 28일 이란에 대한 공격에서 안트로피크의 클라우드 AI를 사용했다고 여러 보도가 전했다. 이는 윤리적 보호 장치에 대한 논란과 트럼프 행정부의 금지 조치에도 불구하고 이루어진 것으로, 대규모 언어 모델(LLM)이 실제 군사 작전에서 사용된 첫 사례로, AI가 정보 수집, 타겟 식별, 전투 시뮬레이션 등 군사 작전의 핵심 요소로 자리 잡고 있음을 보여준다.

펜타곤의 AI 통합

미국 국방부는 최소한 2024년부터 전투용 AI 모델과 도구를 확보해왔다. 2025년 7월, 펜타곤은 안트로피크에 최대 2억 달러 규모의 AI 서비스 계약을 체결했다. 공개된 기록에 따르면 2026년 초까지 계약금의 일부만 지급되었으며, 이는 단일 구매가 아니라 점진적인 통합을 의미한다.

안트로피크는 2024년 말부터 미국 방위 및 정보 기관과 본격적인 협력을 시작했다. 2024년 11월, 안트로피크는 팔란티르과 아마존 웹 서비스(AWS)와 협력해 클라우드를 미국 방위 및 정보 시스템에 공급했으며, 이는 분류된 환경을 포함한다. 2025년 6월, 안트로피크는 정부 및 국가 안보 업무에 맞춘 클라우드 고브 버전을 출시했으며, 이는 2025년 말까지 미국 정보 및 방위 기관에서 활발히 사용되고 있다.

이란 공격에서 클라우드의 역할

보고에 따르면, 안트로피크의 클라우드 AI 모델은 미국 군대의 정보 분석, 타겟 식별, 전투 시나리오 시뮬레이션에 사용되었다. 중동 지역의 미국 중부사령부(Centcom)는 모델을 통해 대량의 데이터, 예를 들어 통신 중계, 위성 영상, 신호 정보 등을 처리하고 분석하여 요약, 위협 평가, 상황 분석을 제공했다.

안트로피크의 AI 모델은 이란 공격 중 무기 시스템을 독립적으로 제어하지 않았다. 대신 인간 운영자에게 정보, 요약, 시뮬레이션을 제공했다. 보고서에 따르면, 클라우드는 인간 감독 없이 독립적으로 치명적인 결정을 내리지 않았으며, 공격의 주도자도 아니었다.

트럼프 대통령이 2월 말에 발령한 금지 조치에도 불구하고, 클라우드의 정보 분석, 전투 시뮬레이션, 타겟 식별 시스템 통합이 너무 깊어져 이란 공격은 클라우드의 지원을 받으며 진행되었다.

계약 분쟁과 대체 옵션

펜타곤과 안트로피크 간의 분쟁은 사용 권한에 초점이 맞춰져 있었다. 펜타곤은 전투장에서의 타겟 식별 및 무기 지원을 포함한 모든 합법적인 목적에 클라우드를 사용할 수 있는 더 넓은 권한을 요구했으나, 안트로피크는 윤리적 제약을 제거하지 않기로 했다. 이는 안트로피크의 헌법 기반 AI 프레임워크의 일부로, 클라우드는 완전 자율적인 치명적인 무기 사용을 거부하도록 프로그래밍되어 있으며, 인간 감독 없이는 공격을 승인하지 않는다.

오픈AI의 챗GPT 및 기초 GPT 시리즈 모델, 예를 들어 o1 또는 후속 모델 등은 펜타곤이 사용한 것으로 보인다. 안트로피크와의 분쟁 이후, 오픈AI는 분류된 네트워크에 모델과 도구를 배치하기 위한 새로운 협약을 맺었으며, 안전 보호 장치가 함께 적용되었다.

구글의 모회사인 알파벳은 펜타곤에 지니미(Gemini) 정부 제품을 제공했으며, 분류되지 않은 사용을 포함해 2025년 말에 시작된 GenAI.mil 플랫폼을 통해 제공되고 있다. 이 회사는 분류된 시스템으로의 확장을 위한 협상 중이다.

elon musk의 xAI, 그로크의 모회사는 군사용 그로크 정부 세트를 제공했으며, 초기에는 분류되지 않은 작업에 한해 제공되었다. 회사는 2월에 분류된 시스템에서도 사용을 위한 계약을 체결했으며, 안트로피크의 문제 발생 시 빠른 대체 옵션으로 부상하고 있다.

안트로피크가 확장된 조건에서 철수함에 따라, 오픈AI와 xAI는 미국 군대의 분류된 AI 요구를 빠르게 충족하기 위해 나섰다. 이는 AI에 대한 군사 작전에 대한 점점 더 깊어지는 의존성을 보여주는 것이며, 특히 정보 분석, 타겟 식별, 운영 시뮬레이션에 집중되어 있다.

한 가지 분명한 점은 2026년 초반에 미국 군사 계획 및 실행에 AI가 깊이 통합되어 있다는 것이다. 이는 이란 공격에서 명확히 드러났으며, 앞으로도 계속 사용될 것이다. 우리는 이미 AI 시대의 전쟁에 진입했다.