Anthropic vs 펜타곤 소송 2026 — 연방법원 가처분 인용과 AI 규제 랜드마크 판결
트럼프 행정부의 Anthropic '공급망 리스크' 지정을 연방판사가 수정헌법 제1조 위반으로 차단한 43페이지 판결문 분석

미국 역사상 처음으로, 연방정부가 자국 AI 기업을 "공급망 리스크(supply chain risk)"로 지정했다. 그리고 연방판사가 이를 위헌으로 차단했다. $2억 계약에서 시작된 이 분쟁은 AI 산업의 규제 프레임워크를 근본적으로 바꿀 판결로 이어졌다.
$2억 계약에서 블랙리스트까지
2025년 7월, Anthropic은 미 국방부(DOD)와 $2억(약 2,700억 원) 규모의 계약을 체결했다. Anthropic은 AI 기업 중 최초로 국방부의 기밀 네트워크에 자사 기술을 배포한 회사가 됐다. CNBC의 보도에 따르면, 문제는 9월에 시작됐다.
국방부는 GenAI.mil이라는 군사용 AI 플랫폼에 Claude를 배포하면서 Anthropic에 두 가지를 요구했다. 첫째, 완전 자율 치명적 무기(fully autonomous lethal weapons)에 Claude를 사용할 수 있게 할 것. 둘째, 미국 시민 대상 대규모 감시(mass surveillance)에 대한 제한을 해제할 것. Anthropic은 국방부의 다른 요구사항은 대부분 수용했지만, 이 두 가지에서 선을 그었다.
2026년 2월, 피트 헤그세스(Pete Hegseth) 국방장관이 전례 없는 조치를 취했다. Anthropic을 "공급망 리스크"로 공식 지정한 것이다. CNN에 따르면, 이 지정은 역사적으로 중국, 러시아 등 외국 적대국 기업에만 적용되어 왔다. 미국 기업에 적용된 건 사상 최초였다.
이 지정의 파급력은 즉각적이었다. 연방기관은 Claude 사용을 중단해야 했고, Amazon, Microsoft, Palantir 등 국방부 계약업체들은 자사 군사 업무에 Claude를 사용하지 않는다는 것을 인증해야 했다.
43페이지 판결: "오웰적 발상"
3월 24일, 샌프란시스코 연방법원에서 심리가 열렸다. CNBC가 보도한 심리 과정에서 리타 린(Rita Lin) 판사는 국방부 측 변호인에게 "그건 꽤 낮은 기준 아닌가(That seems a pretty low bar)"라고 압박했다.
이틀 후인 3월 26일, 린 판사는 43페이지에 달하는 판결문을 발표했다. 핵심 문장은 이것이다: "미국 기업이 정부와의 의견 불일치를 표현했다는 이유로 잠재적 적국이자 방해자로 낙인찍힐 수 있다는 오웰적(Orwellian) 발상을 뒷받침하는 법적 근거는 어디에도 없다."
린 판사는 바이든 대통령이 임명한 판사다. 그녀는 국방부의 자체 기록에서 핵심 증거를 찾아냈다. 국방부가 Anthropic에 조치를 취한 건, 회사가 "언론을 통해 적대적인 방식으로(hostile manner through the press)" 우려를 공개적으로 제기한 이후였다. 판사는 이를 "전형적인 불법적 수정헌법 제1조 보복(classic illegal First Amendment retaliation)"이라고 판시했다.
가처분(preliminary injunction, 본안 판결 전 임시로 특정 행위를 금지하는 법원 명령) 인용으로 국방부의 공급망 리스크 지정은 즉시 효력이 정지됐다. 린 판사는 정부가 항소할 수 있도록 집행을 1주일 유예했다.
자율무기 vs 안전 가드레일
이 사건의 핵심은 기술적 질문이 아니라 윤리적 질문이다. AI 기업이 자사 기술의 사용처에 대해 조건을 달 수 있는가?
Anthropic의 입장은 명확했다. Claude를 군사 플랫폼에 배포하는 것 자체에는 동의했다. 기밀 네트워크에서 작동하는 것도 수용했다. 하지만 완전 자율 살상 무기와 국내 대규모 감시는 레드 라인(red line, 절대 넘을 수 없는 선)이었다.
국방부의 논리는 달랐다. CBS News의 보도에 따르면, 내부 메모에서 군 지휘관들에게 주요 시스템에서 Anthropic AI 기술을 제거하라는 지시가 내려졌다. 국방부는 "합법적 목적 전체"에 대한 무제한 접근을 원했고, Anthropic이 이를 거부하자 공급망 리스크 지정이라는 전례 없는 무기를 꺼낸 것이다.
Scientific American의 분석은 이 충돌을 "Anthropic의 안전 우선(safety-first) AI와 펜타곤의 충돌"이라고 표현했다. AI 기업의 자발적 안전 가드레일이 국가 안보와 정면으로 부딪힌 첫 사례다.
다른 AI 기업은 왜 조용한가
이 사건에서 눈에 띄는 건 다른 AI 기업들의 침묵이다. OpenAI, Google DeepMind, Meta AI 모두 공식 논평을 내지 않았다. 이유는 추측할 수 있다. 자율무기와 대규모 감시에 대한 제한을 공개적으로 지지하면 자사도 같은 대우를 받을 수 있고, 반대하면 여론의 역풍을 맞는다.
Anthropic이 이 싸움에서 선례를 만들었다는 건 업계 전체에 영향을 미친다. 린 판사의 판결이 확정되면, AI 기업이 자사 기술의 특정 사용 목적에 대해 거부할 권리가 헌법적으로 보호된다는 전례가 확립된다. 반대로 상급법원에서 뒤집힌다면, 정부는 어떤 AI 기업이든 "협조하지 않으면 블랙리스트"라는 압박을 합법적으로 사용할 수 있게 된다.
이전에 다뤘던 Claude Computer Use Mac 에이전트나 Claude Code 에이전트 시스템은 모두 Anthropic의 안전 정책 위에서 작동한다. 그 정책의 법적 지위가 이 소송의 결과에 달려 있다.
1주일의 유예, 그리고 다음 라운드
린 판사는 정부에 1주일의 항소 기간을 주었다. 트럼프 행정부가 항소할 가능성은 높다. 이 사건은 제9순회 항소법원으로 올라갈 수 있고, 궁극적으로 연방대법원까지 갈 가능성도 있다.
법률 전문가들은 이 판결을 "랜드마크(landmark)"라고 부르지만, 동시에 "싸움은 시작일 뿐"이라고 경고한다. 가처분은 임시 조치이고, 본안 소송(trial on the merits)은 별개의 절차다.
확실한 건 하나다. AI 기업이 정부와의 계약에서 윤리적 조건을 걸었고, 정부가 보복했고, 법원이 그 보복을 위헌으로 판단했다. 이 서사 구조가 AI 규제의 향후 10년을 형성할 프레임이 될 것이다.
자율무기에 AI를 쓰지 않겠다고 한 회사를 적국처럼 취급했다. 법원은 그게 헌법 위반이라고 했다. 이제 나머지 AI 기업들이 어느 편에 설지 지켜볼 차례다.
매일 아침 AI 뉴스를 이메일로 받아보세요. spoonai.me 뉴스레터 구독
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.
