spoonai
TOPGoogleGeminiPentagon

구글, 국방부와 '기밀 환경 Gemini' 계약 협상 중이야

Alphabet이 미 국방부와 기밀(classified) 환경에 Gemini AI를 배치하는 계약을 협상 중. 자율 무기·국내 대량 감시 사용 금지 조항을 계약에 박아 제안. OpenAI 조건과 사실상 동등한 수준인데, 2018년 Project Maven 항의 이후 구글 내부 분위기는 완전히 달라.

·4분 소요·Yahoo Finance
공유
구글 Gemini와 미 국방부 계약 협상 관련 이미지
출처: Google / Pentagon

4,000명. 2018년 "Maven 프로젝트 반대" 청원에 서명했던 구글 직원 숫자야

그 청원은 당시 CEO Sundar Pichai를 움직였지. 구글은 Maven에서 철수했고, 이후 AI 윤리 원칙을 공개하면서 "무기·감시에 쓰이는 AI는 안 만든다"고 선언했어. 그게 2018년이야.

그리고 8년이 지난 2026년 4월 16일. The Information이 특종을 터뜨렸어.

Alphabet이 미 국방부(Department of Defense)와 Gemini AI를 기밀(classified) 환경에 배치하는 계약을 협상 중이야.

이걸 이해하려면 — 구글과 국방부의 진짜 역사

구글의 군사 협력 역사는 두 번의 변곡점을 지났어.

첫 번째는 Project Maven (2017). 국방부의 드론 영상 자동 분석 계약이었고, 구글 TensorFlow를 활용했어. 직원 항의로 2018년 구글은 계약 갱신 포기를 선언했지. 이 때 만들어진 것이 유명한 "Google AI Principles(구글 AI 원칙)"이고, 거기엔 "목적이 무기 또는 대량 감시인 기술은 추진하지 않는다"는 조항이 있어.

두 번째는 2023~2025년 조용한 회귀. ChatGPT 쇼크 이후 AI가 국가 경쟁력 문제가 되면서, 구글은 AI 원칙을 슬그머니 수정했어. 2025년 초에는 "무기 금지" 조항이 명시적 리스트에서 빠졌고, "해로운 활용을 피하도록 충분한 거버넌스를 갖추겠다"는 추상적 언어로 바뀌었어.

그리고 2025년 12월, 구글은 Pentagon의 GenAI.mil 플랫폼에 Gemini for Government를 공급하기 시작했어. 이건 비기밀(unclassified) 영역이었지만, 승인받은 민간·군 인력 약 300만 명이 사용하는 전사 플랫폼이야.

시점 사건 분위기
2018 Project Maven 직원 항의, 구글 철수 "AI 윤리" 탑라인
2018 AI Principles 공개 (무기·감시 금지) 내부 결속 강화
2023 ChatGPT 쇼크 전략 재검토 시작
2024–2025 AI 원칙 조용히 수정 "무기 금지" 조항 약화
2025.12 GenAI.mil에 Gemini for Government 공급 비기밀, 3M 사용자
2026.04 기밀 환경 Gemini 배치 협상 보도 기밀 영역 첫 진입

이번 협상이 깊이 있는 이유가 여기 있어. 지금까지 구글이 국방부에 납품해온 건 "일반 인프라"였고, 기밀정보를 다루는 환경은 따로였어. 그 장벽을 넘는 순간이 이번 계약이야.

핵심 내용 해부

계약 구조 – "Lawful uses (합법적 용도 전체)"

공개된 보도에 따르면 구글은 "Pentagon이 Gemini를 모든 합법적 용도(all lawful uses)에 쓸 수 있도록 허용"하는 계약을 협상 중이야. 단 두 가지 명시적 금지 조항을 포함해서 제안하고 있어.

  1. 자율 무기(autonomous weapons)에서 "적절한 인간 통제(appropriate human control)" 없이는 사용 금지
  2. 국내 대량 감시(domestic mass surveillance) 금지

OpenAI 조건과 사실상 동일해

흥미로운 건 이 조건이 새로운 게 아니라는 거야. OpenAI가 2026년 초에 Pentagon과 맺은 계약에 이미 같은 조항이 들어가 있어. Sam Altman은 공개적으로 "Pentagon에 모든 AI 회사에게 동일한 조건을 제시해달라"고 요구한 적 있거든.

이 말은 뭘 뜻할까? 미국 국방부가 프런티어 AI 벤더들(OpenAI, Anthropic, Google, xAI)에게 "공통 계약 템플릿"을 적용하기 시작했다는 거야. 개별 벤더마다 다른 조건으로 싸우는 게 아니라, 산업 전체에 같은 규약을 깔고 벤더를 선택하는 구조로 바뀌고 있어.

Anthropic 파열음도 맥락

Newsweek 보도의 각도가 중요해. "Anthropic fallout 이후" Pentagon이 Gemini를 검토한다는 표현이 나왔는데, 이건 최근 Anthropic이 일부 정부 계약 조건에 저항하면서 마찰이 있었다는 뜻이야. Anthropic은 공공연하게 "우리는 상업 고객 중심"이라는 포지션을 유지해왔고, 국방부와의 협력 범위에 대해 보수적인 입장이었지.

그 공백을 구글이 치고 들어온 셈이야.

더 넓은 그림 — AI는 이제 지정학이야

이 협상은 구글 내부 이슈로 끝나지 않아. 몇 가지 큰 움직임을 보여주고 있어.

첫째, 빅테크의 방산 수직 편입이 완료 단계. OpenAI는 2024년 말부터 공식적으로 방산 계약을 터뜨렸고, Anduril·Palantir와의 파트너십도 공개했지. Anthropic은 AWS·Palantir와 팀을 이뤘고. xAI는 Musk의 SpaceX·Starlink 라인과 자연 연결. 여기서 Google이 "기밀 환경 직접 배치"까지 간다면, 주요 프런티어 AI 벤더 4곳이 모두 Pentagon 인프라에 침투하는 구도야.

둘째, 구글 내부 직원 저항의 반감기. 2018년 Maven 반대 청원에 4,000명이 서명했던 구글이, 이제는 내부 반발 없이 방산 계약을 진행해. 2024년 구글은 이스라엘-가자 관련 Project Nimbus에 항의한 직원 50여명을 해고했어. "반대하면 해고된다"는 신호를 이미 보냈지. 저항의 코스트가 높아진 거야.

셋째, 국방부의 AI 조달이 "디플레이션"되고 있어. 개별 AI 벤더 간 차별화가 조건 측면에선 거의 없어. Pentagon이 받아들이는 조건은 OpenAI·Google·Anthropic이 거의 동일. 이렇게 되면 차별화는 오직 "성능 + 가격 + 보안 인증"으로만 결정돼. 일반 상용 클라우드 조달과 같은 구조야.

2018년 Maven의 교훈은 "기술 회사는 윤리 기반으로 군사 계약을 거부할 수 있다"였어. 2026년 메시지는 다르지. "조건만 맞추면 모두 참여한다."

그래서 뭐가 달라지는데

Gemini 사용자에게: 공공·엔터프라이즈 고객은 직접적 영향 없어. 기밀 환경 배치는 일반 API와 분리된 별도 인프라(air-gapped classified cloud)에서 돌아가니까.

AI 정책 관계자에게: "AI 거버넌스 산업 표준"이 연방 조달에서 먼저 형성되는 중이야. Pentagon이 쓰는 벤더 계약 템플릿이 사실상 미국 정부 전체의 AI 사용 계약 표준이 될 거고, 그건 EU AI Act 같은 규제와 맞물려 글로벌 프레임에 영향을 줄 거야.

구글 엔지니어와 연구자에게: 지금까지 "AI 안전/정렬" 연구를 하던 사내 팀들이 기밀 환경 배치에 쓰일 모델을 다루게 돼. 2018년처럼 거부권이 작동할 가능성은 낮아 보여. 윤리 트랙을 중시하는 연구자들이 경쟁사(특히 Anthropic)로 이동하는 흐름이 더 커질 가능성이 있어.

참고 자료

관련 기사

무료 뉴스레터

AI 트렌드를 앞서가세요

매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.

매일 30개+ 소스 분석 · 한국어/영어 이중 언어광고 없음 · 1-클릭 해지