spoonai
TOPAnthropicClaude CodeMythos

6주 만에 두 번, Anthropic의 보안 사고가 말해주는 것

Mythos 모델 유출부터 Claude Code 50만 줄 소스 공개까지. AI 안전의 대명사 Anthropic에 연속으로 터진 보안 사고의 전말과 업계 파장을 분석한다.

Anthropic 로고와 보안 경고 이미지
출처: Anthropic

"AI 안전 1위" 회사에서 6주 만에 두 번의 유출이 터졌다

3,000개의 미공개 블로그 초안. 50만 줄의 소스코드. 그리고 "역대 가장 위험한 AI 모델"이라는 내부 평가서.

Anthropic이 2026년 3월 한 달 동안 세상에 내보낸 것들이야. 의도한 게 아니라 실수로.

AI 업계에서 "책임 있는 AI"의 아이콘으로 자리잡은 회사가, 정작 자기 집 문단속에서 연속으로 실패했어. 이건 단순한 해프닝이 아니야. AI 안전(AI Safety)을 브랜드의 핵심으로 내세운 기업이 보안에서 무너진다는 건, 업계 전체의 신뢰 구조에 금이 가는 사건이야.

1차: Mythos 유출 -- CMS 설정 오류 하나가 열어젖힌 판도라의 상자

3월 26일, Fortune이 특종을 터뜨렸어. Anthropic의 콘텐츠 관리 시스템(CMS)에서 미공개 블로그 초안 3,000개가 누구나 접근할 수 있는 상태로 방치되어 있었다는 거야.

그 초안 중 하나가 바로 "Mythos"에 대한 글이었어. Anthropic이 내부적으로 "Capybara"라는 코드네임으로 개발 중이던, Claude Opus 4.6보다 한 단계 위의 모델이야. 회사 스스로 "step change(단계적 도약)"라고 표현할 정도의 성능 향상을 보여줬대.

문제는 성능만이 아니었어. 유출된 문서에는 Anthropic이 미국 정부 고위 관계자들에게 비공개로 브리핑한 내용도 포함돼 있었어. 핵심 메시지는 이런 거였어.

Mythos는 대규모 사이버 공격의 가능성을 현실적으로 높이는 최초의 AI 모델이 될 수 있다.

CNN 보도에 따르면 Anthropic은 Mythos를 "watershed moment(분수령)"이라고 표현하면서, 사이버 보안 분야에서 전례 없는 리스크를 내포하고 있다고 경고했어. 소프트웨어 코딩, 학술 추론, 사이버 보안 테스트에서 기존 Opus 4.6을 크게 앞질렀다는 내부 평가가 함께 나왔어.

항목 유출 내용
모델명 Mythos (내부 코드네임: Capybara)
포지셔닝 Opus보다 상위 티어, 가장 비싼 모델
성능 코딩/추론/사이버보안에서 Opus 4.6 대비 "dramatic" 향상
리스크 평가 대규모 사이버공격 가능성을 현실화하는 최초의 모델
유출 경로 CMS 설정 오류로 미공개 블로그 3,000개 공개 노출
유출 규모 블로그 초안 3,000건 + 내부 정부 브리핑 내용

Anthropic은 "human error(사람의 실수)"라고 인정했어. CMS 설정을 잘못해서 초안 상태의 게시물이 공개 검색이 가능한 데이터 캐시에 올라갔다는 거야.

2차: Claude Code 소스 유출 -- 디버깅 파일 하나가 2,000개 파일을 열었다

1차 유출로 업계가 술렁이고 있던 3월 31일, 같은 회사에서 또 터졌어. 이번엔 코드였어.

보안 연구자 Chaofan Shou가 Claude Code의 npm 패키지 업데이트에서 이상한 걸 발견했어. 디버깅용 소스맵(.map) 파일이 패키지에 포함돼 있었는데, 이 파일 하나로 전체 TypeScript 소스코드를 복원할 수 있었던 거야.

2,000개 파일. 50만 줄. Claude Code의 전체 코드베이스가 그대로 나왔어.

수 시간 만에 GitHub에 미러 레포지토리가 생겼고, 하루 만에 25,000개 이상의 스타를 받았어. 코드를 분석한 개발자들이 찾아낸 미공개 기능은 세 가지야.

미공개 기능 설명
영구 어시스턴트 모드 Claude가 백그라운드에서 상시 실행, 파일 변경 자동 모니터링
리모트 컨트롤 스마트폰에서 데스크톱 Claude 세션을 원격 제어
세션 자동 리뷰 AI가 자기 작업을 사후 평가하는 메타인지 시스템

"고객 데이터 노출은 없었다. 이건 보안 침해가 아니라 패키징 실수다." Anthropic의 공식 입장이야. 기술적으로는 맞는 말이야. 하지만 경쟁사 OpenAI, Google, xAI 입장에서 보면? Anthropic의 아키텍처 설계, 미공개 로드맵, 내부 기술 전략이 그대로 드러난 셈이야.

두 사건을 잇는 하나의 패턴

두 유출은 성격이 달라 보이지만, 뿌리는 같아. "내부 도구와 콘텐츠의 접근 제어 실패"야.

첫 번째는 CMS 설정. 두 번째는 npm 패키지 빌드 파이프라인. 둘 다 외부 해커의 침투가 아니라 내부 프로세스의 구멍이었어. 그리고 둘 다 발견자가 외부인이었다는 점이 더 뼈아파. 내부 보안 감사에서 잡히지 않았다는 뜻이니까.

Anthropic은 2024년부터 "Responsible Scaling Policy(책임 있는 확장 정책)"를 AI 업계의 표준으로 제시해왔어. 모델의 위험도에 따라 배포를 단계적으로 제한하는 프레임워크인데, 이 정책의 전제는 "우리가 위험을 통제할 수 있다"는 거야.

6주 만에 두 번의 유출은 이 전제에 의문을 던져. 가장 위험하다고 자체 평가한 모델의 존재와 성능이 CMS 실수 하나로 세상에 나왔어. 가장 핵심적인 개발 도구의 소스코드가 빌드 스크립트 하나로 공개됐어.

업계가 받는 충격파

이 사건이 Anthropic만의 문제가 아닌 이유가 있어.

AI 안전 논의에서 Anthropic은 사실상 "모범 사례"의 기준점이었어. OpenAI가 상업화에 속도를 내고, Meta가 오픈소스로 밀어붙이는 사이에서, Anthropic은 "안전하게 가면서도 최고 성능을 낼 수 있다"는 내러티브의 주인공이었어.

그 기준점이 흔들리면, 규제 논의의 판도도 바뀌어. 이번 주 미국에서만 테네시, 아이다호, 조지아에서 AI 관련 법안이 움직이고 있어. 오레곤과 워싱턴은 이미 챗봇 안전법을 통과시켰어. "AI 기업이 자체적으로 안전을 관리할 수 있다"는 자율규제 논리의 가장 강력한 증거가 Anthropic이었는데, 그 증거에 금이 갔어.

경쟁사들의 반응도 미묘해. Claude Code 소스 유출 이후, 여러 분석에서 Anthropic의 에이전트 아키텍처 설계가 경쟁사 대비 12-18개월 앞서 있다는 평가가 나왔어. 영구 어시스턴트 모드, 메타인지 시스템 같은 기능은 아직 어떤 경쟁사도 공개적으로 보여주지 않은 것들이야. 역설적으로, 유출이 Anthropic의 기술적 우위를 증명한 셈이야.

타이밍의 문제: IPO와 Mythos 출시

Anthropic의 기업가치는 최근 2차 시장 거래에서 $600B 이상으로 평가받고 있어. Q1 2026에만 $30B의 신규 투자를 유치했어. IPO 준비가 진행 중이라는 게 업계의 공통된 관측이야.

이 시점에서의 보안 사고 연속은 최악의 타이밍이야. 특히 Mythos 출시와 맞물려. Polymarket에서 Mythos의 4월 내 출시 확률은 약 25%로 거래되고 있어. Anthropic으로서는 IPO 전에 "역대 최강 모델"이라는 마일스톤이 필요하지만, 동시에 "이 모델은 전례 없는 사이버 위협을 만든다"는 자체 평가가 이미 세상에 나와버린 상태야.

Mythos 출시는 단순한 제품 발표가 아니야. "세계에서 가장 위험하다고 스스로 인정한 모델을 어떻게 책임 있게 배포하는가"에 대한 시험대가 될 거야.

그래서 뭐가 달라지는데

개발자라면 이번 사건에서 세 가지를 눈여겨볼 필요가 있어.

첫째, npm 패키지의 소스맵 관리. Claude Code 유출은 .map 파일 하나에서 시작됐어. 프로덕션 빌드에서 소스맵을 제거하는 건 기본 중의 기본인데, 이걸 Anthropic 규모의 회사도 놓칠 수 있다는 거야. 지금 당장 자기 프로젝트의 빌드 파이프라인을 점검해봐.

둘째, 유출된 Claude Code 아키텍처에서 배울 게 있어. 영구 어시스턴트 모드와 메타인지 시스템은 에이전트 개발의 다음 방향을 보여줘. 특히 "AI가 자기 작업을 평가한다"는 컨셉은 곧 업계 표준이 될 가능성이 높아.

셋째, AI 안전은 연구 문제만이 아니라 운영 문제야. 아무리 뛰어난 안전 연구팀이 있어도, DevOps와 인프라 보안이 받쳐주지 않으면 무의미해. 이번 주 Anthropic이 그걸 증명했어.

참고 자료

관련 기사

무료 뉴스레터

AI 트렌드를 앞서가세요

매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.