Meta, Llama를 버리고 독점 모델 Muse Spark를 택했다 — 오픈소스 AI의 판이 바뀐다
Meta가 첫 독점 AI 모델 Muse Spark를 출시하며 Llama로 대표되는 오픈소스 전략에서 선회했다. 29세 알렉산더 왕이 이끄는 Meta Superintelligence Labs의 첫 작품이 AI 업계의 오픈소스 생태계에 미칠 파장을 분석한다.

인트로 훅 — 18개월 만의 대전환
52점. Muse Spark가 Artificial Analysis Intelligence Index v4.0에서 받은 점수야. GPT-5.4(57)와 Gemini 3.1 Pro(57)에 이어 Claude Opus 4.6(53) 바로 뒤, 프런티어 모델 4위권이야.
근데 숫자보다 의미가 크다. 이 모델은 Meta가 처음으로 오픈 웨이트로 공개하지 않은 플래그십 AI야. Llama 2가 나온 2023년 이후 2년 8개월. "AI를 민주화한다"는 깃발을 들고 달렸던 회사가 방향을 180도 돌렸어.
발표된 건 2026년 4월 8일. 29세의 알렉산더 왕(Alexandr Wang)이 이끄는 Meta Superintelligence Labs(MSL)의 첫 작품이고, API 프리뷰만 선별된 파트너에게 제공돼. 오픈 웨이트 공개 계획도 현재로서는 없어.
스펙 한눈에 — 공개된 정보와 감춘 정보
Meta는 파라미터 수, 컨텍스트 길이, 훈련 토큰 수 같은 "숫자 스펙"을 대부분 공개하지 않았어. 이것 자체가 신호야. Llama 시대에는 테크니컬 리포트에 모든 숫자를 박아 넣었는데, 지금은 비즈니스 시크릿으로 보는 거야.
| 항목 | Muse Spark | Llama 4 Maverick (비교) |
|---|---|---|
| 파라미터 | 비공개 (MoE 구조로 추정) | 400B 총, 활성 17B |
| 컨텍스트 | 비공개 (수십만 토큰 급으로 추정) | 1M 토큰 |
| 라이선스 | 독점(proprietary), 오픈 웨이트 없음 | Llama 커뮤니티 라이선스 |
| 접근 방식 | Meta AI 앱·웹, 선별 파트너 API preview | Hugging Face·AWS·Azure 자유 다운로드 |
| 학습 인프라 | 9개월 전부 재구축한 신규 AI 스택 | 기존 Llama 2/3 인프라 확장 |
| 차별 기술 | "thought compression" RL 기법 | MoE + 장문 컨텍스트 |
MSL 팀은 "9개월 전 AI 스택을 처음부터 다시 지었다"고 공식 발표했어. 인프라, 아키텍처, 데이터 파이프라인 전부 새로 짰다는 얘기야. 기존 FAIR가 쌓아 올린 자산 위에 얹은 게 아니라는 메시지가 여기서 읽혀.
출처: onhealthcare.tech · 공식 프레스 이미지 인용
벤치마크 — 헬스 카테고리에서 프런티어를 눌렀어
숫자로 보자.
| 벤치마크 | Muse Spark | GPT-5.4 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| AA Intelligence Index v4.0 | 52 | 57 | 53 | 57 |
| HealthBench Hard | 42.8 | 40.1 | – | 20.6 |
| 추정 포지션 | Top 5 | Top 1 | Top 3 | Top 1 |
HealthBench Hard에서 42.8점을 기록하며 GPT-5.4(40.1)와 Gemini 3.1 Pro(20.6)를 모두 뛰어넘었어. Meta는 1,000명 이상의 의사와 협업해 헬스 전용 학습 데이터를 큐레이션했다고 밝혔어. 특정 수직 도메인을 노리고 훈련을 최적화한 결과야.
일반 지능 지표에서는 여전히 GPT-5.4·Gemini 3.1 Pro에 밀려. 하지만 Llama 4 대비 "같은 성능을 내는 데 10배 이상 적은 컴퓨트"가 든다고 Meta가 주장해. 이게 사실이면 경제성 측면에서 판도가 바뀌어.
아키텍처 + 훈련 — "thought compression"이 뭔지
Muse Spark의 핵심 기법 중 공개된 건 "thought compression"이라고 불리는 강화학습 페널티 구조야.
쉽게 말하면 이런 거야. 추론 모델(reasoning model)은 답을 내기 전에 "생각하는 시간"을 길게 갖는데, 이게 토큰 비용과 지연시간을 폭발시켜. Meta는 모델이 생각을 너무 오래 하면 RL 보상에서 점수를 깎는 훈련 레짐을 넣었어. 결과적으로 같은 정확도를 더 짧은 reasoning trace로 내도록 유도돼.
| 훈련 축 | 설명 | 효과 |
|---|---|---|
| Thought compression | 과도한 사고 시간 페널티 | 추론 효율 10배 개선 주장 |
| 헬스 도메인 큐레이션 | 의사 1,000명 이상 참여 | HealthBench Hard 1위 |
| 신규 데이터 파이프라인 | Scale AI 인수 시너지 | 라벨 품질 개선 |
| 신규 인프라 | 9개월간 바닥부터 재구축 | 학습 안정성 확보 |
알렉산더 왕이 Scale AI에서 쌓은 "데이터 품질이 모델 품질을 만든다"는 철학이 훈련 파이프라인에 직접 녹았다는 해석이 가능해. Meta가 Scale AI 지분에 $143억을 태운 이유가 여기에 있어.
출처: felloai.com · 뉴스 인용 fair use
라이선스 + 사용 조건 — 개발자에게 뭐가 열려 있나
정리하면 이래:
- Meta AI 앱(iOS·Android) 및 web: 일반 사용자 무료 접근
- API preview: 선별된 기업 파트너에만 (신청-승인 방식)
- 오픈 웨이트: 없음. Hugging Face에 weights 업로드 계획 없음
- 파인튜닝: 불가. 외부 조직이 자체 데이터로 모델을 재훈련할 수 없음
- 셀프 호스팅: 불가. AWS·Azure·GCP에 배포 불가
OpenAI나 Anthropic은 적어도 "돈을 내면 누구나 API로 접근 가능"이었어. Muse Spark는 그보다 한 단계 더 폐쇄적이야. Meta 플랫폼 안에서만 가치를 발생시키는 게 목표야.
주목할 건 Meta가 "Llama 라인은 계속 유지된다"고 공식 확인했다는 점이야. 기존 Llama 2·3·4는 현재 라이선스 그대로 유지되고, "open-weight 플랜은 병행된다"고 블로그에 적었어. 다만 차기 플래그십 모델이 오픈 웨이트로 나올 보장은 없어졌어.
초기 커뮤니티 반응 — 실망, 그리고 분열
Hacker News, X(구 트위터), r/LocalLLaMA에서 반응이 극명하게 갈렸어.
실망한 쪽은 이렇게 말해. "Meta가 오픈소스의 마지막 보루였는데, 결국 상업적 압력에 굴복했다." 특히 Llama 생태계 위에서 제품을 만들어 온 스타트업과 연구자들은 다음 세대 모델이 오픈으로 나올지 불확실해진 걸 치명적 리스크로 읽어.
옹호하는 쪽의 논리는 이래. "Meta는 이미 충분히 오픈소스에 기여했고, 플래그십 모델을 무료로 주는 건 비즈니스적으로 지속 불가능했다." HealthBench 1위를 찍은 수준의 모델이라면 공개 시 남용 리스크도 커지는 게 사실이야.
"Muse Spark는 Llama의 죽음이 아니라, Meta가 오픈소스와 상업 제품을 분리하기 시작한 시점의 표식이다." — Artificial Analysis 리뷰
경쟁 구도 변화 — 오픈소스 AI의 다극화
Meta가 빠진 자리를 누가 채우고 있나. 숫자를 보면 이미 답은 나와 있어.
| 오픈소스 모델 | 출처 | 파라미터 | 라이선스 | 2026 Q1 HF 다운로드 점유율 |
|---|---|---|---|---|
| Gemma 4 | 27B dense, 26B MoE | Apache 2.0 | 상승 중 | |
| GLM-5.1 | Zhipu AI (중국) | 744B MoE (40B active) | MIT | 빠르게 상승 |
| Qwen 3 | Alibaba (중국) | 다양한 크기 | Apache 2.0 | 1위권 |
| DeepSeek V3+ | DeepSeek (중국) | 671B MoE | 자체 라이선스 | 상위권 |
Hugging Face 2025년 말 집계 기준 중국 모델(Alibaba Qwen, DeepSeek 등)이 다운로드의 약 41%를 차지했어. Meta의 이탈은 이 흐름을 가속할 가능성이 높아. 미국 정부가 AI 칩 수출을 막는 동안, 중국 기업들이 오픈소스 소프트웨어로 글로벌 개발자 생태계의 영향력을 넓히는 역설적 상황이야.
Google은 미묘한 포지션이야. Gemini(상용)과 Gemma(오픈) 양쪽에 배팅하고 있고, Gemma 4는 Apache 2.0이라 상업 이용에 제약이 없어. Meta가 떠난 "오픈소스 챔피언" 자리를 Google이 노리고 있다는 해석이 가능해.
그래서 뭐가 달라지는데 — 개발자가 당장 할 일
세 가지만 지금 움직여야 해.
첫째, Llama 의존성 점검. Llama 2·3·4 위에 프로덕트를 얹어 놓은 팀은 차기 세대 이행 계획을 미리 세워야 해. Meta가 Llama 5(가칭)를 오픈으로 낼지 확실하지 않아. Gemma 4, GLM-5.1, Qwen 3이 실질적 대안이야. Apache 2.0 또는 MIT 계열이라 라이선스 부담도 적어.
둘째, 수직 도메인 모델을 눈여겨봐야 해. Muse Spark가 HealthBench에서 GPT-5.4를 눌렀다는 건, 범용 모델보다 특정 도메인 데이터에 튜닝된 모델이 더 유리할 수 있다는 신호야. 자체 데이터가 있다면 Qwen 3이나 Gemma 4를 베이스로 도메인 특화 파인튜닝을 시도할 가치가 있어.
셋째, "오픈소스 = 무료 점심"이라는 환상을 접어야 해. 프런티어 모델 훈련 비용은 회당 수억 달러 단위로 뛰어올랐어. 이걸 무한정 공개하는 비즈니스 모델은 지속 가능하지 않아. 앞으로 "작은 모델은 무료, 큰 모델은 유료"로 분화할 가능성이 높고, 차기 플래그십이 오픈으로 나오면 오히려 예외로 읽어야 해.
참고 자료
- Introducing Muse Spark: Scaling Towards Personal Superintelligence (Meta AI 공식 블로그)
- Goodbye, Llama? Meta launches new proprietary AI model Muse Spark (VentureBeat)
- Meta debuts new AI model, attempting to catch Google, OpenAI (CNBC)
- Muse Spark: Meta is back in the AI race (Artificial Analysis 리뷰)
- Meta unveils Muse Spark (Fortune)
- Meta Hasn't Given Up on Open Source (NYU Shanghai RITS)
출처
관련 기사

Meta, 알렉산드르 왕 체제에서 첫 AI 모델 공개 예고
Meta가 Scale AI 출신 알렉산드르 왕 주도로 새 AI 모델을 준비 중이다. 일부는 오픈소스로, 최대 규모 모델은 비공개로 운영하는 하이브리드 전략으로 전환한다.

DeepSeek V4 — 1조 파라미터 오픈웨이트 MoE의 모든 것
아키텍처(MoE Top-16, Engram Memory), 벤치마크(HumanEval 90%), 가격(Claude 대비 50배 저렴), 라이선스, API 사용법까지. 4월 정식 출시 전에 알아야 할 전부.

OpenClaw — 클라우드 없이 돌아가는 개인 AI 비서가 25만 스타를 찍은 이유
로컬에서 돌아가고, WhatsApp·Telegram·Slack·iMessage까지 50개 플랫폼을 연결하는 개인 AI 에이전트. 주말 프로젝트가 깃허브 역사상 가장 빠른 성장을 기록했다.
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.