Meta, MTIA 커스텀 칩 4세대 동시 공개 — Nvidia 없는 AI 추론 시대를 연다
Meta가 자체 AI 칩 MTIA 300/400/450/500을 한꺼번에 발표했다. RISC-V 기반, 6개월 주기 신규 칩 출시 체계 구축. 스펙, 전략, 경쟁 구도 총정리.

수십만 개의 칩이 이미 돌아가고 있어
Meta가 자체 AI 칩 MTIA(Meta Training and Inference Accelerator) 시리즈 4세대를 한꺼번에 발표했어. 보통 칩 회사가 1세대 만드는 데 2–3년 걸리는데, Meta는 4세대를 2년 안에 내놓겠다는 로드맵이야. 그리고 MTIA 300은 이미 Facebook과 Instagram의 콘텐츠 추천에 프로덕션 배포 중이야. 연구 프로젝트가 아니라 실전 투입된 칩이라는 거야.
이건 단순한 칩 발표가 아니야. Meta가 Nvidia에 대한 의존도를 구조적으로 줄이겠다는 선언이야. 현재 Meta는 세계에서 가장 많은 Nvidia GPU를 보유한 기업 중 하나인데(약 60만 개 이상의 H100/B200), 이 의존도를 AI 추론 워크로드부터 점진적으로 줄여나가겠다는 전략이야.
배경: 왜 빅테크가 자체 칩을 만드는가
빅테크의 자체 칩 개발은 2024–2026년 AI 산업의 가장 중요한 트렌드 중 하나야. Google(TPU), Amazon(Trainium/Inferentia), Microsoft(Maia), Apple(M시리즈), 그리고 이제 Meta(MTIA)까지 — 모든 주요 빅테크가 자체 AI 칩을 만들고 있어.
이유는 명확해:
| 동기 | 설명 |
|---|---|
| 비용 절감 | Nvidia GPU는 한 대당 $30,000–$40,000. 자체 칩은 동일 성능을 1/3–1/5 비용으로 가능 |
| 공급 안정성 | Nvidia GPU 품귀 현상이 2년째 지속. 자체 칩은 공급 의존도를 줄임 |
| 워크로드 최적화 | 범용 GPU보다 특정 워크로드에 최적화된 칩이 전력 효율 높음 |
| 전략적 자율성 | 핵심 인프라를 단일 공급사에 의존하는 건 전략적 리스크 |
Meta의 경우 특히 추론(Inference) 비용이 핵심이야. Meta의 AI 서비스(Llama 기반 AI 어시스턴트, 콘텐츠 추천, 광고 타겟팅)는 하루에 수십억 건의 추론을 실행해. Nvidia GPU로 이걸 다 돌리면 연간 수십억 달러가 들어. 자체 칩으로 전환하면 이 비용을 극적으로 줄일 수 있어.
MTIA 4세대 스펙 비교
| 칩 | 공정 | FP8 FLOPS | HBM 대역폭 | 설계 파트너 | 상태 | 출시 예정 |
|---|---|---|---|---|---|---|
| MTIA 300 | 5nm | 기준 | 기준 | Broadcom | 프로덕션 배포 중 | 2025 |
| MTIA 400 | 5nm+ | 300 대비 400% 향상 | 300 대비 동일 | Broadcom | 양산 준비 | 2026 H1 |
| MTIA 450 | 3nm | 400 대비 향상 | 300 대비 2배 | Broadcom | 테이프아웃 완료 | 2026 H2 |
| MTIA 500 | 3nm+ | 450 대비 향상 | 450 대비 향상 | Broadcom | 설계 중 | 2027 H1 |
핵심 포인트
MTIA 300 → 400: FP8 FLOPS 400% 향상. 이건 같은 전력 예산에서 추론 처리량이 4배 늘어난다는 뜻이야. MTIA 300이 이미 프로덕션에서 Nvidia GPU를 대체하고 있는데, 400은 그 4배 성능이야. Tom's Hardware에 따르면 이건 "Nvidia의 중저가 추론 시장을 직접 겨냥하는 성능"이야.
MTIA 400 → 450: HBM 대역폭 2배. 더 큰 모델을 더 빠르게 추론할 수 있게 해. Llama 3 70B 급 모델을 MTIA 단독으로 서빙할 수 있는 수준이 될 거야.
6개월 출시 주기. Meta는 6개월마다 새 MTIA 칩을 출시하는 "tick-tock" 전략을 밝혔어. 이건 Intel이 한때 CPU 시장에서 사용한 전략과 동일한데, 반도체 설계에서 이런 빠른 주기를 유지하는 건 대단히 어려워. Broadcom과의 긴밀한 파트너십이 이걸 가능하게 해.
RISC-V 기반: 오픈 소스 아키텍처
MTIA의 기술적으로 가장 흥미로운 점은 RISC-V 명령어 집합 아키텍처(ISA)를 사용한다는 거야. RISC-V는 오픈 소스 CPU 아키텍처로, ARM이나 x86과 달리 라이선스 비용이 없어. Meta가 RISC-V를 선택한 이유:
- 커스텀 확장 자유: RISC-V는 커스텀 명령어를 추가할 수 있어. AI 추론에 최적화된 전용 명령어를 설계할 수 있어.
- 라이선스 비용 제로: ARM은 칩당 로열티를 받지만, RISC-V는 무료. 수십만 개 칩을 만들면 이 차이가 커.
- 에코시스템 성장: RISC-V 생태계가 빠르게 성장하고 있어서, 소프트웨어 지원이 개선되고 있어.
Broadcom 파트너십의 의미
MTIA 전 세대가 Broadcom과 공동 설계돼. Meta가 아키텍처와 소프트웨어를 설계하고, Broadcom이 물리적 칩 구현(피지컬 디자인)과 패키징을 담당해. 이건 Google TPU가 Broadcom과 협력하는 구조와 동일해.
Broadcom의 주가가 최근 급등한 배경도 이거야. 빅테크 자체 칩 트렌드의 최대 수혜자가 Broadcom이거든. Meta, Google, Apple 등이 모두 Broadcom을 ASIC 파트너로 사용하면서, Broadcom의 AI 관련 매출이 폭발적으로 성장하고 있어.
Meta의 AI 추론 규모: 숫자로 이해하기
Meta의 AI 추론 규모가 얼마나 거대한지 숫자로 살펴보자:
| 지표 | 수치 | 의미 |
|---|---|---|
| 일간 활성 사용자 (DAU) | 약 32억 명 | Facebook + Instagram + WhatsApp 합산 |
| 일일 추론 횟수 | 수십–수백억 건 | 콘텐츠 추천, 광고, AI 어시스턴트 |
| GPU/칩 보유량 | 60만+ GPU (Nvidia) | H100/B200 기준 |
| 연간 AI 인프라 투자 | 약 $60B+ (2026) | Capex의 상당 부분 |
| MTIA 프로덕션 배포 | 수만 개 | MTIA 300 기준, 확대 중 |
하루에 32억 명이 사용하는 서비스의 AI 추론을 전부 Nvidia GPU로 돌리면 비용이 천문학적이야. 1건의 추론 비용이 $0.001이라고 해도, 하루 100억 건이면 일간 $10M, 연간 $3.65B야. MTIA로 이 비용을 절반만 줄여도 연간 $1.8B 이상 절감되는 거야.
이게 Meta가 4세대 칩을 동시에 개발하는 이유야. 규모의 경제에서 자체 칩의 경제적 이점이 압도적으로 커지거든. The Register는 이번 발표를 두고 "Meta is building a semiconductor operation at scale"이라고 평가했어.
MTIA의 실전 배포 사례
MTIA 300이 현재 프로덕션에서 담당하는 워크로드:
- 콘텐츠 추천: Facebook 뉴스피드, Instagram Explore, Reels 추천 알고리즘의 추론
- 광고 타겟팅: 실시간 입찰(RTB) 시스템에서 광고 관련성 점수 계산
- 콘텐츠 모더레이션: 유해 콘텐츠 자동 탐지 (이미지, 텍스트 분류)
- Meta AI 어시스턴트: Llama 기반 AI 챗봇의 일부 추론 처리
특히 광고 타겟팅은 Meta 매출의 95% 이상을 차지하는 핵심 비즈니스야. 이 워크로드를 MTIA로 전환하면 비용 절감이 직접적으로 영업이익 개선으로 이어져.
경쟁 구도: 빅테크 자체 칩 전쟁
| 회사 | 칩 이름 | 주요 용도 | 현재 세대 | 강점 |
|---|---|---|---|---|
| TPU v6 (Trillium) | 훈련 + 추론 | v6 | 10년+ 역사, JAX 생태계 | |
| Amazon | Trainium2 / Inferentia3 | 훈련 / 추론 | 3세대 | AWS 고객 기반 |
| Microsoft | Maia 100 | 추론 | 1세대 | Azure + OpenAI 통합 |
| Meta | MTIA 300–500 | 추론 (우선) | 300 프로덕션 | Llama 최적화, 자체 서비스 |
| Apple | M 시리즈 | 온디바이스 AI | M4 Ultra | 에너지 효율 |
Meta의 차별점은 자체 서비스에서 직접 사용한다는 거야. Google TPU도 Google Cloud에서 외부에 판매하고, Amazon Trainium도 AWS에서 판매해. 하지만 Meta는 MTIA를 외부에 판매하지 않아 — 오직 자기 서비스(Facebook, Instagram, WhatsApp, Meta AI)에만 사용해. 이건 칩 설계를 자기 워크로드에 100% 최적화할 수 있다는 뜻이야.
Nvidia와의 관계
Meta가 자체 칩을 만든다고 Nvidia를 버리는 건 아니야. Meta의 AI 워크로드는 크게 두 가지야:
- 훈련(Training): Llama 4, 5 같은 대규모 모델 사전 학습 → 여전히 Nvidia GPU 사용
- 추론(Inference): 수십억 명의 유저에게 AI 서비스 제공 → MTIA로 전환 중
훈련에는 범용 고성능이 필요하지만, 추론은 특정 모델에 최적화된 칩이 더 효율적이야. Meta는 추론의 상당 부분을 MTIA로 전환하면서, Nvidia GPU는 훈련에 집중 배치하는 전략이야. CNBC에 따르면 Meta는 "MTIA와 Nvidia GPU의 보완적 관계"를 강조했어.
개발자에게 주는 의미
1. Llama 생태계의 하드웨어 최적화: MTIA는 Llama 모델에 최적화돼 있어. 장기적으로 Llama 모델이 MTIA에서 가장 빠르게 돌아가도록 소프트웨어 스택이 구축될 거야. 오픈소스 모델 생태계에서 하드웨어-소프트웨어 수직 통합이 강화되는 거야.
2. AI 칩 다양화 시대: Nvidia GPU 독점에서 다양한 칩이 공존하는 시대로 전환되고 있어. 개발자는 PyTorch, ONNX 같은 프레임워크를 통해 다양한 하드웨어를 추상화해서 사용하게 될 거야. 하드웨어 종속을 피하는 이식 가능한 코드 작성이 더 중요해져.
3. 추론 비용의 극적 하락: Meta가 MTIA로 자체 추론 비용을 낮추면, 이건 Llama 기반 서비스의 가격 경쟁력으로 이어져. 오픈소스 Llama를 사용하는 스타트업들에게도 간접적으로 추론 인프라 비용 절감 압력이 생겨.
왜 중요한가
Meta의 MTIA 4세대 동시 발표는 "실리콘 전략"이 빅테크의 핵심 경쟁력이 됐다는 증거야. 소프트웨어(모델)만 잘 만들어서는 안 되고, 하드웨어(칩)까지 자체 설계해야 경쟁할 수 있는 시대가 온 거야.
4세대 칩을 6개월 간격으로 출시하는 빠른 실행력, RISC-V 오픈 아키텍처 채택, Broadcom과의 전략적 파트너십, 그리고 MTIA 300의 실전 배포. 이 모든 게 Meta가 AI 인프라에서 Nvidia 의존도를 줄이면서도 경쟁력을 유지하겠다는 강한 의지를 보여줘. AI 칩 전쟁에서 Nvidia의 독점은 서서히 끝나가고 있어.
참고 자료
관련 기사

Nexthop AI, $500M 시리즈B로 $4.2B 유니콘 — AI 데이터센터 네트워킹의 새 강자
전 Arista COO가 만든 Nexthop AI가 $500M 시리즈B를 유치하며 $4.2B 밸류에이션에 도달했다. 신규 스위치 3종, 기술 분석, 경쟁 구도 총정리.

Meta Llama 4 Scout: 컨텍스트 1000만 토큰, 오픈소스가 GPT-4 수준에 도달했다
Meta가 17B 활성 파라미터의 MoE 모델로 업계 최장 1000만 토큰 컨텍스트 윈도우를 달성했다. 단일 H100에서 실행 가능하고, 주요 벤치마크에서 Gemma 3와 Gemini 2.0 Flash를 앞선다.

Meta, 700명 자르고 AI에 $167B 올인 – 메타버스의 끝, AI의 시작
Meta가 Reality Labs 등에서 700명을 해고하고 올해 AI 인프라에 $135B를 쏟아붓는다. 2022년 이후 누적 해고 25,000명. 저커버그의 올인 전략을 해부한다.
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.
