spoonai
TOPGoogleMarvellTPU

구글, Marvell이랑 TPU 둘 만든다 — 메모리 칩 + 추론 칩

Alphabet이 Marvell과 MPU(메모리 처리 유닛) + 추론 전용 TPU 두 종류 공동 개발 논의 중. Nvidia 대항마로 TPU 생태계를 확장하는 결정적 수순.

·5분 소요·News.az
공유
AI 가속기 TPU 반도체 디자인 컨셉 이미지
출처: Unsplash

TPU가 둘로 쪼개진다

2026년 4월 19일, Alphabet이 Marvell Technology와 맞춤형 AI 칩 두 종류를 공동 개발하는 논의를 진행 중이라는 보도가 나왔어. 하나는 MPU(Memory Processing Unit, 메모리 처리 유닛), 다른 하나는 추론 전용 TPU(Tensor Processing Unit, 텐서 처리 유닛)야. 월요일 개장 전 Marvell 주가는 6~7% 급등했고 Google 주가는 1% 하락했어.

이거 한 줄로 줄이면 — 구글이 Nvidia에 조용히 덤비고 있어.

이걸 이해하려면

TPU는 뭐였는지부터

TPU는 구글이 2015년부터 내부적으로 쓰고 있던 AI 전용 칩이야. 처음엔 자사 검색·광고 시스템의 머신러닝 연산 속도를 올리려고 만들었는데, 지금은 Gemini 모델 학습·추론의 주축이 되는 인프라야. 외부 고객(Anthropic, Apple, Salesforce 등)도 Google Cloud를 통해 TPU를 쓰고 있어.

TPU의 설계 파트너는 전통적으로 Broadcom이었어. Broadcom은 ASIC(특정 용도용 맞춤 반도체) 설계에 강하고, 구글이 아키텍처를 정의하면 Broadcom이 실제 실리콘으로 구현하는 방식이지. 이 협업이 구글 AI 인프라의 근간이었어.

그런데 이번에 Marvell이 들어왔어. Broadcom 외에 두 번째 ASIC 파트너가 추가된 거야.

왜 MPU + 추론 TPU 두 종류일까

여기서부터가 진짜 흥미로워.

첫 번째 칩 — MPU. 이건 "메모리 처리 유닛"인데, LLM 추론에서 가장 큰 병목인 메모리 대역폭을 전담하는 칩이야. LLM은 모델 가중치를 메모리에서 계속 읽어와야 해서, 연산보다 메모리 I/O에서 시간이 많이 들어. MPU는 이 메모리 I/O를 전용으로 가속하고, TPU가 순수 연산에 집중할 수 있게 역할을 나누는 거야.

두 번째 칩 — 추론 전용 TPU. 기존 TPU는 학습(training)과 추론(inference)을 모두 하는 범용 설계였어. 이번에 구글이 만들려는 건 추론에만 특화된 버전이야. 학습용 TPU는 그대로 두고, 추론은 더 싸고 빠른 별도 칩으로 갈라내겠다는 전략.

두 칩이 합쳐지면 이런 구조가 돼:

단계 기존 새 구조
학습 TPU v5p (범용) TPU v5p 또는 후속 학습 TPU
추론 TPU v5e (범용 경량) MPU + 추론 TPU 조합
메모리 I/O TPU 내부 처리 MPU 전담
연산 TPU 전담 추론 TPU 전담

이 구조가 실제 돌아가면 추론 토큰당 비용과 전력 소비가 큰 폭으로 낮아질 가능성이 있어. 업계 애널리스트들은 이걸 "ASIC 추론 시장을 뒤집을 구조"라고 평가하고 있어.

Marvell이 왜 선택받았나

Marvell이라는 이름이 낯설다면 조금 소개할게. 1995년 설립된 미국 반도체 기업이고, 데이터센터 네트워킹, 스토리지 컨트롤러, 그리고 ASIC 설계 서비스가 주력이야. 최근 몇 년간 ASIC 사업 부문이 AI 붐을 타고 급성장했어. AWS Trainium도 Marvell이 설계에 깊이 관여했고, 이제 Google TPU까지 맡게 된 거야.

구글 입장에서 Marvell을 선택한 이유는 세 가지쯤으로 정리할 수 있어.

① 공급망 다변화. Broadcom 하나에만 의존하면 협상력이 떨어져. Marvell을 병행하면 Broadcom에 대한 가격·스케줄 압박이 가능해.

② 전문성. Marvell은 특히 추론 최적화 ASIC에 강점이 있어. 메모리 컨트롤러 설계 능력이 탁월하다고 알려져 있고, 이번 MPU 개념과 잘 맞아.

③ 생산 캐파. TSMC 최첨단 공정(2nm, 3nm) 예약에서 Marvell이 확보한 자리가 구글 수요를 커버할 수 있어.

한 가지는 분명해. 구글은 TPU 물량을 "이제부터 Nvidia를 본격 추격하는 규모로" 밀어올리려 하고 있어. 그 엔진이 Marvell이야.

더 넓은 그림: TPU의 외부 판매 확대

이 딜이 단순히 내부 TPU를 더 잘 만드는 얘기가 아니야. 구글은 작년부터 TPU를 외부 고객에게 판매하는 움직임을 가속하고 있어.

이미 일어난 일들:

  • Anthropic이 2024~2025년에 Google TPU로 Claude를 학습·추론. 이후 Broadcom과도 별도 $30B 규모의 TPU 계약 체결.
  • Apple이 Apple Intelligence 일부를 TPU로 돌리는 것으로 알려짐.
  • Salesforce, Character.AI 같은 회사도 TPU 기반 추론 채택.

다음 단계:

  • Broadcom 예측 기준 2026년 ASIC 매출이 45% 성장. 그 상당 부분이 TPU.
  • Marvell까지 가세하면 공급량이 더 늘어나면서 외부 판매 확대가 가능해져.

이 흐름이 완성되면 AI 인프라 시장이 지금의 "Nvidia 독점 + 클라우드 자체 ASIC 보조" 구조에서 "Nvidia + Google TPU + Cerebras + 기타" 멀티 플랫폼 구조로 바뀔 거야.

TheNextWeb은 이걸 "Google이 조용히 Nvidia에 덤비는 방식(how Google is quietly planning to take on Nvidia)"이라고 표현했어.

경쟁 구도: AI 칩 시장 지도 갱신

오늘 시점의 AI 칩 경쟁 구도를 정리하면 이래:

회사 주력 칩 설계 파트너 타깃 시장
Nvidia B200 / GB200 자체 학습 + 추론 전방위
Google TPU v5p / v5e / 신규 MPU + 추론 TPU Broadcom + Marvell(신규) 내부 Gemini + 외부 고객
AWS Trainium 3 / Inferentia Marvell, Alchip 내부 Bedrock + Anthropic
Microsoft Azure Maia 100 GUC Azure 내부
Meta MTIA 자체 + 협력 내부 추천·랭킹
Cerebras WSE-3 자체 추론 전용 (OpenAI)
Huawei Ascend 950PR 자체 중국 내수

이 표에서 Marvell이 Google TPU에 들어오는 순간, Marvell은 AWS와 Google 양쪽의 ASIC 파트너가 돼. 즉 Marvell은 "Nvidia 외 진영의 공통 백본"으로 자리잡는 거야.

그래서 뭐가 달라지는데

Google Cloud 고객 관점

Google Cloud에서 Gemini API나 Vertex AI를 쓰는 회사라면, 수개월~1년 내로 추론 비용이 유의미하게 낮아질 가능성이 있어. MPU + 추론 TPU 조합이 실서비스 투입되면, 동일 모델 동일 컨텍스트에서 토큰당 비용이 20~40% 빠질 수 있다는 게 애널리스트들의 추정이야.

Nvidia 중심 설계자 관점

Nvidia 칩 기반으로 AI 인프라를 쌓아온 기업이라면, "다중 백엔드" 설계를 슬슬 고려할 때가 왔어. Gemini API, Anthropic API, OpenAI API 이 셋이 각각 다른 하드웨어 스택 위에서 돌아가고 있고, 그 차이가 가격·지연·가용성에 반영되기 시작해. 벤더 락인을 피하려면 최소 두 개 이상의 모델 제공자를 포트폴리오로 놓는 게 표준이 될 거야.

투자자 관점

Marvell 주가가 이번 발표로 급등했는데, 이건 단기 반응 이상의 의미가 있어. Marvell의 ASIC 매출이 Google과 AWS 양쪽에서 동시에 확장되면, 2027~2028년에 Broadcom 이상의 AI ASIC 매출 비중을 차지할 가능성도 있어. 다만 ASIC 설계는 수율과 납기 리스크가 크기 때문에 초기 물량 램프업 과정을 주의 깊게 봐야 해.

Google Alphabet 입장에선 TPU 외부 매출이 클라우드 부문의 주요 성장 드라이버가 될 거야. Broadcom이 이미 TPU 관련 매출을 수조 원 규모로 인식하고 있고, 이 파이가 Marvell 추가로 더 커지면 Google Cloud의 수익성 개선 여지도 커져.

참고 자료

관련 기사

무료 뉴스레터

AI 트렌드를 앞서가세요

매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.

매일 30개+ 소스 분석 · 한국어/영어 이중 언어광고 없음 · 1-클릭 해지