OpenAI, Cerebras에 $20B 쏟으며 지분까지 — Nvidia 의존 빼는 중
OpenAI가 Cerebras에 3년간 $20B+를 지불하고 웨이페어(warrant)로 최대 10% 지분을 취득할 수 있는 딜이 공개됐어. 추론 비용·전력 병목·Nvidia 의존도를 한 번에 건드리는 수.

$20B. 그리고 지분 10%까지.
OpenAI가 3년간 Cerebras에 최소 $20B을 쓰고, 지불 규모가 $30B에 도달하면 최대 10%까지 지분을 받는다는 딜이 The Information 보도로 드러났어. 올해 1월에 이미 공개된 $10B 계약(3년 750MW 컴퓨팅)을 사실상 두 배로 확대한 셈이야. 추가로 Cerebras 데이터센터 건설 자금으로 OpenAI가 별도 $1B까지 지원한다는 조항도 포함돼 있어.
이게 뜻하는 건 하나.
OpenAI는 추론(inference) 비용 문제를 해결하기 위해 Nvidia 말고 다른 길을 본격적으로 열고 있어.
이걸 이해하려면
추론 병목이 진짜 문제야
2022년 말에 ChatGPT가 터졌을 때, AI 업계 전체가 집착한 건 "학습(training)"이었어. 더 큰 모델을 더 빨리 훈련시키는 게 전부였고 그걸 하려면 Nvidia H100 수만 장이 필요했지. 그런데 2025년부터 흐름이 바뀌었어. 모델은 이미 충분히 커졌고, 사용자가 폭증하면서 이제 진짜 비싼 작업은 학습이 아니라 추론이 됐어.
추론은 네가 ChatGPT에 질문 한 번 할 때마다 서버가 모델을 돌려서 답을 만드는 그 과정이야. 학습은 한 번 비싸게 하면 끝이지만, 추론은 사용자가 많을수록 끝없이 비용이 쌓여. OpenAI처럼 매주 수억 명이 쓰는 서비스에선 추론 전력 요금이 회사의 주요 고정비야.
Nvidia H100/B200은 학습에는 압도적이지만 추론에는 과잉 스펙이야. 메모리 대역폭을 덜 쓰고 배치 사이즈를 키우면 훨씬 효율적으로 추론할 수 있는데, H100은 그 용도로 설계된 칩이 아니거든.
Cerebras가 뭔데?
Cerebras는 2016년 실리콘밸리에서 시작한 AI 반도체 스타트업이야. 이 회사의 시그니처 제품은 WSE(Wafer-Scale Engine, 웨이퍼 스케일 엔진) — 말 그대로 12인치 웨이퍼 한 장을 통째로 하나의 칩으로 쓰는 디자인이야. 일반 Nvidia H100이 면적 대략 814mm²인데, Cerebras WSE-3는 46,225mm². 약 57배.
왜 이렇게 큰 칩을 만들까? 답은 "칩 사이 통신 병목을 없애기 위해"야. LLM 추론에서 가장 큰 시간 낭비가 칩 간 데이터 이동이야. 모든 연산을 한 웨이퍼 안에서 처리하면 통신이 사라져.
수치로 비교해보면:
| 지표 | Nvidia H100 | Cerebras WSE-3 |
|---|---|---|
| 면적 | 814mm² | 46,225mm² |
| 트랜지스터 수 | 80B | 4,000B |
| AI 코어 | 18,432 (Tensor) | 900,000+ |
| 온칩 메모리 | ~50MB | 44GB SRAM |
| 메모리 대역폭 | 3.35TB/s | 21PB/s |
| 토큰/초 (Llama3-70B 추론) | ~30~50 | 1,800+ |
마지막 줄이 핵심이야. 같은 Llama3-70B 모델을 추론할 때 Cerebras WSE-3가 Nvidia H100 대비 토큰 생성 속도로 수십 배 빨라. 물론 칩 가격도 수십 배 비싸니까 단순 비교는 부당하지만, 토큰당 비용과 전력 소비로 봤을 때 Cerebras가 추론에서 유리한 케이스가 꽤 많아.
딜의 구조
세 가지 요소
딜을 뜯어보면 세 파트로 나뉘어.
① 구매 계약 $20B+: OpenAI가 3년간 Cerebras 기반 서버를 최소 $20B어치 구매. 규모가 확장되면 $30B까지 늘어나. 이건 직접 하드웨어 구매라기보다 "Cerebras가 운영하는 데이터센터 컴퓨팅을 빌려쓰는" 방식이 주류야.
② 지분 워런트(warrant): 지출이 늘수록 OpenAI가 Cerebras 지분을 살 수 있는 권리(warrant)를 얻어. 최대 10%. 이 구조가 흥미로운 이유는 — OpenAI는 본인 고객 지위를 자산화할 수 있고, Cerebras는 앵커 고객을 에퀴티로 묶을 수 있어서.
③ 데이터센터 건설 펀딩 $1B: OpenAI가 별도로 최대 $1B을 Cerebras의 데이터센터 구축에 지원. 전력 확보, 토지, 냉각 시스템 같은 인프라 투자야.
왜 이 조합일까
Nvidia와 OpenAI의 관계를 생각해보면 이 딜의 의미가 더 선명해져. Nvidia는 지난해 OpenAI에 $100B 이상 투자 계약을 체결했고, 그 돈은 결국 Nvidia 칩을 사는 데 쓰여. 순환 구조야.
OpenAI 입장에선 이 순환에만 머무르면 협상력이 없어. 그래서 Cerebras, Google TPU(Broadcom ASIC), AWS Trainium 등 대안 공급처를 조금씩 늘려가고 있어. 이번 딜은 그 다변화 중 가장 큰 규모야.
PANews는 이 상황을 "추론 전쟁(war of inference)"으로 표현했어. Nvidia와 OpenAI 양쪽이 각각 $20B 규모의 딜로 추론 인프라 주도권을 두고 경쟁하는 국면이라는 해석이야.
OpenAI가 Nvidia 의존도를 줄인다고 해서 Nvidia를 버리는 건 아니야. 포트폴리오를 구성하는 거야. 학습은 Nvidia, 추론은 Cerebras + Broadcom + Nvidia 혼합. 공급처 리스크를 분산하는 표준 전략이지.
Cerebras IPO의 복선
이 딜이 Cerebras의 IPO 계획과 맞물려 있다는 점도 중요해. Cerebras는 2024년 IPO를 추진하다 중국 투자자(G42) 지분 문제로 미국 정부 심사가 길어져서 포기했어. 2026년 4월 다시 IPO 파일링을 제출했고, 이번엔 2분기 상장 목표, 평가액 $35B 수준, 조달액 $3B을 노리고 있어.
여기서 OpenAI와의 딜이 결정적 역할을 해. 연간 수조 원 규모 매출이 장기간 묶여 있는 앵커 고객이 있다는 것 — 이게 IPO 투자자들이 가장 좋아하는 스토리야. Cerebras 마지막 프라이빗 밸류는 $23.1B였는데, $35B 목표는 약 50% 업밸류인 셈이야.
더 넓은 그림: 추론 칩 시장의 다자구도
OpenAI가 Cerebras로 이동하는 건 추론 칩 시장에서 Nvidia가 더 이상 유일한 선택지가 아니라는 신호야. 최근 1년간 등장한 경쟁자들만 정리해도 이래:
| 회사 / 칩 | 포지션 | 최근 상태 |
|---|---|---|
| Nvidia B200/GB200 | 학습·추론 전방위 | 시장 지배 중 |
| Cerebras WSE-3 | 웨이퍼 스케일 추론 | OpenAI $20B+, IPO Q2 |
| Google TPU v5p | 구글 내부 + Anthropic | Broadcom 설계 |
| AWS Trainium 3 | AWS 내부 + Anthropic 공동 | 2026 양산 |
| Huawei Ascend 950PR | 중국 시장 추론 | Alibaba·Baidu 채택 |
| Groq LPU | 초저지연 추론 | Meta, DeepSeek 파트너 |
| SambaNova SN40L | 엔터프라이즈 추론 | 온프렘 강세 |
| 퓨리오사AI RNGD | 한국산 NPU | 상업 운영 개시 |
모두가 "추론 특화"라는 포지션을 내세우는 중이야. 학습에서 Nvidia를 꺾는 건 여전히 어렵지만, 추론에서는 워크로드 특성에 따라 다른 칩이 더 유리한 경우가 많아.
그래서 뭐가 달라지는데
개발자 관점
당장 큰 변화는 없어. OpenAI API는 여전히 동일한 엔드포인트야. 하지만 중장기적으로 API 지연(latency)과 비용(per-token pricing)에서 개선이 있을 가능성이 커. Cerebras 인프라가 대규모로 붙으면 빠른 응답(예: GPT-5 Turbo) 성능이 더 좋아지거나, 동일 성능에 가격이 내려갈 수 있어.
인프라·엔터프라이즈 관점
기업이 AI 인프라를 설계할 때 "Nvidia 외 대안"을 진지하게 평가할 명분이 생겼어. OpenAI가 Cerebras를 쓴다면 그게 엔터프라이즈 검증이니까. 특히 추론 중심의 워크로드(챗봇, 검색, 코드 어시스턴트 같은)에서 Cerebras나 Groq 같은 대안을 벤치마크해볼 가치가 있어.
투자자 관점
Nvidia 지배력의 균열이 가시화되는 중이야. 아직 Nvidia는 AI 칩 시장의 80% 이상을 잡고 있지만, 추론 전용 세그먼트에서 경쟁자들이 점유율을 10~20%로 끌어올릴 공간이 열리고 있어. Broadcom, Cerebras, 그리고 Google·Amazon의 자체 ASIC 사업은 중장기 수혜주야.
참고 자료
- OpenAI to spend more than $20 billion on Cerebras chips, receive stake — Manila Times
- OpenAI Partners with Cerebras for $20 Billion Deal, Reducing Nvidia Dependency — GuruFocus
- Two $20 billion deals: OpenAI and Nvidia are waging a "war of inference" — PANews
- AI chipmaker Cerebras files to go public after scrapping IPO plans last year — CNBC
출처
- OpenAI to spend more than $20 billion on Cerebras chips, receive stake (Manila Times)
- OpenAI Partners with Cerebras for $20 Billion Deal, Reducing Nvidia Dependency (GuruFocus)
- Two $20 billion deals: OpenAI and Nvidia are waging a war of inference (PANews)
- AI chipmaker Cerebras files to go public after scrapping IPO plans last year (CNBC)
관련 기사

Nvidia GTC 2026: Vera Rubin 완전 해부 — 스펙, 가격, 로드맵 총정리
7개 신규 칩, 10배 전력 효율, $1T 주문 예고. Jensen Huang이 공개한 Vera Rubin 플랫폼의 모든 것을 스펙 테이블과 공식 소스로 정리했다.

42.5 ExaFLOPS, 구글이 추론 시대의 무기를 꺼냈다
구글 7세대 TPU Ironwood가 GA로 전환. 칩당 4,614 TFLOPS, 9,216칩 슈퍼팟, Anthropic 100만 TPU 계약까지. 추론 중심 AI 인프라의 새 기준.

OpenAI의 Lilli, 사내 지식 검색을 AI 에이전트로 대체하다
OpenAI가 사내에서 운영하던 검색 시스템 Lilli가 외부 기업용으로 출시됐다. Notion, Confluence를 대체할 수 있을까?
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.