Micron 매출 3배 폭증 — AI가 메모리 반도체 지형을 통째로 바꾸고 있어
Micron 2분기 매출 $23.86B, 전년 대비 3배. HBM 수요 폭발, 다음 분기 $33.5B 전망, 설비투자 $25B. AI 메모리 슈퍼사이클의 모든 것.

$23.86B. 1년 전 $8.05B에서 거의 3배.
3월 18일 발표된 Micron의 2분기(FQ2 2026) 실적이 시장을 뒤흔들었어. 매출 $23.86B(약 33조 원), EPS $12.20 — 애널리스트 컨센서스($9.19)를 33%나 상회했어. 1년 전 같은 분기 매출이 $8.05B이었으니 거의 3배가 뛴 거야. 한 분기 매출이 전년 대비 3배? 삼성전자, SK하이닉스도 이런 성장률은 경험한 적 없어.
더 놀라운 건 다음 분기(FQ3) 전망이야. 매출 $33.5B, 매출총이익률 81%를 가이던스로 제시했어. 반도체 업계에서 매출총이익률 81%는 거의 전례가 없는 수준인데, 이건 소프트웨어 회사 수준의 마진이야. 메모리 반도체라는 전통적 "범용 하드웨어" 산업에서 이런 마진이 나온다는 건 시장 구조 자체가 변하고 있다는 뜻이야.
이건 단순한 한 회사의 실적 뉴스가 아니야. AI가 메모리 반도체 산업의 구조를 근본적으로 바꾸고 있다는 가장 강력한 증거야.
배경: 메모리 반도체와 AI의 관계
AI 모델은 왜 이렇게 많은 메모리가 필요할까? 간단히 말하면, AI 모델의 "뇌"(파라미터)를 메모리에 저장하고 실시간으로 읽어야 하기 때문이야.
| 모델 | 파라미터 수 | FP16 메모리 필요량 | 비고 |
|---|---|---|---|
| Llama 3.3 70B | 700억 | ~140GB | HBM 1장에 안 올라감 |
| GPT-5 (추정) | 수조 | ~수TB | GPU 수십 장 필요 |
| Gemini 3.1 Ultra | 미공개 | ~수TB | Google TPU v6에 최적화 |
추론(Inference) 시 토큰을 하나 생성할 때마다 이 파라미터 전체를 메모리에서 읽어야 해. 메모리 대역폭이 높을수록 초당 더 많은 토큰을 생성할 수 있어. 이것이 메모리 바운드(memory-bound) 문제야 — GPU의 연산 능력은 남는데 메모리에서 데이터를 읽는 속도가 병목인 상황. 현재 대부분의 LLM 추론이 이 상태야.
훈련도 마찬가지야. 분산 훈련에서 각 GPU는 자기가 담당한 모델 파라미터를 HBM에 올려놓고, 그래디언트 계산 → 동기화 → 업데이트를 반복해. HBM 용량과 대역폭이 곧 GPU당 처리할 수 있는 모델 크기와 속도를 결정해.
HBM(고대역폭 메모리)이란?
HBM(High Bandwidth Memory)은 GPU 패키지 위에 수직으로 적층하는 특수 DRAM이야. 일반 DDR5 메모리의 대역폭이 약 50GB/s인 반면, 최신 HBM4는 22TB/s — 440배야. 이 엄청난 대역폭 차이가 AI 가속기의 성능을 결정해.
| 세대 | 대역폭 | 용량/스택 | 적용 GPU | 출시 연도 |
|---|---|---|---|---|
| HBM2e | ~2TB/s | 64GB | A100 | 2020 |
| HBM3 | ~3.35TB/s | 80GB | H100 | 2022 |
| HBM3e | ~8TB/s | 192GB | B200 | 2024 |
| HBM4 | ~22TB/s | 288GB | **R200 **(Vera Rubin) | 2026 |
HBM4는 대역폭이 HBM3e 대비 2.75배야. 이건 메모리 바운드 모델에서 토큰 생성 속도가 이론적으로 약 2.75배 빨라진다는 뜻이야. Micron은 Nvidia의 차세대 Vera Rubin GPU에 탑재될 HBM4의 양산을 이미 시작했어.
실적 상세 — 숫자로 보는 슈퍼사이클
| 항목 | FQ2 2026 | FQ2 2025 | 변화 |
|---|---|---|---|
| 매출 | $23.86B | $8.05B | +196% |
| EPS | $12.20 | $2.12 | +475% |
| 매출총이익률 | ~68%+ | ~36% | +32%p |
| 다음 분기 매출 전망 | $33.5B | — | 전분기 대비 +40% |
| 다음 분기 이익률 전망 | 81% | — | — |
| 설비투자(Capex) 계획 | $25B (연간) | — | 대폭 상향 |
핵심 포인트 5가지
- HBM 2026년 물량 완판: Micron의 HBM 생산 용량이 올해 전량 매진. 2027년 물량도 상당 부분 사전 예약 완료. 수요가 공급을 압도적으로 초과하는 상태야.
- AI 데이터센터가 고급 DRAM의 70% 소비: 전체 고급 DRAM(서버용 DDR5 + HBM) 공급의 약 70%가 AI 데이터센터로 향하고 있어. 3년 전만 해도 이 비율은 20% 미만이었어.
- HBM TAM(총 시장 규모): 2028년까지 $100B에 도달할 전망. 기존 추정치를 2년 앞당긴 수치야.
- $25B 설비투자: 2026년 전체 Capex를 $25B으로 상향했어. 이 중 상당 부분이 HBM4 양산 라인 확장에 투입돼. 미국 아이다호, 뉴욕에 새 팹(fab)을 건설 중이야.
- Nvidia Vera Rubin 공급 확정: Micron은 Nvidia의 차세대 Vera Rubin GPU에 들어갈 HBM4의 주요 공급사 중 하나로 확정됐어. 이건 2026~2027년 매출의 핵심 드라이버야.
왜 "슈퍼사이클"이라고 부르는가
반도체 업계에서 슈퍼사이클(supercycle)은 일반적인 호황-불황 주기를 넘어서는 구조적이고 장기적인 수요 성장을 의미해. 메모리 반도체는 역사적으로 3~4년 주기의 가격 사이클을 겪었는데 — DRAM 가격이 급등하면 투자가 몰리고, 공급 과잉이 되면 가격이 폭락하는 패턴이 수십 년간 반복됐어. AI 수요는 이 패턴을 깨뜨리고 있어.
| 항목 | 전통적 사이클 | AI 슈퍼사이클 |
|---|---|---|
| 수요 동인 | PC, 스마트폰 교체 주기 | AI 모델 규모의 기하급수적 성장 |
| 지속 기간 | 3~4년 | 5년+ (2024~2029+) |
| 가격 변동성 | 높음 (급등 후 급락) | 상대적 안정 (수요가 공급을 지속 초과) |
| 이익률 | 사이클 정점 시 50~60% | 81% (전례 없음) |
| 공급 제약 | 투자하면 2년 후 해소 | HBM은 제조 난이도 극고, 수율 리스크 |
Seeking Alpha는 이번 실적을 두고 "Micron enters a profit supercycle"이라고 표현했어. 핵심은 AI 모델의 크기가 매년 5~10배씩 커지는 상황에서, HBM 제조 능력은 그 속도를 따라갈 수 없다는 거야. 이 수급 불균형이 비정상적인 이익률의 원인이야.
경쟁 구도 — 메모리 삼국지
HBM 시장은 사실상 3개 회사가 독점하고 있어:
| 회사 | 본사 | HBM 시장점유율 | HBM4 양산 시기 | 강점 |
|---|---|---|---|---|
| SK하이닉스 | 한국 | ~50% | 2026 H1 | HBM 시장 1위, Nvidia와 가장 긴밀한 관계 |
| Samsung | 한국 | ~30% | 2026 H2 | 파운드리 + 메모리 수직통합, 자체 패키징 기술 |
| Micron | 미국 | ~20% | 2026 H1 | 미국 유일 메모리 제조사, CHIPS Act 보조금 |
SK하이닉스의 압도적 1위
SK하이닉스는 HBM 시장에서 단독 50%를 차지해. Nvidia의 H100, B200에 들어간 HBM3/3e의 1차 공급사였고, Vera Rubin의 HBM4에서도 최대 공급자로 예상돼. HBM 시장 자체를 사실상 만든 회사라고 봐도 돼.
Samsung의 추격
Samsung은 HBM3e에서 수율 문제로 고전했지만, HBM4에서는 자체 패키징 기술(SAINT)을 활용해 만회하려 하고 있어. 파운드리 사업과의 시너지(HBM + GPU를 한 패키지에 넣는 2.5D/3D 패키징)가 장기적 강점이야.
Micron의 전략적 위치
Micron의 특별한 점은 미국 유일의 메모리 반도체 제조사라는 거야. CHIPS and Science Act에 따라 미국 정부가 Micron에 약 $6.1B의 직접 보조금과 $7.5B의 대출을 승인했어. "주권 AI(Sovereign AI)" 트렌드에서 각국이 자국 내 AI 인프라 공급망을 확보하려는 움직임과 맞물려, Micron의 전략적 가치가 급상승하고 있어.
특히 미중 기술 경쟁에서 중국이 HBM 자체 개발을 시도하고 있지만, 첨단 HBM 제조에는 ASML의 EUV 장비가 필수적이야. 미국의 수출 통제로 중국이 EUV를 확보하지 못하는 한, HBM은 한미 3사의 독점 구조가 유지될 거야.
개발자에게 주는 의미
1. AI 인프라 비용에서 메모리 비중이 커지고 있어: GPU 가격만 보면 안 돼. 최신 AI 서버에서 HBM 비용이 전체 서버 원가의 30~40%를 차지해. HBM4가 표준이 되면 이 비율은 더 올라갈 거야.
2. 메모리 대역폭이 AI 성능의 핵심 병목: 더 빠른 GPU보다 더 빠른 메모리가 추론 성능을 결정하는 경우가 많아. vLLM, TensorRT-LLM 같은 추론 프레임워크가 KV 캐시 관리를 극한까지 최적화하는 이유가 바로 이거야.
3. 양자화(Quantization)의 경제학: 메모리가 비싸지면 모델 양자화의 경제적 가치가 더 커져. FP16 → INT8 → INT4로 양자화하면 HBM 사용량이 절반씩 줄어들어. 이건 직접적인 인프라 비용 절감이야.
4. 반도체 공급망의 지정학: 한국(SK하이닉스, Samsung)이 HBM 시장의 80%를 점유하고 있어. 지정학적 리스크(한반도 긴장, 미중 무역 분쟁)가 AI 산업 전체의 공급 안정성에 영향을 줄 수 있어. 이 리스크 때문에 미국이 Micron에 대규모 보조금을 투입하는 거야.
5. 온디바이스 AI와 LPDDR의 부상: 스마트폰과 PC에서도 AI가 돌아가면서, 모바일용 메모리(LPDDR5X, LPDDR6)의 수요도 폭발하고 있어. Micron은 서버 HBM과 모바일 LPDDR을 동시에 공급할 수 있는 유일한 미국 기업이야. Apple Intelligence, Galaxy AI, Copilot+ PC 등 온디바이스 AI가 확산되면 이 시장도 급성장할 거야.
왜 중요한가
Micron의 이번 실적은 "AI 버블 아니냐"는 질문에 대한 가장 강력한 반론이야. 버블은 실체 없는 기대감에서 나오지만, Micron의 매출 3배 성장과 81% 이익률 전망은 실제 제품이 실제 고객에게 팔리고 있다는 증거야. AI 데이터센터가 물리적으로 건설되고 있고, 그 안에 들어가는 메모리 수요가 공급을 압도적으로 초과하고 있어.
$23.86B 매출, 196% 성장, EPS 33% 상회, 다음 분기 $33.5B에 81% 마진. 그리고 HBM 물량 완판. 이 숫자들이 말하는 건 하나야 — AI 메모리 슈퍼사이클은 시작됐고, 아직 초기 단계야.
Micron CEO Sanjay Mehrotra는 실적 발표에서 "AI represents the most transformative technology of our time"이라고 말했어. 과장이 아니라 자기 회사 매출이 증명하는 현실이야. 2028년 HBM TAM B 전망이 현실이 되면, 메모리 반도체 산업은 지금까지와 완전히 다른 산업이 돼 있을 거야.
참고 자료
관련 기사
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.

