OpenAI가 마이크로소프트 독점에서 풀려났다 — AWS·구글 클라우드까지 동시 가동
OpenAI가 Microsoft 독점 인프라 계약을 완화하고 AWS와 Google Cloud까지 추론 트래픽을 분산하기로 했다. 5년간 이어진 OpenAI-Microsoft 일체화 구조가 변하는 순간이고, 추론 GPU 공급의 무게중심이 다시 흔들린다.

한 회사 → 세 회사
5년 동안 OpenAI의 모델은 사실상 하나의 클라우드 위에서 돌았어. Microsoft Azure. 2019년 첫 100억 달러 투자 + 2023년 추가 100억 달러 투자가 OpenAI를 Azure에 묶었고, GPT-3.5에서 GPT-5.5까지 모든 추론 트래픽이 Azure 데이터센터를 거쳤지. 이번 주 그 구조가 깨졌어. OpenAI가 AWS와 Google Cloud에도 추론 트래픽을 분산하기로 했어. Microsoft는 여전히 핵심 파트너로 남지만, 더는 유일한 파트너가 아니야.
배경에는 단 하나의 변수가 있어 — 컴퓨팅 부족. ChatGPT 사용자가 8억 명을 넘어가면서, 그리고 GPT-5.5의 에이전틱 워크로드가 토큰당 추론 비용을 끌어올리면서, Azure 한 곳만으로는 절대 용량을 맞출 수 없는 단계로 들어갔어. Sam Altman은 작년 인터뷰에서 "컴퓨팅은 다음 10년의 전략 자원"이라고 말했지. 그 말이 운영 결정으로 옮겨졌어.
이 변화는 단순한 인프라 분산이 아니야. OpenAI의 사업 거버넌스, Microsoft의 투자 회수 일정, AWS·Google의 시장 점유율 — 세 회사가 동시에 움직이는 다층 게임이야. 정리해서 보자.
각 주체 — OpenAI, Microsoft, AWS, Google
OpenAI는 2026년 들어 두 가지 압박을 동시에 받아왔어. 첫째, GPT-5.5 출시 후 추론 수요가 폭발했어. 회사 내부 추정으로 ChatGPT 활성 사용자가 8억 명을 돌파했고, API 호출량은 연간 4배 단위로 증가하고 있어. 둘째, 펜타곤 7개사 계약(같은 주 발표)에서도 OpenAI는 Microsoft 채널로만 들어가야 하는 제약이 있었어. AWS 채널을 통해서도 정부 발주에 진입하려면 OpenAI 자체가 AWS와 직접 인프라 계약을 맺을 필요가 있어.
Microsoft 입장에서 이 변화는 양면적이야. 한쪽으로는 OpenAI에 들인 130억 달러의 회수 일정이 늦어질 우려가 있어. 다른 쪽으로는 Azure가 100% 부담하던 GPU 자본 지출이 분산되니까 단기 현금 흐름은 좋아져. Satya Nadella는 작년 분기 콜에서 "OpenAI 파트너십은 진화한다, 끝나는 게 아니다"라고 정리했는데, 이 발언이 실제 운영 변화로 옮겨진 게 이번 주 발표야.
AWS는 Anthropic을 통해 LLM 시장에 들어왔지만, OpenAI 직접 호스팅은 별개의 큰 그림이야. Andy Jassy는 작년 re:Invent에서 "Bedrock은 모델 중립적 게이트웨이"라고 강조했어. OpenAI 모델이 AWS Bedrock에 들어오면, AWS 고객사들이 모델 선택지에서 OpenAI를 제외할 이유가 사라져. 시장 점유율 전쟁의 균형추가 살짝 이동해.
Google은 Gemini를 자체 보유하고 있는데도 OpenAI 호스팅을 받아들였어. 표면적으론 모순처럼 보이지만, 두 가지 계산이 있어. 첫째, GCP의 멀티모델 게이트웨이(Vertex AI)에 OpenAI가 들어오면 GCP 자체 매출이 늘어. 둘째, OpenAI 트래픽을 호스팅하면서 그 워크로드 패턴을 학습하면 Gemini 최적화에도 간접 데이터가 돼. Sundar Pichai 입장에서 이건 손해 볼 수 없는 거래야.
핵심 내용 — 분산 비율과 GPU 풀
OpenAI 내부 계획(여러 외신 종합)을 정리하면 이래.
| 클라우드 | 추정 추론 비중 (2026년 말) | 워크로드 종류 | 직전 자사(2025) |
|---|---|---|---|
| Microsoft Azure | 55-65% | 학습 + 핵심 추론 | 95-100% |
| AWS | 15-20% | API 추론 + 정부 채널 | 0% |
| Google Cloud | 10-15% | API 추론 + 멀티모달 | 0% |
| OpenAI 자체 인프라 (Stargate 등) | 10-15% | 차세대 학습 | 0-5% |
학습은 여전히 Azure가 거의 단독으로 맡아. 자체 인프라(Stargate 데이터센터 프로젝트)는 2027년 이후 비중이 올라가. 단기에 변하는 건 추론 영역이야. ChatGPT 일반 사용자, API 고객, 정부·기업 채널 — 이 세 트래픽이 세 클라우드로 분산돼.
이 구조가 의미하는 건 OpenAI가 처음으로 클라우드 사업자에 협상력을 갖게 됐다는 거야. 5년 동안 Azure가 단일 공급자였을 때, OpenAI는 Azure 정책 변경(가격, GPU 할당, 리전 선택)을 그대로 수용해야 했어. 이제 세 사업자를 천칭 위에 올릴 수 있어. 단가 협상에서 5-10% 인하 효과가 가능하다는 게 The Information이 인용한 내부 추정이야.
각자의 이득
OpenAI에게 — 단기 컴퓨팅 부족 해소가 가장 큰 이득이야. ChatGPT의 응답 지연(latency)이 작년 4분기부터 사용자 불만 1순위였는데, 추론 풀 확장으로 직접적 개선이 가능해. 또한 정부 발주 확장성도 늘어. AWS GovCloud 채널 직접 진입 가능성, GCP의 정부 리전 활용 같은 옵션이 열려.
Microsoft에게 — 단기 GPU 자본 부담이 줄어. Azure가 작년에 OpenAI 전용 GPU에 투자한 자본 지출이 약 350억 달러로 추정되는데, 이 부담을 다른 클라우드에 분산하면 자유 현금 흐름이 좋아져. Microsoft는 OpenAI 지분 49%(추정)는 그대로 유지해서 장기 업사이드는 보존돼.
AWS에게 — Bedrock의 "다 들어 있다" 메시지가 완성돼. 그동안 Bedrock에는 Anthropic, Meta Llama, Mistral 등이 들어 있었지만, OpenAI 부재는 약점이었어. 이제 그 약점이 사라져. AWS의 LLM 인프라 매출은 2027년까지 연 50% 성장할 거란 분석이 나와.
Google에게 — Vertex AI의 모델 선택지가 GCP 고객에게 더 매력적이 돼. Gemini와 OpenAI 모델이 한 콘솔에서 선택 가능하면, GCP를 떠날 이유가 줄어. 모델 카니발리제이션 우려가 있지만, GCP 매출 자체가 늘어나는 게 더 큰 그림이야.
과거 유사 사례 — 단일 클라우드에서 멀티클라우드로
이런 전환은 이번이 처음이 아니야. **Netflix(2010-2017)**가 AWS 단일에서 점진적 멀티클라우드로 옮긴 패턴이 가장 가까운 비유야. Netflix는 처음 AWS만 썼다가, 운영 가용성 + 협상력 확보를 위해 일부 워크로드를 Google Cloud에 분산했어. 이 결정으로 Netflix는 클라우드 비용을 매년 약 5-8% 절감했어.
**Snap(2017-2022)**도 비슷해. 처음엔 GCP에 락인됐지만, AWS와의 분산 계약을 추가하면서 협상력을 회복했어. 다만 Snap은 그 과정에서 운영 복잡도가 커지면서 일시적으로 마진이 악화된 시기가 있었어. 멀티클라우드가 무조건 정답은 아니라는 교훈을 줘.
Twitter/X(현 X) 사례는 반대 방향이야. AWS와 GCP 동시 사용에서 일부를 자체 데이터센터로 가져온 사례. 2023년 운영 비용 절감 목표로 트래픽의 약 30%를 자체 인프라로 옮겼는데, 결과적으로 안정성은 떨어졌어. 자체 인프라로 가는 길은 만만치 않다는 신호야. OpenAI도 Stargate를 통해 같은 방향을 가지만, 단기에는 분산 멀티클라우드가 답이라는 결론이 자연스러워.
경쟁자 카운터 플레이
Anthropic. AWS와의 깊은 통합이 OpenAI도 들어오면서 상대적 우위가 줄어. 다만 Anthropic은 Google Cloud에도 핵심 파트너로 들어가 있어서, 두 클라우드에 동시 분산된 모델 회사로는 여전히 OpenAI보다 한 발 앞서. 2026년 안에 Microsoft 채널로 진입할지가 관찰 포인트야.
Google Gemini. 자사 클라우드에 자사 모델 + 경쟁 모델이 같이 들어오는 구조가 됐어. 마진은 자사 모델이 더 높지만, 고객 락인은 경쟁 모델 호스팅이 더 잘 만들어. Pichai는 두 가지 균형을 맞춰야 해.
Meta Llama. 오픈소스 모델이라 클라우드 분산은 이미 되어 있었어. OpenAI의 멀티클라우드 전환은 오픈소스 모델의 차별화 포인트(어디서든 돌릴 수 있다)가 약해진다는 걸 의미해.
중국계 모델 (DeepSeek, Qwen). 미국 클라우드 시장에는 정치적 진입 장벽이 있어서 직접 영향은 작아. 다만 글로벌 API 시장에서 OpenAI가 가격 협상력을 얻어서 단가를 내릴 가능성이 있어. 중국계 모델의 가격 우위가 좁아질 수 있어.
그래서 뭐가 달라지는데
개발자에게 — 같은 OpenAI API라도 백엔드 클라우드가 어디인지에 따라 지연 시간(latency)과 가용성이 달라질 수 있어. 작년 4분기 ChatGPT 다운타임 사례처럼 "Azure 한 곳 장애 = OpenAI 전체 다운"이라는 단일 장애점은 사라져. 다만 OpenAI 직접 API와 AWS Bedrock·GCP Vertex의 OpenAI 모델 사이에 가격 차이가 발생할 가능성이 있어. 비교 모니터링이 필요해.
창업자에게 — 어떤 클라우드를 쓰든 OpenAI 모델에 접근할 수 있는 옵션이 생겨. 특히 멀티클라우드 인프라를 이미 쓰는 SaaS 회사라면, 클라우드별로 가장 싸거나 빠른 OpenAI 엔드포인트로 트래픽을 라우팅하는 패턴이 가능해져. 미들웨어 회사들(LangChain, LiteLLM, Portkey 등)에는 새로운 시장이야.
투자자에게 — Microsoft의 OpenAI 의존도가 단기에 살짝 줄어드는 신호야. Azure 매출 성장률이 단기에 둔화될 가능성이 있어. 반면 AWS와 GCP의 LLM 인프라 매출이 어떻게 점프하는지 분기 콜에서 확인해. 또한 OpenAI 자체의 가치 평가에도 영향을 줘 — 단일 사업자 락인이 풀리면 OpenAI 자체의 협상력이 강해지고 차기 펀딩 라운드 가격이 올라가.
일반 사용자 — ChatGPT 응답 지연이 줄어들 가능성이 있어. 또한 지역별 지연 시간도 개선될 수 있어 — AWS와 GCP는 Azure보다 일부 지역(예: 동남아, 라틴 아메리카)에서 더 많은 리전을 운영하니까.
스테이크
- Wins: OpenAI (협상력 회복 + 컴퓨팅 부족 해소), AWS (Bedrock 모델 라인업 완성), Google (Vertex AI 매출 부스트)
- Loses: Microsoft (단기 Azure 매출 성장률 둔화 가능, 다만 OpenAI 지분 가치 보존)
- Watching: 미들웨어 회사 (LangChain, LiteLLM, Portkey) — 멀티클라우드 라우팅 수요 증가, Anthropic — 자사도 Microsoft 채널 진입 검토할지
반대 의견 — 회의론자
Ben Thompson (Stratechery 분석가)는 작년 글에서 "멀티클라우드는 항상 운영 복잡도와 협상력 사이의 트레이드오프"라고 지적했어. OpenAI가 이걸 단기에 깔끔하게 처리할 수 있을지가 회의 포인트야. Snap 같은 사례가 보여주듯, 멀티클라우드 전환은 첫 1-2년 마진이 악화되는 게 일반적이야.
또한 Gergely Orosz (Pragmatic Engineer)는 "모델 학습은 여전히 단일 클라우드에 묶여 있다"고 짚었어. Azure에서 학습된 모델을 AWS에서 서빙하는 구조는 GPU 할당, 가중치 동기화, 보안 같은 영역에서 실제 운영 마찰이 적지 않아. 첫 6개월 사용자 만족도는 오히려 떨어질 수 있다는 시각이야.
내일 아침에 할 것
개발자: OpenAI API 호출 코드에 latency 측정 로깅을 붙여놔. 6월부터 단계적으로 백엔드 라우팅이 바뀌는데, 어디로 라우팅됐을 때 가장 빠른지 데이터를 쌓아 두면 비용·성능 최적화에 쓸 수 있어. 창업자/PM: 우리 제품이 단일 클라우드에 묶여 있다면, OpenAI 모델 접근 경로를 멀티 옵션으로 추상화하는 미들웨어 도입을 검토해. LiteLLM 같은 오픈소스가 출발점이야. 투자자: Microsoft 다음 분기 콜에서 "OpenAI Azure 비중"이 어떻게 표현되는지 주목해. 또한 AWS Bedrock과 GCP Vertex AI의 OpenAI 모델 가격 페이지를 매주 비교해서 가격 경쟁이 시작되는 시점을 잡아. 일반 사용자: 6월 이후 ChatGPT 응답 속도 변화를 주관적으로라도 기록해. 만약 본인이 비주력 지역(예: 한국, 인도, 브라질)에서 사용한다면 더 명확한 변화가 보일 거야.
참고 자료
- Mean CEO Blog — OpenAI multi-cloud expansion: https://blog.mean.ceo/open-ai-news-may-2026/
- The Information — OpenAI compute capacity: https://www.theinformation.com/
- Reuters — Microsoft and OpenAI restructuring: https://www.reuters.com/technology/
- Bloomberg — Hyperscaler GPU procurement: https://www.bloomberg.com/technology
- Stratechery — multicloud tradeoffs: https://stratechery.com/
출처
관련 기사

OpenAI 모델, 마이크로소프트 독점 끝나자마자 AWS Bedrock에 깔렸어
어제(4/28) OpenAI가 GPT-5.5 / GPT-5.4 / Codex / Managed Agents를 AWS Bedrock에 한꺼번에 풀었어. 마이크로소프트와의 독점 계약이 풀린 단 하루 만의 발표라, 'OpenAI는 이제 어떤 클라우드에서도 살 수 있다'는 신호탄으로 받아들여지고 있어. 한정 프

MS-OpenAI 독점 끝났어 — 이제 아마존도 구글도 GPT 팔 수 있어
4월 27일, Microsoft와 OpenAI가 클라우드 독점 계약을 해제했어. AGI 조항도 삭제, 매출 분배도 상한 설정. OpenAI는 AWS·Google Cloud에도 모델을 공급할 수 있게 됐고, MS는 27% 지분으로 새 출발.

OpenAI의 Lilli, 사내 지식 검색을 AI 에이전트로 대체하다
OpenAI가 사내에서 운영하던 검색 시스템 Lilli가 외부 기업용으로 출시됐다. Notion, Confluence를 대체할 수 있을까?
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.
