spoonai
TOPOpenAIsuper appGPT-5.5

OpenAI Super App 로드맵 해석 — Duct Tape + GPT-5.5 Spud가 가리키는 방향 2026

Greg Brockman의 'super app' 발언은 단순 수사가 아니다. Spud(언어·에이전틱)와 Duct Tape(이미지)가 하나의 경험으로 합쳐질 때 경쟁 지형이 어떻게 바뀌는지 분석한다.

·4분 소요·TechCrunch — Brockman super app 인용TechCrunch — Brockman super app 인용
공유
OpenAI Super App 로드맵 Spud Duct Tape
출처: OpenAI / Axios 자료 조합

Greg Brockman은 GPT-5.5 릴리스 당일 인터뷰에서 "super app"이라는 단어를 반복해서 꺼냈다. "one step closer to a super app", "more agentic and intuitive computing"—이 두 문장을 PR 문구로 읽고 넘기면 놓치는 게 있다. OpenAI가 지난 6주 사이에 공개하거나 유출된 퍼즐 조각들을 나란히 놓으면, 방향이 보인다.

슈퍼앱이라는 말이 왜 지금 나왔나

2026년 4월 23일은 GPT-5.4 출시로부터 정확히 6주 뒤다. 6주라는 간격이 가리키는 것은 경쟁 대응이 아니라 사전에 설계된 출시 간격이다. GPT-5.5 (Spud) 분석에서 다뤘듯, 이번 릴리스는 단일 모델 업데이트가 아니라 Brockman이 말한 "단일 앱 안에서 언어, 이미지, 도구, 에이전트가 매끄럽게 결합되는 경험"을 향한 중간 단계다.

슈퍼앱(super app)은 WeChat이 만든 개념이다. 메시지, 결제, 쇼핑, 예약이 하나의 앱 안에서 끊기지 않는 경험으로 연결된다. Brockman이 이 단어를 AI 컨텍스트에서 쓴 건 처음이 아니지만, GPT-5.5 릴리스 당일에 꺼냈다는 점이 다르다. 타이밍은 의도적이다. 언어 모델, 이미지 생성, 코드 실행, 에이전틱 워크플로가 ChatGPT라는 단일 소비자 표면에서 통합되는 순간이 가시권 안에 들어왔다는 신호다.

퍼즐 조각 — Spud, Duct Tape, Codex

현재까지 공개되거나 강하게 추정되는 퍼즐 조각은 세 개다.

GPT-5.5, 코드명 Spud는 Axios가 확인한 이름이다. 언어·추론·에이전틱 실행을 담당한다. 퍼-토큰 레이턴시(per-token latency, 토큰 하나를 생성하는 데 걸리는 시간)를 GPT-5.4와 동일하게 유지하면서 토큰 소모를 줄인 설계다. ChatGPT Plus·Pro·Business·Enterprise 전체에 배포됐고, API는 "매우 곧" 공개 예정이다.

두 번째 조각은 이미지 생성 모델이다. 2026년 4월 16일, LM Arena(블라인드 모델 평가 플랫폼)에 packingtape, maskingtape, gaffertape라는 익명 모델이 몇 시간 동안 등장했다가 사라졌다. 덕테이프(duct-tape) 모델 분석에서 자세히 다뤘지만, 요점만 정리하면 이렇다. 한국어 텍스트 렌더링 정확도가 지금까지 어떤 공개 모델도 보여주지 못한 수준이었고, LM Arena 리더보드 1위 모델인 Google Nano Banana 2를 역전할 가능성이 있다고 평가됐다. OpenAI는 어떤 것도 공식 확인하지 않았다. 그러나 DALL-E 서비스 종료일이 2026년 5월 12일로 이미 공고된 상황에서, 대체재 없이 DALL-E를 끝낼 수는 없다.

세 번째 조각은 Codex다. 코드 전용 실행 경로로, GPT-5.5 배포와 동시에 접근 가능하게 됐다. 에이전틱 코딩(agentic coding, 명시적 지시 없이 파일 읽기·수정·실행을 자율로 반복하는 방식)에 특화돼 있다.

세 조각의 공통점은 하나다. 모두 ChatGPT라는 기존 소비자 표면에서 통합 가능하도록 설계됐다.

경쟁 구도 — Google과 Anthropic 대비

Google은 Gemini 3.1 Pro(언어·추론)와 Nano Banana Pro 계열(이미지)을 Workspace에 통합하는 방식으로 슈퍼앱 방향을 가고 있다. 강점은 1M 토큰 컨텍스트 윈도우와 Gmail·Docs 같은 기존 생산성 도구와의 결합이다. 그러나 이미지와 언어가 서로 다른 모델 계열에서 나오고, 두 축을 하나의 경험으로 묶는 소비자 앱이 아직 ChatGPT 수준의 브랜드 인지도를 얻지 못하고 있다.

Anthropic은 Claude Opus 4.5(언어·추론 강점)와 Claude Code(에이전틱 코딩)를 보유한다. 지시 따르기(instruction following) 정확도와 추론 깊이에서 높은 평가를 받지만, 자체 이미지 생성 모델이 없다. 슈퍼앱이 언어+이미지+에이전틱 실행의 통합이라면, Anthropic의 현재 스택에는 구멍이 있다.

OpenAI의 차별점은 두 가지다. 전 모달리티(multi-modal, 텍스트·이미지·음성·코드)를 in-house에서 개발한다는 점, 그리고 월간 활성 사용자가 이미 대규모인 ChatGPT라는 소비자 표면이 이미 존재한다는 점이다. 퍼즐 조각을 조립할 장소가 이미 있다.

비교 시 참고할 수치: Spud의 릴리스 간격은 전작 대비 6주, DALL-E 서비스 종료까지 남은 시간은 2026년 4월 24일 기준 약 18일, duct-tape 세 모델이 블라인드 평가에 올라 있던 시간은 채 24시간이 안 됐다.

개발자 관점 — 올인 vs 멀티프로바이더

OpenAI가 슈퍼앱 방향으로 수렴할수록 개발자 선택지는 단순해진다. 하나의 SDK로 언어·이미지·에이전틱 실행을 모두 처리할 수 있다면, 멀티 프로바이더 스택을 유지하는 비용이 올라간다. 통합 API 하나로 언어는 GPT-5.5, 이미지는 Duct Tape 추정 모델, 에이전틱 실행은 Codex를 호출하는 구조가 현실이 된다면, 지금 Anthropic+Stability AI+Replicate 조합으로 구성한 파이프라인의 유지보수 이점이 줄어든다.

그러나 락인(lock-in, 특정 공급자에 종속되어 이탈 비용이 높아지는 상태) 위험도 정비례해서 커진다. SDK 수준 통합이 완성된 뒤 OpenAI가 가격 정책이나 API 접근 방식을 바꿀 때 대응 여지가 좁아진다. 멀티 프로바이더 스택은 단가가 높아도 한 공급자가 흔들릴 때 버퍼가 된다. 지금 올인 vs 분산 선택을 다시 검토해야 한다면, 기준은 "내 워크플로우에서 교체가 가장 어려운 모달리티는 무엇인가"다. 이미지 생성이 그 답이라면, Duct Tape API 공개 이후 가격과 품질을 먼저 확인하고 결정하는 게 합리적이다.

참고 자료


매일 아침 AI 뉴스를 이메일로 받아보세요. spoonai.me 뉴스레터 구독

Brockman이 "super app"을 꺼낸 날, 퍼즐 조각은 이미 세 개였다. 남은 질문은 언제 조립되느냐다.

무료 뉴스레터

AI 트렌드를 앞서가세요

매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.

매일 30개+ 소스 분석 · 한국어/영어 이중 언어광고 없음 · 1-클릭 해지