spoonai
TOPAMI LabsJEPAFunding

얀 르쿤의 AMI Labs, 시드 라운드에서 10.3억 달러 유치 -- 유럽 역대 최대

메타 AI 수장 얀 르쿤이 JEPA 아키텍처 기반 월드 모델을 만들겠다며 역대 최대 시드 펀딩을 끌어냈어

Yann LeCun AMI Labs
Photo: AMI Labs

인트로 훅: 10억 달러의 도박

메타의 AI 연구 수장이자 튜링상 수상자인 얀 르쿤이 한 가지를 선언했어. 현재 주류 AI 기술(GPT처럼 다음 단어를 예측하는 자동회귀 모델)이 궁극의 답이 아니라는 거야. 그리고 3월에 AMI Labs라는 새 회사를 차리면서 그 신념에 10.3억 달러를 던졌어. 이건 유럽 역사상 가장 큰 시드 펀딩이야.

이 펀딩이 뜻하는 게 뭘까? 인공지능 업계가 다음 대전환을 준비하고 있다는 신호야. 지금까지 모든 큰 언어 모델들이 "다음 토큰 예측"으로 학습됐는데, 르쿤은 이게 막다른 골목이라고 본 거지. 대신 JEPA(Joint Embedding Predictive Architecture)라는 완전히 다른 방식으로 "세상의 모델"을 만들겠다는 주장이야.

이걸 이해하려면: 자동회귀 모델의 한계와 새로운 패러다임

지난 5년간 LLM은 세상을 놀라게 했어. ChatGPT, GPT-4, Claude, Gemini – 다 같은 원리로 동작해. 바로 "다음 단어가 뭘까?"라는 확률 문제를 푸는 거야. 이게 수십억 개의 파라미터 위에서 반복되면, 결과적으로 매우 정교한 텍스트 생성기가 된 거고.

그런데 이 방식에는 근본적인 한계가 있어. 왜? 단어를 예측하려면 매번 매번 매우 구체적인 확률을 계산해야 하거든. 예를 들어, 내가 "오늘 날씨는"이라고 쓰면, 모델은 "맑다", "흐리다", "추운다" 중 어떤 게 올 확률이 가장 높을까를 계산하는 거야. 이건 매우 비용이 많이 들어. 그리고 학습도 매우 비효율적이야.

더 근본적인 문제는, 이 방식으로는 세상의 물리 법칙을 배우기 어렵다는 거야. 예를 들어, 공을 떨어뜨리면 어떻게 움직일까? 자동회귀 모델은 이 문제를 "공의 다음 위치가 어디일까?"라는 확률 게임으로 푸는데, 이건 진짜 물리를 이해한다는 거랑은 다르거든.

르쿤은 이걸 명확히 했어. "앞으로의 AI는 세상 자체를 모델링해야 한다. 단어 다음에 뭐가 올까를 푸는 게 아니라, 현실이 어떻게 작동하는지 이해하는 걸 배워야 한다"고.

접근 방식 학습 방식 강점 한계
자동회귀 (기존 LLM) 다음 토큰 예측 텍스트 생성 무敵 물리 모델 학습 비효율, 높은 계산 비용
JEPA (르쿤 제안) 세상 상태 임베딩 물리 법칙 학습, 효율적 검증 필요, 초기 단계
멀티모달 (Google/Meta) 이미지+텍스트+음성 다양한 데이터 활용 아직 모르는 미지의 영역

핵심 내용 해부: JEPA와 월드 모델의 패러다임

JEPA가 정확히 뭔지 이해하려면, 자동회귀 모델과의 차이를 봐야 해.

자동회귀: "A, B, C, D라는 글자가 있어. 다음은 뭘까?" → "E일 확률이 90%, F일 확률이 8%..." (매번 구체적 확률 계산)

JEPA: "A, B, C, D를 어떤 고차원 공간에 임베딩해. 그리고 그 공간에서 '다음 상태'가 어디쯤에 있을까 예측해." (구체적 심볼 대신 연속 공간의 벡터로 작업)

이게 왜 더 나을까? 몇 가지 이유가 있어.

첫째, 계산이 훨씬 효율적이야. 수천 개의 가능한 토큰 중 어떤 게 올 확률이 가장 높은지 계산하는 대신, 연속 공간에서의 벡터 예측은 훨씬 싸다.

둘째, "물리적 직관"을 배우기 훨씬 좋아. 영상을 보면서 "공이 떨어질 때 속도가 어떻게 변하는지" 같은 걸 벡터 공간에서 배우는 게, 다음 픽셀의 RGB 값을 예측하는 것보다 훨씬 자연스럽거든.

셋째, 실제로 자동회귀 모델보다 훨씬 적은 데이터와 계산으로도 일반화할 수 있어. 왜냐면 세상의 근본 구조를 배우는 거니까.

펀딩 배경: 왜 지금, 왜 이렇게 크게?

10.3억 달러는 엄청난 규모야. 특히 시드 펀딩이라면서 이 정도면 거의 Series B 규모야. 누가 돈을 냈을까?

베조스(Amazon 설립자), 엔비디아, 삼성, Temasek(싱가포르 국부펀드), 그리고 주요 VC들이 함께했어. 왜 이들이 이 도박에 베팅했을까?

첫째, 르쿤 자신의 크레디빌리티가 엄청나. 컴퓨터 비전과 딥러닝의 거장이고, 최근 메타에서 AI 전략을 이끌었거든. 그가 "지금까진 틀렸다"고 명확히 말하면, 투자자들은 귀 기울인다.

둘째, 타이밍이 맞았어. 현재 자동회귀 LLM들이 능력 향상의 한계에 직면했다는 게 점점 명확해지고 있거든. GPT도, Claude도 토큰만 늘리는 방식으로는 더 이상 크게 나아질 게 없다는 느낌이 드는 거야.

셋째, 물리 기반 AI에 대한 산업 수요가 정말 높아. 로봇, 자율주행, 제조업 – 이런 분야에선 세상의 물리 법칙을 배운 모델이 절대적으로 필요하거든.

목표와 기대치: 5년 안에 뭘 이루려고?

AMI Labs의 공식 목표는 "일반적인 세상 모델(General World Model)"을 만드는 거야. 이건 뭐냐면, 영상을 보고 음성을 듣고 텍스트를 읽으면서 "세상이 어떻게 작동하는지"를 배우는 모델이야. 단순히 언어만 잘하는 게 아니라, 실제 세계의 인과관계를 이해하는 거지.

구체적으로는 3년 내에 프로토타입을 만들고, 5년 내에 프로덕션 수준의 모델을 목표로 하고 있어. 이건 엄청난 도전이야. 수조 개의 파라미터, 엄청난 양의 영상/오디오/텍스트 데이터, 그리고 완전히 새로운 아키텍처.

더 넓은 그림: AI 업계의 대분열?

이 발표가 흥미로운 이유는, 앞으로 AI가 두 개의 길로 갈릴 수도 있다는 신호를 주기 때문이야.

한쪽은 OpenAI, Google, Anthropic 같은 회사들. 이들은 현재 자동회귀 패러다임을 얼마나 멀리 밀 수 있을까에 집중하고 있어. GPT-5.4가 100만 토큰을 처리할 수 있다는 건, 이 방식을 극한까지 밀어붙이는 거야.

다른 한쪽은 르쿤과 AMI Labs. 이들은 완전히 다른 패러다임으로 가려고 해. "자동회귀는 이제 끝. 세상 모델을 만들자"는 거지.

어느 쪽이 이길까? 아무도 몰라. 하지만 산업은 둘 다 준비하고 있어. 실제로 Meta도 자동회귀 모델을 계속 개선하면서 동시에 르쿤을 지원하고 있거든.

진영 주요 회사 전략 장기 목표
자동회귀 강화 OpenAI, Google, Anthropic 더 큰 모델, 더 많은 토큰 언어/텍스트 완벽화
세상 모델 AMI Labs, 잠재적 경쟁사 기본 패러다임 전환 물리 이해, 로봇 제어
하이브리드 Meta, 소수 조직 둘 다 진행 미지의 영역

그래서 뭐가 달라지는데: 개발자와 기업 관점

만약 너가 자동회귀 LLM으로 제품을 만들고 있다면? 아무것도 바뀔 게 없어. 최소 3년은 안전해. AMI Labs의 월드 모델이 실제로 쓸 수 있는 수준에 도달하려면 시간이 걸리거든.

하지만 5년 후를 생각해봐. 만약 AMI Labs가 진짜 작동하는 월드 모델을 만든다면? 로봇, 자율주행, 데이터센터 자동화 – 이런 분야는 완전히 뒤바뀔 거야. 현재의 자동회귀 LLM으로는 절대로 못 하는 일들이 가능해질 거니까.

기업 입장에서는 어떨까? 지금은 OpenAI, Google, Anthropic 중 누구와 파트너할지 고민하는 수준이야. 하지만 내후년쯤이면 "우리는 세상 모델 기반 AI를 쓸 거야" vs "우리는 계속 텍스트 AI에 베팅해"라는 전략적 선택을 해야 할 수도 있어.

가장 흥미로운 건, 이 두 진영이 반드시 경쟁 관계가 아닐 수도 있다는 거야. 자동회귀 모델과 세상 모델이 협력할 수도 있거든. 예를 들어, GPT-5.4 같은 모델이 계획을 짜고, AMI Labs의 월드 모델이 물리적 실행을 담당하는 식으로.

10.3억 달러는 돈이 아니라 선언이야. "자동회귀 모델의 시대가 끝나고, 세상 모델의 시대가 올 거다"는 베팅이지.

결국 이건 AI 업계의 분수령이 될 수 있어. 지난 5년은 "단어를 잘 예측하는 AI"에 모든 투자가 몰렸던 시대였어. 이제 "세상을 이해하는 AI"에 대한 대규모 도전이 시작됐다는 뜻이거든.

참고 자료

관련 기사

무료 뉴스레터

AI 트렌드를 앞서가세요

매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.