얀 르쿤의 AMI Labs, 시드 라운드에서 $1.03B — LLM에 대한 역대 최대 역발상 베팅
AI 대부 얀 르쿤이 세운 AMI Labs가 유럽 역대 최대 시드 라운드 $1.03B를 기록했다. JEPA 기반 세계 모델, 투자자, 기술, 경쟁 구도까지 총정리.

$1.03B. 시드 라운드 한 번으로. 유럽 역대 최대.
3월 10일, 딥러닝의 아버지 중 한 명인 얀 르쿤(Yann LeCun)이 세운 AMI Labs(Advanced Machine Intelligence Labs)가 시드 라운드에서 $1.03B(약 1조 4천억 원)를 유치했어. 프리머니 밸류에이션은 $3.5B(약 4.8조 원). 회사 설립 후 겨우 4개월 만이야.
이건 유럽 역대 최대 시드 라운드이자, 글로벌 AI 시드 라운드 역대 최대 규모야. 투자자 면면도 화려해 — Jeff Bezos의 Bezos Expeditions를 포함한 실리콘밸리와 유럽의 주요 VC들이 대거 참여했어. France 24에 따르면 프랑스 정부도 이번 투자를 유럽 AI 주권의 상징으로 환영했어.
하지만 이 뉴스의 진짜 의미는 금액이 아니야. AMI Labs가 만들려는 건 **LLM(대규모 언어 모델)이 아니라 "세계 모델(World Model)"**이야. 현재 AI 업계의 주류 패러다임에 정면으로 도전하는 역발상 베팅이야.
배경: 얀 르쿤은 누구이고, 왜 LLM에 반대하는가?
얀 르쿤은 2018년 튜링상(컴퓨터 과학의 노벨상) 수상자야. CNN(합성곱 신경망)의 발명자로, 현대 딥러닝의 토대를 놓은 3인방(르쿤, 힌튼, 벤지오) 중 한 명이야. Meta의 Chief AI Scientist로 2013년부터 FAIR(Facebook AI Research)를 이끌어왔어.
르쿤은 수년간 LLM의 근본적 한계를 공개적으로 비판해왔어. 그의 핵심 논점:
| 르쿤의 LLM 비판 | 설명 |
|---|---|
| "토큰 예측은 이해가 아니다" | LLM은 다음 단어를 확률적으로 예측할 뿐, 세계를 이해하지 못해 |
| "자기회귀는 오류가 축적된다" | 토큰을 하나씩 생성하면 초기 오류가 후반에 눈덩이처럼 커져 |
| "텍스트만으로는 세계를 배울 수 없다" | 인간은 시각, 촉각, 운동 등 다감각으로 세계를 이해해 |
| "AGI에 도달할 수 없다" | LLM 스케일링만으로는 범용 인공지능에 도달 불가능 |
이건 단순한 학술적 비판이 아니야. 르쿤은 OpenAI, Anthropic, Google이 추구하는 LLM 스케일링 패러다임 전체가 잘못된 방향이라고 주장하는 거야. 그리고 이제 $1.03B을 가지고 자신의 대안을 증명하러 나온 거지.
JEPA: LLM의 대안 아키텍처
AMI Labs의 핵심 기술은 르쿤이 Meta FAIR에서 연구해온 JEPA(Joint Embedding Predictive Architecture)야. 기존 LLM과의 차이를 비교하면:
| 구분 | LLM (GPT, Claude 등) | JEPA (AMI Labs) |
|---|---|---|
| 학습 방식 | 다음 토큰 예측 | 추상적 표현 공간에서의 예측 |
| 입력 데이터 | 텍스트 (+ 이미지/오디오) | 비디오, 이미지, 센서 데이터 |
| 목표 | 텍스트 생성 | 세계의 물리적 동작 이해 |
| 핵심 구조 | Transformer (디코더) | Joint Embedding + 에너지 기반 모델 |
| 오류 모드 | 할루시네이션 (그럴듯한 거짓) | 불확실성 표현 가능 |
| 예측 대상 | 정확한 다음 토큰 | 가능한 미래 상태의 분포 |
세계 모델이란?
세계 모델(World Model)은 물리 세계의 동작 원리를 이해하는 AI를 말해. 예를 들어:
- LLM은 "공을 던지면 어떻게 되나요?"라는 질문에 텍스트로 "떨어집니다"라고 답할 수 있어. 하지만 실제로 공의 궤적을 시뮬레이션하지는 못해.
- 세계 모델은 공의 질량, 던지는 각도, 중력을 고려해서 궤적을 예측할 수 있어. 텍스트가 아니라 물리적 이해에 기반해서.
이건 로봇공학, 자율주행, 게임 AI 같은 분야에서 혁명적인 차이를 만들어. 로봇이 처음 보는 물건을 집으려면 텍스트 지식이 아니라 물리 세계에 대한 이해가 필요하거든.
JEPA의 기술적 핵심
JEPA는 두 가지 인코더를 사용해:
- Context Encoder: 현재 관찰(이미지, 비디오 프레임)을 추상적 표현으로 변환
- Target Encoder: 미래 상태를 추상적 표현으로 변환
그리고 Predictor가 Context 표현에서 Target 표현을 예측해. 핵심은 픽셀 수준이 아닌 추상적 표현 수준에서 예측한다는 거야. 이게 왜 중요하냐면, 미래의 정확한 이미지를 예측하는 건 불필요하게 어렵고(비 오는 날 정확한 빗방울 위치를 예측할 필요는 없잖아), 추상적 수준에서 예측하면 핵심적인 변화만 포착할 수 있어.
Meta FAIR에서 발표한 V-JEPA(Video JEPA)는 이미 영상 이해 벤치마크에서 최고 수준의 성능을 보여줬어. AMI Labs는 이걸 훨씬 더 큰 규모로 확장하려는 거야.
투자 구조와 투자자
| 항목 | 상세 |
|---|---|
| 라운드 | 시드 |
| 투자 규모 | $1.03B |
| 프리머니 밸류에이션 | $3.5B |
| 주요 투자자 | Bezos Expeditions, 유럽 및 미국 주요 VC |
| 설립일 | 2025년 11월 |
| 본사 | 파리, 프랑스 |
| Executive Chairman | 얀 르쿤 |
$1.03B 시드 라운드가 얼마나 이례적인지 비교하면:
| 회사 | 시드 라운드 규모 | 시기 |
|---|---|---|
| AMI Labs | $1.03B | 2026.03 |
| xAI (일론 머스크) | $134M | 2023 |
| Mistral AI | €105M | 2023 |
| Anthropic (초기) | $124M | 2021 |
경쟁 구도: 세계 모델을 만드는 주요 플레이어
AMI Labs만 세계 모델을 연구하는 건 아니야. 하지만 접근 방식이 다 달라:
| 회사/연구소 | 접근 방식 | 강점 | 한계 |
|---|---|---|---|
| AMI Labs | JEPA, 에너지 기반 모델 | 이론적 기반 탄탄, 르쿤의 비전 | 아직 대규모 검증 안 됨 |
| Google DeepMind (Genie) | 비디오 생성 기반 | 대규모 컴퓨팅, 데이터 | 생성 모델의 한계 |
| OpenAI (Sora → World Sim) | 영상 생성에서 시뮬레이션으로 | 자금력, 엔지니어링 | LLM 패러다임에 묶여 있음 |
| Meta FAIR (V-JEPA) | JEPA 원본 연구 | 학술적 깊이 | 상용화 속도 느림 |
| Nvidia (Cosmos) | 물리 시뮬레이션 | GPU 생태계, 옴니버스 | 범용 지능보다는 시뮬레이션 특화 |
흥미로운 건 르쿤이 Meta의 Chief AI Scientist 직위를 유지하면서 AMI Labs를 운영한다는 거야. Meta FAIR의 연구 성과(V-JEPA 등)를 AMI Labs에서 상용화하는 구조인데, 이해 충돌 이슈가 있을 수 있어. Meta는 이에 대해 "르쿤의 학술적 자유를 존중한다"는 입장이야.
기술적 심층 분석: JEPA가 해결하는 문제
현재 LLM의 가장 큰 문제 중 하나는 할루시네이션(hallucination)이야. GPT-4나 Claude가 그럴듯하지만 틀린 답변을 생성하는 이유는 구조적인 거야 — 자기회귀 모델은 각 토큰을 이전 토큰에 조건부로 생성하는데, 이 과정에서 "모르겠다"는 표현을 자연스럽게 할 수 없어. 확률 분포에서 항상 가장 높은 확률의 토큰을 골라야 하니까.
JEPA의 에너지 기반 접근은 이 문제를 구조적으로 다뤄. 에너지 함수가 높은 영역은 "이 예측은 불확실하다"는 의미이고, 모델이 자신 없는 예측을 자연스럽게 거부할 수 있어. 이건 자율주행이나 로봇 같은 안전 필수(safety-critical) 응용에서 결정적인 차이야 — 잘못된 예측을 "그럴듯하게" 하는 것보다 "모르겠다"고 하는 게 훨씬 안전하거든.
또한 JEPA는 자기지도학습(self-supervised learning) 기반이야. 라벨이 없는 비디오 데이터에서 세계의 물리적 규칙을 스스로 학습해. 인터넷에 있는 수십억 시간의 비디오가 훈련 데이터가 될 수 있다는 뜻이야. 텍스트 데이터가 곧 고갈될 것이라는 "data wall" 우려와 달리, 비디오 데이터는 훨씬 풍부해.
르쿤은 SiliconANGLE 인터뷰에서 "Text is a very impoverished representation of the world"라고 말했어. 세상의 정보 대부분은 텍스트가 아니라 시각적, 물리적 상호작용에 담겨 있다는 거야. 아기가 언어를 배우기 전에 물리 세계를 이해하는 것처럼, AI도 텍스트 이전에 세계를 이해해야 한다는 게 르쿤의 철학이야.
개발자에게 주는 의미
1. LLM이 전부가 아닐 수 있다: 현재 AI 개발의 99%가 LLM 기반이야. 하지만 르쿤 같은 최상위 연구자가 $1B을 베팅할 만큼 대안적 패러다임이 존재해. 세계 모델이 성공하면, AI 개발의 프레임워크와 도구 생태계가 근본적으로 바뀔 수 있어.
2. 멀티모달의 다음 단계: 현재 멀티모달 AI(GPT-4V, Gemini)는 이미지를 "보고 설명"하는 수준이야. 세계 모델은 이미지를 "보고 이해하고 예측"하는 수준을 목표로 해. 이건 로봇공학과 자율주행의 핵심 기술이야.
3. 유럽 AI 생태계의 성장: AMI Labs는 파리에 본사를 둬. Mistral AI($2B+ 밸류에이션), Hugging Face(뉴욕+파리)와 함께 프랑스가 AI 연구 허브로 부상하고 있어. 유럽의 규제 프레임워크(EU AI Act)와 연구 인재 풀이 미국과는 다른 방식으로 AI 산업을 키우고 있어.
4. 에너지 기반 모델의 부활: 르쿤의 JEPA는 에너지 기반 모델(EBM)의 현대적 변형이야. EBM은 확률적 생성이 아니라 에너지 함수의 최소화를 통해 예측하는데, 이건 불확실성을 자연스럽게 표현할 수 있어. 할루시네이션 문제가 구조적으로 덜해질 수 있어.
왜 중요한가
AMI Labs의 $1.03B 시드는 AI 역사상 가장 큰 "역발상 베팅"이야. 현재 AI 산업은 "LLM을 더 크게"라는 하나의 방향에 수백 billion 달러를 쏟고 있어. 르쿤은 이 방향 자체가 잘못됐다고 주장하며, 그 대안을 $1B으로 증명하겠다고 나선 거야.
성공하면 AI의 패러다임이 바뀌고, 실패하면 LLM 스케일링이 유일한 길이라는 게 증명돼. 어느 쪽이든, 이 실험의 결과는 AI의 미래 방향을 결정하는 데 핵심적인 데이터 포인트가 될 거야.
시드 라운드 $1.03B, 밸류에이션 $3.5B, 튜링상 수상자의 직접 창업. 이건 단순한 스타트업 뉴스가 아니라 AI 패러다임 전쟁의 공식 선전포고야.
르쿤이 Meta에서 10년간 쌓아온 연구를 회사로 만들어 세상에 내놓는다는 건, 이 기술이 드디어 연구실을 벗어나 산업적 규모로 검증될 준비가 됐다는 의미야. 결과가 어떻든, AI 역사에서 2026년 3월은 중요한 분기점으로 기록될 거야.
참고 자료
관련 기사
AI 트렌드를 앞서가세요
매일 아침, 엄선된 AI 뉴스를 받아보세요. 스팸 없음. 언제든 구독 취소.



