LLM이 세상을 지배하는 것 같은 2026년 3월에, 튜링상 수상자가 "이건 다 틀렸다"며 10억 달러를 걸었다. Yann LeCun이 Meta를 떠나 파리에 세운 AMI Labs가 시드 라운드 $1.03B를 마감했다. 유럽 역사상 최대 시드. 투자자 명단에 Nvidia, Bezos Expeditions, Eric Schmidt, Mark Cuban, Tim Berners-Lee까지 줄을 섰다. 이 돈으로 만들겠다는 건 LLM이 아니라 "월드 모델"이다.

월드 모델이 뭔데?

LLM은 결국 다음 토큰 예측기다. "고양이가 매트 위에"까지 보면 "앉았다"를 맞춘다. 이걸 인터넷 텍스트 수조 개로 스케일한 게 GPT-5, Claude다.

문제는 현실이 토큰으로 안 된다는 거다. 카메라 피드는 연속 픽셀 스트림이고, 로봇 센서는 초당 수천 개의 연속 측정값을 쏟아낸다. 이걸 전부 토큰화해서 "다음 픽셀"을 예측하겠다는 건 비효율의 끝판왕이다. 240fps 영상을 프레임 단위로 쪼개서 트랜스포머에 먹이면 컨텍스트 윈도우가 터지기 전에 GPU 예산이 먼저 터진다. 그렇다고 프레임을 건너뛰면 컵이 테이블 끝에서 떨어지는 0.3초를 놓친다 — 물리 세계에서 0.3초는 컵이 멀쩡한 상태와 바닥에 깨진 상태의 차이다.

월드 모델은 접근 자체가 다르다. 현실의 추상적 내부 표현을 학습한다. 그림자가 어떻게 흔들리는지 같은 노이즈는 무시하고, 물체의 영구적 속성과 상호작용에 집중한다. 컵의 RGB 값이 아니라 "컵은 단단하고, 중력의 영향을 받고, 테이블 끝에 놓이면 떨어질 수 있다"는 관계를 잠재 공간에 인코딩하는 거다. 사람이 세상을 이해하는 방식과 닮았다. 당신이 커피잔을 볼 때 100만 개의 픽셀을 처리하는 게 아니라 "잔, 뜨거움, 흘릴 수 있음"이라는 압축된 모델을 돌린다. 물리 법칙과 인과관계를 잠재 공간에서 다루겠다는 건 이런 직관을 기계에 심겠다는 뜻이다.

JEPA가 뭘 다르게 하길래?

AMI의 핵심은 LeCun이 2022년에 발표한 JEPA(Joint Embedding Predictive Architecture)다. 트랜스포머와 근본적으로 다르다. 원본 픽셀이나 토큰을 복원하는 대신 압축된 잠재 공간에서 예측한다. 현실의 무의미한 엔트로피에 모델 용량을 낭비하지 않겠다는 설계다.

이게 재밌는 부분인데 — JEPA는 "이 행동을 하면 세상이 어떻게 변하는가?"를 예측하는 행동 조건부 모델이다. 모델 기반 강화학습에 가깝다. 로봇이 물건을 집기 전에 결과를 머릿속에서 시뮬레이션하는 것과 비슷하다고 보면 된다. V-JEPA가 비디오 마스킹 예측으로 이미 가능성을 보여줬고, AMI는 이걸 산업 규모로 밀어붙이겠다는 것이다.

그래서 누가 쓰는 건데?

산업 프로세스 제어, 로보틱스, 헬스케어, 웨어러블. 전부 LLM의 한계가 가장 아픈 곳이다. 할루시네이션이 코드에선 버그지만 수술 로봇에선 사고다. CSO Saining Xie, VP Michael Rabbat 등 핵심 인력이 전부 비전·센서 쪽 연구자라는 점이 방향을 말해준다.

이 베팅이 먹힐까?

솔직히, 아직 모른다. LeCun의 비전은 이론적으로 탄탄하다. CEO Alexandre LeBrun 본인이 "월드 모델이 6개월 안에 다음 버즈워드가 될 것"이라고 경고할 정도니 과대포장의 위험도 알고 있다.

현실적 허들은 명확하다. 첫해는 순수 R&D만 한다고 선언했고, 공개된 코드나 벤치마크가 없다. 한편 LLM 진영은 GPT-5.4가 OSWorld-V에서 인간 베이스라인을 넘기면서 쉬지 않고 전진 중이다. "멋진 아키텍처"가 "이미 돌아가는 시스템"을 이기려면 시간이 필요한데, 그 시간 동안 상대도 가만히 있지 않는다.

거기에 하나 더. 월드 모델의 성공 기준이 뭔지가 불분명하다. LLM은 벤치마크가 넘쳐난다 — MMLU, HumanEval, SWE-bench. 틀리면 점수가 떨어지니까 진전이 보인다. 월드 모델은? "현실을 잘 이해한다"를 어떻게 측정할 건데? 로봇이 컵을 안 깨뜨리는 횟수? 공장 불량률? 평가 기준 자체를 새로 만들어야 하는데, 그건 아키텍처 연구만큼이나 어려운 일이다. AMI가 첫해에 벤치마크 설계에도 공을 들이지 않으면, 2년 뒤에 "그래서 뭐가 나아진 건데?"라는 질문에 답할 수 없게 된다.

AI의 다음 장이 "더 큰 LLM"인지 "완전히 다른 구조"인지 — 10억 달러가 그 실험을 시작했다.