한 줄 요약: 튜링상 수상자 얀 르쿤(Yann LeCun)이 메타를 떠나 공동 창업한 AMI Labs가 시드 라운드에서 10억 3천만 달러(약 1조 5천억 원)를 조달했다. 기업가치 35억 달러 평가를 받은 이 회사는 언어 모델이 아닌 '월드 모델(world model)' — 현실 세계의 물리 법칙을 학습하는 AI — 을 목표로 한다.
이 글이 필요한 사람- LLM 이후의 AI 패러다임 변화가 궁금한 개발자
- JEPA 아키텍처가 무엇인지, GPT 계열과 무엇이 다른지 알고 싶은 경우
- 헬스케어, 로보틱스, 산업 자동화 분야에서 AI를 적용하려는 실무자
- AMI Labs 투자 라운드의 배경과 기술적 의미를 파악하고 싶은 경우
※ 이 글은 2026년 3월 기준, TechCrunch 보도 및 공개된 투자 정보를 바탕으로 작성됐습니다.
AMI Labs는 2025년 말 얀 르쿤(Yann LeCun)이 메타 AI 연구소를 떠난 후 공동 창업한 AI 스타트업이다. 2026년 3월 TechCrunch 보도에 따르면, 이 회사는 시드 라운드에서 10억 3천만 달러를 조달했으며 프리머니 기업가치는 35억 달러로 평가받았다.
라운드는 Cathay Innovation, Greycroft, Hiro Capital, HV Capital, Bezos Expeditions이 공동 주도했다. 여기에 팀 버너스-리(Tim Berners-Lee)와 로즈마리 버너스-리(Rosemary Berners-Lee), 짐 브레이어(Jim Breyer), 마크 큐반(Mark Cuban), 에릭 슈미트(Eric Schmidt) 등이 개인 투자자로 참여했다. 기술 분야 원로들이 대거 이름을 올린 것은 이례적이다.
창업팀 구성은 다음과 같다.
- 얀 르쿤 (Yann LeCun): 의장(Chairman). 튜링상 수상자, CNN 발명자, 전 메타 수석 AI 과학자.
- 알렉스 르브룅 (Alex LeBrun): CEO. 전 Meta AI 음성 인터페이스 팀 리더.
- 로랑 솔리 (Laurent Solly): COO. 전 메타 유럽·중동·아프리카 부사장.
- 사이닝 시에 (Saining Xie): 최고과학책임자(CSO). NYU 컴퓨터비전 교수.
- 파스칼 펑 (Pascale Fung): 최고연구혁신책임자(CRIO). HKUST AI 연구소장.
- 마이클 래뱃 (Michael Rabbat): VP. 전 메타 AI 연구원.
첫 번째 파트너사는 디지털 헬스케어 스타트업 Nabla다. AMI Labs는 헬스케어, 로보틱스, 웨어러블, 산업 자동화를 초기 적용 분야로 명시했다.
출처: TechCrunch — Yann LeCun's AMI Labs raises $1.03 billion to build world models (2026.03.09)
월드 모델(world model)은 외부 세계의 상태와 변화를 내부적으로 시뮬레이션할 수 있는 AI 시스템을 말한다. 단순히 텍스트나 이미지를 생성하는 것이 아니라, "이 물체를 밀면 어떻게 움직이는가", "이 환경에서 다음 행동의 결과는 무엇인가"를 예측하는 능력이 핵심이다.
르쿤은 오랫동안 현재의 LLM 중심 AI가 진정한 지능에 도달하지 못하는 이유를 세 가지로 지적해왔다.
- 물리 세계 이해 부재: LLM은 텍스트 패턴을 학습할 뿐, 중력·마찰·물체의 연속성 같은 물리 법칙을 모른다. 로봇이 컵을 집을 때 필요한 것은 "컵"이라는 단어가 아니라 컵의 형태, 무게 추정, 손의 위치 계산이다.
- 인과 추론 한계: LLM은 상관관계 기반 예측에 강하지만, 인과 관계(causality)를 이해하는 구조가 아니다. "A가 B를 야기했다"와 "A 뒤에 B가 왔다"를 구분하지 못하는 경우가 많다.
- 데이터 비효율성: 인간은 몇 번의 경험으로 새로운 물체의 동작을 예측할 수 있다. LLM은 동일한 수준의 추론을 위해 수십억 개의 예시가 필요하다.
월드 모델은 이 한계를 보완하기 위해, 관측 데이터로부터 세계의 내부 표현(internal representation)을 학습하고 이를 바탕으로 미래 상태를 예측한다. AMI Labs는 이 접근을 헬스케어(환자 상태 예측), 로보틱스(물리적 조작), 웨어러블(생체 신호 해석), 산업 자동화(공정 이상 감지)에 적용하려 한다.
AMI Labs의 기술적 기반은 르쿤이 2022년 제안한 JEPA(Joint Embedding Predictive Architecture)다. JEPA의 핵심 아이디어는 원본 입력 공간이 아니라 추상 표현 공간(embedding space)에서 예측을 수행한다는 것이다.
기존의 생성형 모델(예: 픽셀 수준 이미지 예측, 토큰 수준 텍스트 예측)은 모든 세부 사항을 그대로 재현하려 한다. 반면 JEPA는 다음 구조로 작동한다.
- Context Encoder: 현재 관측(컨텍스트)을 추상 표현으로 인코딩한다.
- Target Encoder: 예측 대상(타깃)을 추상 표현으로 인코딩한다. 이 인코더는 학습 중 직접 업데이트되지 않고 Context Encoder의 이동 평균으로 갱신된다(EMA, Exponential Moving Average).
- Predictor: Context Encoder의 출력과 위치 마스크(어떤 부분을 예측할지)를 받아 Target Encoder의 출력을 예측한다.
이 구조의 핵심 장점은 불필요한 세부 정보를 무시하는 추상화 능력이다. 예를 들어, 공이 날아가는 장면에서 배경 픽셀의 정확한 색상보다 공의 궤적 표현이 중요하다. JEPA는 예측 손실(prediction loss)이 추상 표현 공간에서만 발생하므로, 모델이 예측에 유용한 표현만 학습하도록 유도된다.
JEPA의 대표적인 구현 사례는 Meta AI가 2024년에 발표한 V-JEPA(Video JEPA)다. V-JEPA는 비디오 프레임의 마스킹된 영역을 픽셀이 아닌 특징 공간에서 예측하며, 레이블 없는 비디오만으로 물리적 직관(예: 물체가 가려진 후 다시 나타나는 것)을 학습했다.
AMI Labs는 이 방향을 확장해 멀티모달(시각, 청각, 촉각, 생체 신호 등) 입력을 통합하는 월드 모델 구조를 개발하는 것으로 알려져 있다.
LLM과 월드 모델을 비교할 때 가장 중요한 차이는 무엇을 예측하는가다.
| 항목 | LLM (대형 언어 모델) | 월드 모델 (JEPA 기반) |
|---|
| 예측 대상 | 다음 토큰(텍스트) | 미래 상태의 추상 표현 |
| 학습 데이터 | 주로 텍스트/코드 | 멀티모달(시각, 센서, 생체 등) |
| 물리 법칙 이해 | 암묵적(텍스트 패턴 기반) | 명시적(물리적 관측 기반) |
| 인과 추론 | 취약 (상관관계 중심) | 구조적으로 더 강함 |
| 적합한 작업 | 텍스트 생성, 요약, 코드 작성 | 로보틱스, 의료 진단, 자율주행 |
| 데이터 효율성 | 낮음 (대규모 데이터 필요) | 높음 (적은 데이터로 일반화) |
| 현재 성숙도 | 높음 (프로덕션 적용 활발) | 낮음 (연구 단계) |
중요한 것은 월드 모델이 LLM을 대체하는 것이 아니라는 점이다. LLM은 언어 기반 추론과 생성에서 여전히 핵심 역할을 한다. AMI Labs가 목표하는 것은 LLM이 잘하지 못하는 영역 — 물리적 세계와 상호작용하는 시스템 — 에 월드 모델을 배치하는 것이다.
르쿤은 이를 "자율주행차에 지도(map)가 필요한 것처럼, 실세계에서 행동하는 AI에는 세계 모델(world model)이 필요하다"고 표현한다. LLM은 자연어로 목적지를 말할 수 있지만, 실제 경로를 물리적으로 탐색하려면 다른 구조가 필요하다.
AMI Labs의 등장이 실무 개발자에게 의미 있는 이유는 기술 패러다임의 전환 가능성 때문이다. 현재 AI 애플리케이션 개발의 대부분은 LLM API 호출과 프롬프트 엔지니어링 중심으로 구성돼 있다. 월드 모델이 상용화되면 이 구조가 달라질 수 있다.
구체적으로 주목할 변화 방향은 다음과 같다.
- 헬스케어 AI: AMI Labs의 첫 파트너가 Nabla(의료 AI)인 것은 우연이 아니다. 의료 진단, 수술 보조, 환자 모니터링에서 물리적 세계를 이해하는 AI의 필요성은 명확하다. 의료 AI를 개발하는 팀이라면 JEPA 기반 모델이 어떻게 센서 데이터를 처리하는지 주시해야 한다.
- 로보틱스 및 임베디드 AI: 로봇 팔 제어, 드론 내비게이션, 산업용 자동화에서 현재 LLM 기반 접근의 한계는 명확하다. 월드 모델은 이 영역에서 더 직접적인 적용 가능성을 갖는다.
- 웨어러블 및 센서 융합: 스마트워치, 헬스 트래커, 산업용 IoT 장치에서 수집되는 시계열 데이터를 해석하는 데 월드 모델의 추상 표현 학습이 유리할 수 있다.
- API 및 개발 도구 생태계: AMI Labs가 본격적으로 API를 제공하기 시작하면, LLM API를 사용하는 것과 유사한 방식으로 월드 모델 기능을 호출하게 될 가능성이 있다. 이 시점이 오면 어떤 작업에 어떤 모델을 쓸지 판단하는 능력이 중요해진다.
실무 관점 메모: 현재 AMI Labs는 공개 API나 SDK를 제공하지 않는다. 초기 파트너십 기반으로 기술을 검증하는 단계다. 개발자가 직접 사용할 수 있는 시점까지는 JEPA 논문과 Meta AI의 V-JEPA 오픈소스 구현체(
github.com/facebookresearch/jepa)를 통해 아키텍처를 이해하는 것이 현실적인 준비다.
AMI Labs와 월드 모델 접근에는 현실적인 한계가 있다. 이를 과장하지 않고 짚어두는 것이 중요하다.
기술적 한계
- 검증 부재: AMI Labs는 아직 논문이나 벤치마크를 공개하지 않았다. 10억 달러를 투자받은 것과 실제로 작동하는 월드 모델을 보유한 것은 다른 이야기다. 기술 검증은 파트너십과 실제 배포를 통해 이뤄질 예정이다.
- JEPA의 한계: JEPA는 비전 영역에서 좋은 결과를 보였지만, 멀티모달로 확장할수록 모달리티 간 정렬(alignment) 문제가 복잡해진다. 텍스트, 시각, 촉각 데이터를 하나의 추상 공간으로 통합하는 것은 아직 미해결 연구 과제다.
- 데이터 수집 비용: 월드 모델은 실세계 센서 데이터를 필요로 한다. 이 데이터는 텍스트 데이터보다 수집·레이블링 비용이 높고 도메인 특수성이 강하다.
상용화 전망
- 단기(2026~2027): Nabla 같은 특수 도메인 파트너와의 협업을 통한 검증이 주가 될 것이다. 일반 개발자가 접근 가능한 API는 이 시기에 나오지 않을 가능성이 높다.
- 중기(2027~2028): 헬스케어, 로보틱스 분야에서 특화된 SDK 또는 API가 등장할 수 있다. 이때 LLM 생태계와의 통합 방식이 구체화될 것이다.
- 장기(2029+): 월드 모델이 일반화되어 LLM과 함께 AI 스택의 한 레이어를 담당하게 된다면, 애플리케이션 개발 패러다임 자체가 바뀔 수 있다.
한 가지 확실한 것은, 르쿤의 행보가 AI 연구 커뮤니티와 산업계 모두에서 LLM 일변도의 방향성에 대한 재검토를 촉진하고 있다는 점이다. AMI Labs가 성공하든 실패하든, 월드 모델 접근에 대한 관심과 연구는 앞으로 더 활발해질 것이다.