Tendencias de IA

Más Allá de los LLM: La Apuesta de AMI Labs

AMI Labs de Yann LeCun recaudó mil millones con JEPA para construir modelos del mundo — un desafío directo al dominio de los LLM que podría redefinir cómo la IA entiende la realidad física.

Más Allá de los LLM: La Apuesta de AMI Labs

Cuando Yann LeCun — ganador del Premio Turing, coinventor de las redes neuronales convolucionales y uno de los investigadores más influyentes de la historia de la IA — apuesta mil millones de dólares contra el paradigma dominante del campo que él mismo ayudó a construir, vale la pena prestar atención. El 10 de marzo de 2026, AMI Labs se lanzó oficialmente con la mayor ronda semilla jamás recaudada por una startup europea, y con una tesis fundacional que desafía directamente el supuesto que impulsa todos los principales laboratorios de IA en Silicon Valley: que los modelos de lenguaje grande son el camino hacia la inteligencia general.

LeCun no está de acuerdo. Lo ha dicho públicamente, repetidamente y con creciente especificidad. Su argumento no es que los LLM sean inútiles — han demostrado ser notablemente capaces para tareas lingüísticas — sino que son la arquitectura equivocada para la IA que necesita razonar sobre y operar en el mundo físico. La predicción de texto, por sofisticada que sea, no enseña a una IA cómo caen los objetos, cómo se comportan los fluidos, o cómo debe moverse un robot en un terreno incierto.

La tesis de AMI Labs es que la próxima década de IA transformadora no vendrá de escalar más los LLM. Vendrá de los modelos del mundo — sistemas de IA entrenados para entender y predecir la estructura causal de los entornos físicos. Este es un desafío directo a la arquitectura dominante, y una ronda semilla de mil millones respaldada por Bezos Expeditions, Eric Schmidt y un elenco de inversores de élite está apostando que LeCun tiene razón.


¿Qué Es un Modelo del Mundo y Por Qué Importa?

Un modelo del mundo es un sistema de IA que construye una representación interna de cómo funcionan los entornos — aprendiendo las reglas físicas que gobiernan cómo los estados cambian con el tiempo — para poder planificar, predecir y actuar en consecuencia.

A diferencia de los modelos de lenguaje que predicen el siguiente token en una secuencia, los modelos del mundo aprenden a simular la dinámica de su entorno. Dado el estado actual de un sistema (un brazo robótico, un vehículo, un recipiente de fluido), un modelo del mundo predice cómo lucirá ese sistema en el futuro y usa esa predicción para planificar acciones.

CaracterísticaModelo de Lenguaje GrandeModelo del Mundo (JEPA)
Dominio de entradaTokens de textoVideo, datos de sensores, observaciones físicas
Objetivo de predicciónSiguiente token en secuenciaEstado futuro en espacio de representación latente
Fortaleza principalLenguaje, razonamiento, códigoRazonamiento físico, planificación corporizada
Datos de entrenamientoTexto a escala de InternetVideo del mundo real y flujos de sensores
Eficiencia de muestrasBaja — requiere billones de tokensAlta — V-JEPA 2 logra planificación robótica con 62 horas de datos
Limitación claveSin base físicaNo apto para generación de lenguaje abierto

La idea clave detrás del enfoque de AMI Labs es que los modelos generativos — ya sea que generen texto o píxeles — son inherentemente imprecisos porque intentan reconstruir toda la complejidad del mundo. JEPA evita esto aprendiendo en espacio de representación abstracto, prediciendo lo que importa sobre cómo cambia el mundo en lugar de intentar reproducir cada detalle superficial irrelevante.


¿Qué Es JEPA y Cómo Funciona?

JEPA (Joint Embedding Predictive Architecture), introducido por LeCun en un artículo de 2022, es la arquitectura central que sustenta AMI Labs. Es un framework de aprendizaje auto-supervisado diseñado para aprender representaciones ricas y abstractas del mundo a partir de datos sin etiquetar.

En los modelos generativos estándar, el sistema se entrena para reconstruir su entrada — prediciendo cada píxel de una imagen enmascarada o cada token de una oración enmascarada. JEPA en cambio entrena a un predictor para anticipar el embedding (representación abstracta) de un estado futuro, dado el embedding del estado actual. El modelo nunca intenta reconstruir entradas brutas; solo aprende relaciones entre representaciones.

Esta arquitectura tiene una ventaja práctica crítica: eficiencia de muestras. Dado que JEPA no desperdicia capacidad reconstruyendo detalles irrelevantes, aprende representaciones significativas mucho más rápido. El prototipo V-JEPA 2 de AMI Labs demostró capacidades de planificación robótica de cero disparos entrenado con solo 62 horas de video — una fracción de los datos requeridos por sistemas comparables.


¿Por Qué Este Es el Momento Adecuado para los Modelos del Mundo?

El lanzamiento de AMI Labs no es accidental. Varias fuerzas estructurales han convergido para hacer de 2026 un posible punto de inflexión para los modelos del mundo:

Madurez del hardware. Los chips optimizados para inferencia (incluida la línea MTIA de Meta anunciada la misma semana que el lanzamiento de AMI Labs) hacen práctico ejecutar modelos del mundo complejos en el borde, dentro de robots y vehículos, sin depender de la nube.

Abundancia de datos. Las industrias de robótica y vehículos autónomos han pasado cinco años construyendo flotas instrumentadas que generan enormes cantidades de video del mundo real y datos de sensores — exactamente la señal de entrenamiento que necesitan los modelos del mundo.

Señales de plateau en LLM. Múltiples investigadores han notado que escalar LLMs produce rendimientos decrecientes en benchmarks de razonamiento físico de sentido común. La brecha entre la capacidad lingüística y la comprensión física sigue siendo enorme.


¿Quiénes Respaldan a AMI Labs?

La ronda semilla de 1.030 millones de dólares — la mayor en la historia de startups europeas — refleja no solo confianza en la visión de LeCun, sino un cálculo estratégico de sus inversores de que el paradigma LLM tiene un techo estructural para las aplicaciones del mundo físico.

InversorCategoríaSignificado Notable
Bezos ExpeditionsFamily officeJeff Bezos respaldando personalmente la tesis de modelos del mundo
Cathay InnovationVC de tecnología profundaCo-líder; fuerte enfoque en integración hardware-software
GreycroftVC de EE.UU.Generalista multi-etapa con profunda cartera de IA empresarial
Hiro CapitalDeep tech europeoEspecialista en robótica e IA para videojuegos
HV CapitalVC europeoCo-líder; apuestas históricamente contrarias en infraestructura
Eric SchmidtIndividualEx-CEO de Google; señal estratégica del establishment de IA
Mark CubanIndividualRespaldo de alto perfil a la tesis de IA física
Tim & Rosemary Berners-LeeIndividualEl inventor de la Web apostando por la próxima capa de inteligencia

La participación de Eric Schmidt y Tim Berners-Lee es particularmente notable. Ambos han estado en el centro de cambios de paradigma anteriores en la computación. Su respaldo lleva un mensaje implícito: esto no es investigación marginal.


¿Cómo Se Compara AMI Labs con los Laboratorios LLM Establecidos?

AMI Labs no compite directamente con OpenAI o Anthropic en tareas lingüísticas. Su arquitectura, datos de entrenamiento y aplicaciones objetivo se encuentran en un dominio completamente diferente — inteligencia corporizada versus generación de texto. La divergencia estratégica es marcada en cada dimensión clave.

DimensiónOpenAI / Anthropic / GoogleAMI Labs
Arquitectura centralLLMs basados en TransformerModelos del mundo JEPA
Modalidad principalTexto, luego multimodalVideo, sensores, datos físicos
Teoría de inteligenciaHipótesis de escalaHipótesis de base física
Aplicación objetivoLenguaje, razonamiento, códigoIA corporizada, robótica, autonomía
Paradigma de entrenamientoSupervisado + RLHFPredicción del mundo auto-supervisada
ValoraciónMás de 300B$ (OpenAI)3.500M$ pre-money (etapa semilla)

Esta no es una competencia frontal por el mismo mercado — al menos no todavía. Los LLMs y los modelos del mundo pueden coexistir durante años, con los LLMs dominando las tareas centradas en texto mientras los modelos del mundo habilitan una nueva generación de sistemas físicamente inteligentes. La pregunta a largo plazo es si un sistema con comprensión física genuina eventualmente superará a los modelos de solo texto incluso en tareas de razonamiento abstracto.

La apuesta de LeCun es que la respuesta es sí.


¿Qué Significa Esto Para la Industria de IA?

El lanzamiento de AMI Labs es una señal, no solo un evento de financiación. Marca el comienzo de un desafío creíble y bien financiado a la ortodoxia de los LLM.

Para los compradores empresariales, los modelos del mundo podrían desbloquear aplicaciones de IA que los LLMs genuinamente no pueden hacer: operar robots de manera confiable en pisos de fábricas dinámicos, planificar rutas para vehículos autónomos en condiciones novedosas, predecir fallas de equipos en tiempo real.

Para la comunidad de investigación en IA, 1.030 millones en financiación semilla compra considerable capacidad de cómputo y talento. AMI Labs atraerá investigadores que creen que la próxima frontera es la inteligencia física, acelerando el campo en direcciones que los grandes laboratorios de LLM no están priorizando.

Para los inversores, la ronda de AMI Labs crea un nuevo benchmark para la financiación de IA pre-producto y establece los modelos del mundo como una categoría de inversión institucional legítima — no solo una curiosidad académica.

La era de los LLM no ha terminado. Pero puede que ya no sea el único juego en la ciudad.


Preguntas Frecuentes

¿Qué es AMI Labs y qué hace? AMI Labs es una startup de IA con sede en París cofundada por el ganador del Premio Turing Yann LeCun. Construye modelos del mundo usando JEPA: sistemas de IA que aprenden cómo funciona el mundo físico en lugar de predecir tokens de texto. Su primer producto, AMI Video, apunta a drones, vehículos autónomos y sistemas industriales autónomos.

¿En qué se diferencia un modelo del mundo de un LLM? Los LLM aprenden de texto y predicen el siguiente token; los modelos del mundo aprenden a representar y predecir cómo los entornos cambian con el tiempo en un espacio latente comprimido. Están diseñados para el razonamiento físico y tareas corporizadas, no para la generación de texto.

¿Qué es JEPA y por qué LeCun cree que supera a los LLM? JEPA entrena a la IA para predecir el estado futuro del mundo en espacio de representación abstracto, no en espacio de píxeles o tokens en bruto. LeCun argumenta que esto hace el aprendizaje más eficiente en muestras. V-JEPA 2 logró planificación robótica de cero disparos con solo 62 horas de datos de entrenamiento.

¿Quién financió AMI Labs y cuál es su valoración? AMI Labs recaudó 1.030 millones en una ronda semilla coliderada por Cathay Innovation, Greycroft, Hiro Capital, HV Capital y Bezos Expeditions, con valoración pre-money de 3.500 millones. Los respaldadores incluyen a Eric Schmidt, Mark Cuban y Tim Berners-Lee.

¿Qué industrias atenderán los modelos del mundo? Manufactura, aeroespacial, biomédica y farmacéutica son los sectores objetivo principales. La robótica de consumo, los vehículos autónomos y la logística con drones también son casos de uso centrales.

¿Considera AMI Labs que los LLM son un callejón sin salida? AMI Labs no predice que los LLM desaparecerán. Su argumento es que para tareas corporizadas del mundo físico, los modelos del mundo basados en JEPA son arquitecturas fundamentalmente mejores. Ambos enfoques pueden coexistir para diferentes dominios de aplicación.


Referencias

TAG