Los sistemas de IA actuales, especialmente LLMs, se centran en predecir texto en lugar de comprender el mundo, lo que les impide alcanzar un razonamiento y una planificación similares a los humanos. Yann LeCun propone que el próximo gran avance provendrá del aprendizaje autosupervisado combinado con modelos del mundo, donde la IA aprende prediciendo cómo evoluciona la realidad (por ejemplo, a partir de vídeos o datos del mundo real) en lugar de depender de conjuntos de datos etiquetados. Su enfoque, que incluye arquitecturas como JEPA.
|
etiquetas: yann lecun , redes siamesas , jepa , ia generativa , barlow , dino
0:00 - Introducción
2:28 - El problema del aprendizaje profundo
4:17 - La inteligencia es pan comido
5:15 - El auge de la IA generativa
8:00 - Imágenes borrosas
8:54 - HRT es un lugar increíble para trabajar
11:16 - ¿Pero por qué tan borrosas?
13:30 - ¿Nuestros modelos necesitan ser generativos?
15:16 - Redes siamesas
17:53 - Colapso de la representación
19:54 - La epifanía de Yann y los gemelos Barlow
27:22 - DINO
28:58 - JEPA y los modelos mundiales
34:09 - ¿Pero es bueno JEPA?
36:19 - El libro de Welch Labs
#1 Esta es una síntesis de los puntos clave de la visión de Yann LeCun y su arquitectura JEPA (Joint-Embedding Predictive Architecture):
1. El problema de los modelos actuales (LLMs)
Yann LeCun, pionero de la IA, sostiene que los modelos de lenguaje actuales (como ChatGPT) tienen limitaciones fundamentales:
Son puramente generativos y autorregresivos: Predicen el siguiente token o píxel, lo cual funciona en texto pero falla en video.
El problema de la… » ver todo el comentario