<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" 
     xmlns:content="http://purl.org/rss/1.0/modules/content/"
     xmlns:wfw="http://wellformedweb.org/CommentAPI/"
     xmlns:dc="http://purl.org/dc/elements/1.1/"
     xmlns:meneame="http://meneame.net/faq-es.php"
 >
<channel>
	<title>Menéame: comentarios [4174282]</title>
	<link>http://www.meneame.net</link>
	<image><title>www.meneame.net</title><link>http://www.meneame.net</link><url>http://cdn.mnmstatic.net/m/tecnología/img/mnm/eli-rss.png</url></image>
	<description>Sitio colaborativo de publicación y comunicación entre blogs</description>
	<pubDate>Sun, 03 May 2026 07:36:25 +0000</pubDate>
	<generator>http://blog.meneame.net/</generator>
	<language>es</language>
	<item>
		<meneame:comment_id>44772138</meneame:comment_id>
		<meneame:link_id>4174282</meneame:link_id>
		<meneame:order>2</meneame:order>
		<meneame:user>mandelbr0t</meneame:user>
		<meneame:votes>1</meneame:votes>
		<meneame:karma>13</meneame:karma>
		<meneame:url>https://www.meneame.net/m/tecnología/apuesta-mil-millones-dolares-yann-lecun</meneame:url>
		<title>#2 La apuesta de los mil millones de dólares de Yann LeCun  - Parte 1 | [EN]</title>
		<link>https://www.meneame.net/m/tecnología/apuesta-mil-millones-dolares-yann-lecun/c02#c-2</link>
		<pubDate>Sun, 03 May 2026 07:36:25 +0000</pubDate>
		<dc:creator>mandelbr0t</dc:creator>
		<guid>https://www.meneame.net/m/tecnología/apuesta-mil-millones-dolares-yann-lecun/c02#c-2</guid>
		<description><![CDATA[<p><a href="/m/tecnología/search?w=comments&#38;q=%23teahorro37minutos&#38;o=date">#teahorro37minutos</a><br />
<br />
<a class="tooltip c:4174282-1" href="https://www.meneame.net/m/tecnología/apuesta-mil-millones-dolares-yann-lecun/c01#c-1" rel="nofollow">#1</a> Esta es una síntesis de los puntos clave de la visión de Yann LeCun y su arquitectura JEPA (Joint-Embedding Predictive Architecture):<br />
1. El problema de los modelos actuales (LLMs)<br />
<br />
Yann LeCun, pionero de la IA, sostiene que los modelos de lenguaje actuales (como ChatGPT) tienen limitaciones fundamentales:<br />
<br />
    Son puramente generativos y autorregresivos: Predicen el siguiente token o píxel, lo cual funciona en texto pero falla en video.<br />
<br />
    El problema de la &#34;borrosidad&#34;: Al intentar predecir píxeles en un video, debido a la incertidumbre (hay infinitas posibilidades de lo que puede pasar después), los modelos generativos promedian los resultados y producen imágenes borrosas e inservibles.<br />
<br />
    Falta de &#34;sentido común&#34;: Los LLMs no entienden el mundo físico ni las consecuencias de sus acciones; solo manipulan lenguaje.<br />
<br />
2. ¿Qué es JEPA?<br />
<br />
JEPA no es un modelo único, sino una arquitectura alternativa que no es generativa. En lugar de predecir píxeles o texto directamente, funciona así:<br />
<br />
    Codificadores (Encoders): Pasa la entrada (X) y la salida (Y) a través de modelos que las convierten en vectores matemáticos llamados embeddings.<br />
<br />
    Predictor: Un tercer modelo entrena para predecir el embedding de la salida a partir del embedding de la entrada.<br />
<br />
    Ventaja: Al trabajar en un espacio abstracto (embeddings) y no a nivel de píxeles, el modelo ignora detalles irrelevantes (como el movimiento de las hojas de un árbol) y se enfoca en la estructura semántica y física de la escena.<br />
<br />
3. Superar el &#34;Colapso de Representación&#34;<br />
<br />
Históricamente, estos modelos (llamados Redes Siamesas) fallaban porque la IA &#34;hacía trampa&#34; devolviendo siempre el mismo vector para cualquier entrada (colapso).<br />
<br />
    La solución (Barlow Twins): Inspirado en la neurociencia, LeCun y su equipo desarrollaron un método para reducir la redundancia entre neuronas, forzando al modelo a extraer información útil sin colapsar.<br />
<br />
    Dino V3: Se menciona como un hito donde el aprendizaje autodidacta (sin etiquetas humanas) alcanzó la precisión de los modelos supervisados por humanos.<br />
<br />
4. Hacia los &#34;Modelos de Mundo&#34;<br />
<br />
La gran apuesta de LeCun es que la IA debe tener un Modelo de Mundo:<br />
<br />
    Aprendizaje como los humanos: Un adolescente aprende a conducir en 20 horas, mientras que una IA necesita millones de datos. Esto es porque los humanos tenemos un modelo interno de cómo funciona la física.<br />
<br />
    Planificación: JEPA permite que una IA simule las consecuencias de una acción antes de tomarla. Si se aplica a la robótica, el modelo puede &#34;imaginar&#34; qué movimientos llevarán a un objetivo específico.<br />
<br />
    Sustitución de los LLMs: LeCun cree que, aunque hoy resuelven problemas distintos, los enfoques basados en modelos de mundo eventualmente reemplazarán a los LLMs porque permitirán crear agentes verdaderamente inteligentes, capaces de razonar, planificar y ser seguros.<br />
<br />
Conclusión<br />
<br />
Mientras que Silicon Valley está obsesionado con la IA generativa, LeCun propone una vía no generativa basada en aprendizajes de representaciones abstractas. Para él, el futuro de la IA no es &#34;predecir la siguiente palabra&#34;, sino entender y predecir el funcionamiento del mundo físico a través de arquitecturas de incrustación conjunta (JEPA).</p><p>&#187;&nbsp;autor: <strong>mandelbr0t</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>44771995</meneame:comment_id>
		<meneame:link_id>4174282</meneame:link_id>
		<meneame:order>1</meneame:order>
		<meneame:user>JungSpinoza</meneame:user>
		<meneame:votes>1</meneame:votes>
		<meneame:karma>14</meneame:karma>
		<meneame:url>https://www.meneame.net/m/tecnología/apuesta-mil-millones-dolares-yann-lecun</meneame:url>
		<title>#1 La apuesta de los mil millones de dólares de Yann LeCun  - Parte 1 | [EN]</title>
		<link>https://www.meneame.net/m/tecnología/apuesta-mil-millones-dolares-yann-lecun/c01#c-1</link>
		<pubDate>Sun, 03 May 2026 06:44:03 +0000</pubDate>
		<dc:creator>JungSpinoza</dc:creator>
		<guid>https://www.meneame.net/m/tecnología/apuesta-mil-millones-dolares-yann-lecun/c01#c-1</guid>
		<description><![CDATA[<p>Secciones<br />
0:00 - Introducción<br />
2:28 - El problema del aprendizaje profundo<br />
4:17 - La inteligencia es pan comido<br />
5:15 - El auge de la IA generativa<br />
8:00 - Imágenes borrosas<br />
8:54 - HRT es un lugar increíble para trabajar<br />
11:16 - ¿Pero por qué tan borrosas?<br />
<br />
13:30 - ¿Nuestros modelos necesitan ser generativos?<br />
<br />
15:16 - Redes siamesas<br />
17:53 - Colapso de la representación<br />
19:54 - La epifanía de Yann y los gemelos Barlow<br />
27:22 - DINO<br />
28:58 - JEPA y los modelos mundiales<br />
34:09 - ¿Pero es bueno JEPA?<br />
<br />
36:19 - El libro de Welch Labs</p><p>&#187;&nbsp;autor: <strong>JungSpinoza</strong></p>]]></description>
	</item>

</channel>
</rss>
