<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" 
     xmlns:content="http://purl.org/rss/1.0/modules/content/"
     xmlns:wfw="http://wellformedweb.org/CommentAPI/"
     xmlns:dc="http://purl.org/dc/elements/1.1/"
     xmlns:meneame="http://meneame.net/faq-es.php"
 >
<channel>
	<title>Menéame: comentarios [4167200]</title>
	<link>http://www.meneame.net</link>
	<image><title>www.meneame.net</title><link>http://www.meneame.net</link><url>http://cdn.mnmstatic.net/m/emnm/img/mnm/eli-rss.png</url></image>
	<description>Sitio colaborativo de publicación y comunicación entre blogs</description>
	<pubDate>Sun, 12 Apr 2026 14:38:17 +0000</pubDate>
	<generator>http://blog.meneame.net/</generator>
	<language>es</language>
	<item>
		<meneame:comment_id>44669723</meneame:comment_id>
		<meneame:link_id>4167200</meneame:link_id>
		<meneame:order>3</meneame:order>
		<meneame:user>rystan</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>7</meneame:karma>
		<meneame:url>https://www.meneame.net/m/emnm/siete-problemas-filosoficos-mundo-inteligencia-artificial</meneame:url>
		<title>#3 Siete problemas filosóficos en el mundo de la Inteligencia Artificial</title>
		<link>https://www.meneame.net/m/emnm/siete-problemas-filosoficos-mundo-inteligencia-artificial/c03#c-3</link>
		<pubDate>Sun, 12 Apr 2026 14:38:17 +0000</pubDate>
		<dc:creator>rystan</dc:creator>
		<guid>https://www.meneame.net/m/emnm/siete-problemas-filosoficos-mundo-inteligencia-artificial/c03#c-3</guid>
		<description><![CDATA[<p><i>Si un LLM es un artefacto (como una calculadora o un coche), la responsabilidad moral y legal recae en su fabricante y su usuario. Si es un agente (como un empleado o un animal), podría tener intereses propios, derechos y quizás hasta obligaciones. La diferencia entre una respuesta y otra define regímenes regulatorios enteros.</i><br />
<br />
Al ser un LLM estático, está claro de que lado cae. Luego están los llamados agentes (un desastre reciente). Consiste en montar bucle que va haciendo consultas al LLM. Esto no quita que el LLM en sí sigue siendo estático.<br />
<br />
Quién ha escrito esto va totalmente perdido.</p><p>&#187;&nbsp;autor: <strong>rystan</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>44669334</meneame:comment_id>
		<meneame:link_id>4167200</meneame:link_id>
		<meneame:order>2</meneame:order>
		<meneame:user>rystan</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>7</meneame:karma>
		<meneame:url>https://www.meneame.net/m/emnm/siete-problemas-filosoficos-mundo-inteligencia-artificial</meneame:url>
		<title>#2 Siete problemas filosóficos en el mundo de la Inteligencia Artificial</title>
		<link>https://www.meneame.net/m/emnm/siete-problemas-filosoficos-mundo-inteligencia-artificial/c02#c-2</link>
		<pubDate>Sun, 12 Apr 2026 13:01:13 +0000</pubDate>
		<dc:creator>rystan</dc:creator>
		<guid>https://www.meneame.net/m/emnm/siete-problemas-filosoficos-mundo-inteligencia-artificial/c02#c-2</guid>
		<description><![CDATA[<p>Están hablando de la habitación china:<br />
<br />
<i>Pues bien, varios filósofos argumentan ahora que el argumento no se aplica a los LLMs, o al menos no de la manera que Searle pretendía. El argumento original se dirigía contra la manipulación formal de símbolos discretos, los ceros y unos del programa clásico. Pero los LLMs trabajan con representaciones vectoriales distribuidas: cada palabra se convierte en un punto en un espacio de cientos o miles de dimensiones, y las relaciones entre palabras se codifican como relaciones geométricas entre esos puntos. Eso cambia fundamentalmente la dinámica.</i><br />
<br />
No. Por favor, no. Qué gilipollez. Eso no cambia ninguna dinámica en absoluto. <b>Siguen siendo ceros y unos</b>.<br />
<br />
El que ha escrito esta mierda está pretendiendo que cambie la naturaleza de la cosa a base de nombrarla con palabras distintas.<br />
<br />
<i>La Habitación China no previó que el manual de reglas pudiera generar, por su propia dinámica, algo parecido a un mapa del mundo.</i><br />
<br />
La habitación china no tiene dinámica porque es estática. Un LLM es también estático.</p><p>&#187;&nbsp;autor: <strong>rystan</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>44668795</meneame:comment_id>
		<meneame:link_id>4167200</meneame:link_id>
		<meneame:order>1</meneame:order>
		<meneame:user>rystan</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>7</meneame:karma>
		<meneame:url>https://www.meneame.net/m/emnm/siete-problemas-filosoficos-mundo-inteligencia-artificial</meneame:url>
		<title>#1 Siete problemas filosóficos en el mundo de la Inteligencia Artificial</title>
		<link>https://www.meneame.net/m/emnm/siete-problemas-filosoficos-mundo-inteligencia-artificial/c01#c-1</link>
		<pubDate>Sun, 12 Apr 2026 11:02:45 +0000</pubDate>
		<dc:creator>rystan</dc:creator>
		<guid>https://www.meneame.net/m/emnm/siete-problemas-filosoficos-mundo-inteligencia-artificial/c01#c-1</guid>
		<description><![CDATA[<p><i>Decir que los LLMs no comprendan simplemente porque sus operaciones consisten en cálculos estadísticos es como decir que un piano no puede producir armonía porque son solo martillos golpeando cuerdas.</i><br />
<br />
La falacia es evidente. El que se empiece a &#34;argumentar&#34; usando falacias es un claro indicativo del nivel de los &#34;argumentos&#34;.<br />
<br />
¿Debo razonar esto? Da hasta vergüenza. Debería ser evidente para todo el mundo que un piano es incapaz de producir ninguna clase de armonía. Eso lo hace el pianista.<br />
<br />
Una IA no comprende nada, pero esto no es porque procese estadísticas, sino porque no hace nada más. Es como el piano sin pianista.<br />
<br />
Respecto de lo que es lo que le falta a una IA para poder producir algo con significado, he visto muchas opiniones diversas y la gran mayoría sin ningún sentido. Es increible el nivel de despiste. Ni los gurus de la IA se aclaran, ni mínimamente.<br />
<br />
Lo que no tienen para poder tener significado es precisamente los significados. Lo llamamos comunmente conceptos. Una persona dice cosas con significado porque establece conceptos y linka las palabras a esos conceptos. Precisamente por eso.<br />
<br />
Dentro de una IA de estas (LLM) no hay más que parámetros determinados por el entrenamiento (backpropagation). Son respuestas memorizadas, y respecto de los textos engullidos son simples estadísticas.<br />
<br />
No. Una IA no tiene nada parecido a eso. Inventarse excusas (como lo de que los conceptos están &#34;embebidos&#34;, toma ya) no cambia el hecho de que no está. &#34;Sólo hacen estadísticas&#34; tiene el significado de que no establecen conceptos.</p><p>&#187;&nbsp;autor: <strong>rystan</strong></p>]]></description>
	</item>

</channel>
</rss>
