<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" 
     xmlns:content="http://purl.org/rss/1.0/modules/content/"
     xmlns:wfw="http://wellformedweb.org/CommentAPI/"
     xmlns:dc="http://purl.org/dc/elements/1.1/"
     xmlns:meneame="http://meneame.net/faq-es.php"
 >
<channel>
	<title>Menéame: comentarios [3052435]</title>
	<link>http://www.meneame.net</link>
	<image><title>www.meneame.net</title><link>http://www.meneame.net</link><url>http://cdn.mnmstatic.net/img/mnm/eli-rss.png</url></image>
	<description>Sitio colaborativo de publicación y comunicación entre blogs</description>
	<pubDate>Fri, 07 Dec 2018 16:32:14 +0000</pubDate>
	<generator>http://blog.meneame.net/</generator>
	<language>es</language>
	<item>
		<meneame:comment_id>25882250</meneame:comment_id>
		<meneame:link_id>3052435</meneame:link_id>
		<meneame:order>5</meneame:order>
		<meneame:user>ur_quan_master</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>9</meneame:karma>
		<meneame:url>https://www.meneame.net/story/peligros-inteligencia-artificial-1</meneame:url>
		<title>#5 Los peligros de la Inteligencia Artificial</title>
		<link>https://www.meneame.net/story/peligros-inteligencia-artificial-1/c05#c-5</link>
		<pubDate>Fri, 07 Dec 2018 16:32:14 +0000</pubDate>
		<dc:creator>ur_quan_master</dc:creator>
		<guid>https://www.meneame.net/story/peligros-inteligencia-artificial-1/c05#c-5</guid>
		<description><![CDATA[<p>Hay mucha gente que se siente amenazada por la inteligencia a secas.</p><p>&#187;&nbsp;autor: <strong>ur_quan_master</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>25882183</meneame:comment_id>
		<meneame:link_id>3052435</meneame:link_id>
		<meneame:order>4</meneame:order>
		<meneame:user>Ramón_Casadó_Sampedro</meneame:user>
		<meneame:votes>0</meneame:votes>
		<meneame:karma>6</meneame:karma>
		<meneame:url>https://www.meneame.net/story/peligros-inteligencia-artificial-1</meneame:url>
		<title>#4 Los peligros de la Inteligencia Artificial</title>
		<link>https://www.meneame.net/story/peligros-inteligencia-artificial-1/c04#c-4</link>
		<pubDate>Fri, 07 Dec 2018 16:25:12 +0000</pubDate>
		<dc:creator>Ramón_Casadó_Sampedro</dc:creator>
		<guid>https://www.meneame.net/story/peligros-inteligencia-artificial-1/c04#c-4</guid>
		<description><![CDATA[<p><a class="tooltip c:3052435-3" href="https://www.meneame.net/story/peligros-inteligencia-artificial-1/c03#c-3" rel="nofollow">#3</a> Totalmente de acuerdo.</p><p>&#187;&nbsp;autor: <strong>Ramón_Casadó_Sampedro</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>25882145</meneame:comment_id>
		<meneame:link_id>3052435</meneame:link_id>
		<meneame:order>3</meneame:order>
		<meneame:user>--88270--</meneame:user>
		<meneame:votes>1</meneame:votes>
		<meneame:karma>22</meneame:karma>
		<meneame:url>https://www.meneame.net/story/peligros-inteligencia-artificial-1</meneame:url>
		<title>#3 Los peligros de la Inteligencia Artificial</title>
		<link>https://www.meneame.net/story/peligros-inteligencia-artificial-1/c03#c-3</link>
		<pubDate>Fri, 07 Dec 2018 16:19:35 +0000</pubDate>
		<dc:creator>--88270--</dc:creator>
		<guid>https://www.meneame.net/story/peligros-inteligencia-artificial-1/c03#c-3</guid>
		<description><![CDATA[<p><a class="tooltip c:3052435-2" href="https://www.meneame.net/story/peligros-inteligencia-artificial-1/c02#c-2" rel="nofollow">#2</a> El principal problema es cómo le adoctrinas valores morales. Es algo que es dificil de parametrizar y por eso todas esas discusiones de si un coche inteligente debe atropellar a uno u otro. Aunque hay un cierto consenso, por ejemplo, no matar. Entre humanos tampoco hay un consenso determinista y evoluciona con la sociedad. Ahí Asimov trató extensamente las limitaciones de establecer una serie de reglas demasiado rígidas.<br />
<br />
Pero la principal dicotomía es que nosotros sabemos que crear dolor es negativo, porque lo hemos sentido. Sentimos frustración, odio, instinto de supervivencia. Son procesos que hemos adquirido tras millones de años de evolución y dificilmente podemos replicarlo en una IA. ¿Cómo le enseñas a una IA qué es el dolor, si no puede sentirlo y estabecer un comportamiento negativo ante esa posibilidad?</p><p>&#187;&nbsp;autor: <strong>--88270--</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>25881966</meneame:comment_id>
		<meneame:link_id>3052435</meneame:link_id>
		<meneame:order>2</meneame:order>
		<meneame:user>Ramón_Casadó_Sampedro</meneame:user>
		<meneame:votes>1</meneame:votes>
		<meneame:karma>17</meneame:karma>
		<meneame:url>https://www.meneame.net/story/peligros-inteligencia-artificial-1</meneame:url>
		<title>#2 Los peligros de la Inteligencia Artificial</title>
		<link>https://www.meneame.net/story/peligros-inteligencia-artificial-1/c02#c-2</link>
		<pubDate>Fri, 07 Dec 2018 15:56:01 +0000</pubDate>
		<dc:creator>Ramón_Casadó_Sampedro</dc:creator>
		<guid>https://www.meneame.net/story/peligros-inteligencia-artificial-1/c02#c-2</guid>
		<description><![CDATA[<p>Excelente comentario, realmente muy bueno. Tus puntos tres y cuatro vienen como anillo al dedo para analizar las reglas de Isaac Asimov.</p><p>&#187;&nbsp;autor: <strong>Ramón_Casadó_Sampedro</strong></p>]]></description>
	</item>

	<item>
		<meneame:comment_id>25881881</meneame:comment_id>
		<meneame:link_id>3052435</meneame:link_id>
		<meneame:order>1</meneame:order>
		<meneame:user>--88270--</meneame:user>
		<meneame:votes>3</meneame:votes>
		<meneame:karma>33</meneame:karma>
		<meneame:url>https://www.meneame.net/story/peligros-inteligencia-artificial-1</meneame:url>
		<title>#1 Los peligros de la Inteligencia Artificial</title>
		<link>https://www.meneame.net/story/peligros-inteligencia-artificial-1/c01#c-1</link>
		<pubDate>Fri, 07 Dec 2018 15:42:41 +0000</pubDate>
		<dc:creator>--88270--</dc:creator>
		<guid>https://www.meneame.net/story/peligros-inteligencia-artificial-1/c01#c-1</guid>
		<description><![CDATA[<p>Siempre que sale este tema, el argumento está relacionado con la potencia de cálculo. Para entender los riesgos de la inteligencia artificial hay que entender cómo se programan.<br />
<br />
Un código sigue unas instrucciones precisas. Esto es lo que se conoce como tipo 1. Da igual qué potencia de cálculo tenga. El programa sigue se forma rígida los parámetros de diseño y el programador tiene total control sobre los mecanismos internos. Este tiene limitaciones, por otro tema relacionado con la complejidad de los sistemas y la tasa de fallos. Pero ese es otro tema.<br />
<br />
Entramos en lo que son el tipo 2. Redes neuronales, que imitan, aunque no es exactamente un cerebro biológico primitivo. Aunque llevan desde los años 80 es ahora cuando la potencia de los ordenadores han permitido su desarrollo. Una red neural &#34;aprende&#34;, no se programa. No podemos acceder de forma clara a su mecanismo interno. Lo interesante de estos sistemas es que son heurísticos. Se les permiten cometer errores y mejorar de esos errores. Son especialmente útiles para tratar problemas muy complejos como el reconocimiento visual o cómo reaccionar ante eventos inesperados.<br />
<br />
El tipo 3. Aqui empieza la tela. Una red neuronal es rígida en el sentido que el número de neuronas y la potencia de cálculo está determinada y su comportamiento está basado en un proceso de aprendizaje de prueba y error más o menos costoso. La forma de reducirlo es implementar en la IA un simulador de realidad. Considera todas las posibilidades y se programa a sí misma. La potencia de cálculo que requiere es inmensa y ahí es donde los computadores cuánticos van a meter mucha caña. El control que tenemos sobre el proceso de aprendizaje es mínimo. Podemos darle unos parámetros adicionales como &#34;no mates a tus creadores&#34; y tenemos limitaciones sobre la precisión cómo simulamos la realidad. Otra limitación es que el lenguaje humano no se puede simular, no se puede aprender siguiendo unas leyes físicas. Solo se puede aprender interaccionando con otros humanos. Lo cual es un proceso lento.<br />
<br />
Llegamos al tipo 4. En el que la inteligencia puede expandir y mejorar su propia red neural y mejorar los propios parámetros de simulación. Descartando sistemas completos y creando nuevos. Que es más parecido a como trabaja un cerebro biológico. Pero a una velocidad muy superior y sin las restricciones de caber en un craneo.</p><p>&#187;&nbsp;autor: <strong>--88270--</strong></p>]]></description>
	</item>

</channel>
</rss>
