Publicado hace 5 años por Ramón_Casadó_Sampedro a todociencia.net

Seguramente muchas veces hemos oído hablar de la Inteligencia Artificial, pero no siempre tenemos muy claro qué significa exactamente esa definición. Como mucho, la mayor parte de las personas tienen una idea vaga de lo que es y, sobre todo, esas naciones nos vienen dadas desde el mundo del cine o de la literatura. Por tanto, antes de abordar los diferentes tipos de Inteligencia Artificial, con sus pros y contras, definámosla primero.

Comentarios

D

Siempre que sale este tema, el argumento está relacionado con la potencia de cálculo. Para entender los riesgos de la inteligencia artificial hay que entender cómo se programan.

Un código sigue unas instrucciones precisas. Esto es lo que se conoce como tipo 1. Da igual qué potencia de cálculo tenga. El programa sigue se forma rígida los parámetros de diseño y el programador tiene total control sobre los mecanismos internos. Este tiene limitaciones, por otro tema relacionado con la complejidad de los sistemas y la tasa de fallos. Pero ese es otro tema.

Entramos en lo que son el tipo 2. Redes neuronales, que imitan, aunque no es exactamente un cerebro biológico primitivo. Aunque llevan desde los años 80 es ahora cuando la potencia de los ordenadores han permitido su desarrollo. Una red neural "aprende", no se programa. No podemos acceder de forma clara a su mecanismo interno. Lo interesante de estos sistemas es que son heurísticos. Se les permiten cometer errores y mejorar de esos errores. Son especialmente útiles para tratar problemas muy complejos como el reconocimiento visual o cómo reaccionar ante eventos inesperados.

El tipo 3. Aqui empieza la tela. Una red neuronal es rígida en el sentido que el número de neuronas y la potencia de cálculo está determinada y su comportamiento está basado en un proceso de aprendizaje de prueba y error más o menos costoso. La forma de reducirlo es implementar en la IA un simulador de realidad. Considera todas las posibilidades y se programa a sí misma. La potencia de cálculo que requiere es inmensa y ahí es donde los computadores cuánticos van a meter mucha caña. El control que tenemos sobre el proceso de aprendizaje es mínimo. Podemos darle unos parámetros adicionales como "no mates a tus creadores" y tenemos limitaciones sobre la precisión cómo simulamos la realidad. Otra limitación es que el lenguaje humano no se puede simular, no se puede aprender siguiendo unas leyes físicas. Solo se puede aprender interaccionando con otros humanos. Lo cual es un proceso lento.

Llegamos al tipo 4. En el que la inteligencia puede expandir y mejorar su propia red neural y mejorar los propios parámetros de simulación. Descartando sistemas completos y creando nuevos. Que es más parecido a como trabaja un cerebro biológico. Pero a una velocidad muy superior y sin las restricciones de caber en un craneo.

Ramón_Casadó_Sampedro

Excelente comentario, realmente muy bueno. Tus puntos tres y cuatro vienen como anillo al dedo para analizar las reglas de Isaac Asimov.

D

#2 El principal problema es cómo le adoctrinas valores morales. Es algo que es dificil de parametrizar y por eso todas esas discusiones de si un coche inteligente debe atropellar a uno u otro. Aunque hay un cierto consenso, por ejemplo, no matar. Entre humanos tampoco hay un consenso determinista y evoluciona con la sociedad. Ahí Asimov trató extensamente las limitaciones de establecer una serie de reglas demasiado rígidas.

Pero la principal dicotomía es que nosotros sabemos que crear dolor es negativo, porque lo hemos sentido. Sentimos frustración, odio, instinto de supervivencia. Son procesos que hemos adquirido tras millones de años de evolución y dificilmente podemos replicarlo en una IA. ¿Cómo le enseñas a una IA qué es el dolor, si no puede sentirlo y estabecer un comportamiento negativo ante esa posibilidad?

Ramón_Casadó_Sampedro

#3 Totalmente de acuerdo.

ur_quan_master

Hay mucha gente que se siente amenazada por la inteligencia a secas.