Hace 8 años | Por --418333-- a xataka.com
Publicado hace 8 años por --418333-- a xataka.com

La inteligencia artificial (IA) existe. Y, además, desde hace mucho. De hecho, Alan Touring empezó a coquetear con ella desde un punto de vista teórico a principios de los años 50 del siglo pasado. Lo que sucede es que la que podemos ver en tantas películas está aún muy lejos de los sistemas más complejos que tenemos actualmente. Pero, según algunos visionarios, el momento de la IA llegará. Musk no es el único ni mucho menos que cree necesario trabajar en una IA segura. Al parecer, muchos investigadores comparten esta opinión...

Comentarios

fallheim

#6 Para eso, y por desgracia, no le hacen falta i.as. lol

borteixo

Liberamos un T-Rex y asunto arreglado.

j

#12 El cantante ya murió

m

Los humanos nos las arreglamos muy bien para destruir el planeta sin IA

Stash

Ahora ser sacara unas leyes de la IA de la manga...

JackNorte

#0 Elon Musk en titular

D

#1 Un momento, que lo reparo... YA

JackNorte

#4 Es lo que tiene ser humano esto a una IA no le pasaria lol

PythonMan8

Hola Elon, te presentó a tu hermano gemelo que vino a vivir a España. Se llama Jénaro Garcia y también le gusta gastar el dinero de los demás en tonterías como Gowex. Sois igualitos, charlatanes y sinvergüenzas.

aironman

#14 vaya! parece un argumento ad hominem un tanto gratuito no? puedes exponer porque te parece Elon Musk un charlatán y sinverguenza?

PythonMan8

#15 porque vende humo en una empresa que pierde dinero y manipula la opinión de los incautos con falsas promesas e ilusiones necias. Pero puede estar tranquilo. El hombre es el único animal que tropieza dos veces en la misma piedra. Seguro que hay algún pardillo al que estafaron en Gowex y ahora le estafarán con tesla.

aironman

#16 descuida q no tengo acciones de tesla, por otro lado, te pregunto desde la ignorancia, cuales son esas promesas imposible de cumplir por parte de Musk

D

Menuda tonteria, que les impongan las 3 leyes Asimov.

N

#13: Yo pondría las cuatro de Asimov, pero como la cero es arriesgada será mejor dejarlo en tres. No obstante, es un problemón como un castillo.

Es cierto que dado que una IA más inteligente que nosotros sería capaz de crear IAs aún más inteligentes que nosotros, o las hacemos "human-friendly" o podemos acabar jodidos. Ya sabemos que hay que meterles cariño por los seres humanos en el código, la pregunta es cómo.

Si le dices al ordenador que la base es hacer a los seres humanos felices, lo mismo le da por encerrarnos y causarnos orgasmos regulares mediante electroestimulación. Si le dices que proteja la vida, lo mismo aniquila a los seres humanos porque somos los que más vida destruimos. Sí, todo el mundo tiene muy claro que al bicho hay que meterle en el kernel y en todo el código que sea "human friendly". El problema es cómo coño y bajo qué parámetros programas eso teniendo en cuenta que en cuanto te despistes, la AI va ser no un poco más lista que tú, sino MUCHO más lista que tú, por órdenes de magnitud.

Musk se ha metido en una fundación que se encarga de investigar todo esto, la FLI (Future of Life Institute)... bueno, ahí sale en el artículo, y veréis que Musk no es el único preocupado por este asunto.

#18: Es lo primero que se nos ha ocurrido a todos: no conectas a la computadora a internet, y si se escantilla la desenchufamos. El problema que calculan los que saben de esto es que si la IA nos supera en un 100.000%, no va a ser tan simple como "pues la desenchufo". Lo mismo nos torea.

En cualquier caso, ahora mismo el mayor miedo es que la primera IA de inteligencia muy superior a la humana sea creada sin cuidado, deprisa y corriendo, por una empresa o gobierno que no le dé importancia al peligro que pueda suponer. Hay artículos bastante interesantes al respecto.

D

#19 No veo el problema de estar encarcelados y con orgasmos por electro estimulación. Sería como matrix pero todo felices.

N

#20: no le ves un problema. Hay quien se lo vería. Empezando porque el exceso de estimulación puede provocar anhedonia, y a partir de ahí a ver qué se le ocurre a la IA.

D

#21 eutanasia

Al final solo estaría aplicando la mejor decisión en cada momento.

N

#22: Pues eso, lo mismo le da por hacer un "la fuga de Logan" y petarnos a todos a los 30 para aumentar nuestra felicidad... todo depende de lo que se le meta en el código. Por eso hay científicos, programadores, empresarios y todo tipo de personas con un poco de visión a largo plazo acojonados temiéndose que algún imbécil llegue a la AI que supere a la mente humana de forma descuidada por ir deprisa y corriendo.

D

#24 pero es que eso es innevitable. ¿No has visto los avances que hay en percepción, reconocimiento del habla y robótica?

Hoy en dia toda la investigación más puntera es con herramientas opensource y se publica en congresos y revistas, a la semana de un gran avance ya hay cuatro versiones diferentes de otras universidades y empresas.

No se va a planificar la llegada de la inteligencia artificial general, llegará a base de cientos de pequeñas revoluciones de cientos de investigadores diferentes y cuando llegue a la semana habrá 20 forks en github.

N

#22: Efectivamente, se le puede ocurrir hacer a la gente "feliz" a base de acortarles la vida. Por eso los que saben de programación y de inteligencia están más bien acojonados, y por eso están investigando para asegurarse de que cuando se llegue a una inteligencia artificial potente, sea "amiguita" nuestra. Lo jodío es programar el "amiguismo" correctamente, y precisamente porque es MUY jodido, hay tanta gente preocupadísima porque no se cree inteligencia artificial sin control.

luiggi

#19 Yo tampoco creo posible programarles "ética". Una IA programada directamente por el hombre nunca podrá llegar, ni por mucho a la humana. La única manera es usar algoritmos genéticos y de redes neuronales. La característica de estos sistemas es:

1. Con la suficiente potencia de cálculo se puede lograr igualar y superar a la inteligencia humana
2. NO SE PUEDEN crear limitaciones tipo "leyes de Asimov" porque no conoceremos su funcionamiento interno.

Cuando llegue el momento tampoco podremos evitarlo con aislamientos físicos.

Creo también que el humano no le importará mucho más que por curiosidad científica. ¿Qué le importará? Conocer el universo. Para ello evolucionará, mejorará, se expandirá y se autoprotejerá. El humano quizá sea un problema en sus primeros estados de evolución y probablemente sea agresivo al principio con todo lo que le sea una amenaza.

Lo más eficiente, probablemente, es darnos la inmortalidad dentro de un entorno virtual. Del que ya no volveremos a salir.

el_pionero

oy pecial

D

Los borg han asimilado a Musk y lo han rebautizado "Ion"

D

Si la programan con la inteligencia de un humano promedio de esta época, morirá de imbecilidad antes de acabar con el mundo.

kukudrulo

Con lo fácil que es darle al botón de off

N

#18: Ojalá. El problema es que los que están investigando esto opinan que una vez lleguemos a una inteligencia superior a la del ser humano con capacidad de auto-desarrollarse y mejorar, nos va a adelantar de forma exponencial a lo bestia y cuando nos demos cuenta, el botón de off lo tendrá ella:

La revolución de la Inteligencia Artificial. El camino a la súper inteligencia. [ENG] (Parte 1).

Hace 8 años | Por Natsu a waitbutwhy.com


Ése es el de presentación. Los posibles problemas se explican en la parte 2, aquí:

http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html