Hace 6 años | Por --552016-- a ticbeat.com
Publicado hace 6 años por --552016-- a ticbeat.com

Tres años después de que Elon Musk ya hiciera saltar todas las alarmas sobre los peligros de la inteligencia artificial parece que su percepción sigue siendo la misma. No es ninguna novedad que Elon Musk mantiene una relación de amor-odio con la inteligencia artificial. Allá por 2014, el fundador de Tesla (compañía sobre la que cada vez surgen más dudas ante su falta de rentabilidad en su larga historia y la caída en las previsiones de ventas de sus principales coches) ya alertó de los peligros de la IA para la raza humana, aunque posteriormen

Comentarios

D

¿Y qué? Hemos venido a jugar.

D

Ya lo predijeron las hermanas Schwaroski.

Yoryo

Hasta que la IA se de cuenta de que la humanidad va a agotar el planeta y entonces lo defendera del cáncer humano.

masde120

#6 Justo antes de ponerse a hacer bisutería.

D

#3 Lo que Elon Musk dice creo que no va por ahí. El peligro es una inteligencia artificial en malas manos. La ventaja competitiva definitiva controlada por unos pocos. Y los efectos que tendría en el resto.

D

Si lo dice por el Autopilot de Tesla....

D

Otro punto de vista :), "Todos los males del mundo" relato corto de Asimov relacionado con el tema http://www.mercaba.org/SANLUIS/ALiteratura/Literatura%20contempor%C3%A1nea/Asimov,%20Issac/Todos%20los%20males%20del%20mundo.pdf

janatxan

Me llamo Elon Musk, si escucháis esto, sois la resistencia.

D

#15 No, no puede sin el acuerdo previo de China y Rusia

D

#2 muy buena película y deberia darnos miedo

devil-bao

Elon Musk: “Hablar de la inteligencia artificial me permite hacer publicidad de mi persona y mis empresas”.

luiggi

#23 La IA funciona como una caja negra. Se programa el algoritmo de red neuronal (estructural, y hasta estos google esta empezando a crearlos a su vez con redes neuronales y por tanto también son "caja negra") y luego, tras entrenarla, desconocemos los algoritmos autocreados que realmente toman las decisiones (funcional). No sería posible ponerles límites similares a las reglas de Asimov porque son algoritmos matemáticos complejos de los que desconocemos su funcionamiento interno (probablemente por algo similar es tan dificil investigar el cerebro humano). Se me ocurre que la mano podría tener una inteligencia básica creada con algoritmos tradicionales que si impidiera algunos tipos de acciones. Pero vamos, que si superan la inteligencia humana ni eso ni nada serviría.

x

Vamos a morir todos!!!

powernergia

#15 Eso decían de Irak, y ahí sigue la guerra.

D

Ya se está haciendo viejo

masde120

#7 La mayoría de los que nacieron ya están muertos!! 😱

masde120

La IA es un monopolio natural y además mundial. Como todo monopolio natural (como el agua o el ferrocarril) el primero que llega se queda con todo el pastel a menos que se legisle en su contra.
Eso es lo que todos estos genios que están al día están intentando explicar pero todo el mundo entiende Skynet 💻 👹

luiggi

#33 Creo que es presuntuoso pensar que somos una obra insuperable de inteligencia. Claro que todavía parece lejos, pero creo que no tenemos ni idea de cuán lejos o cerca. Estoy de acuerdo que ni los mejores ingenieros juntos podrían diseñar todos los algoritmos necesarios para crear una IA fuerte, esto básicamente ya lo dice el principio de incompletitud de Gödel. Una inteligencia inferior no puede crear una superior ... directamente.

Mateila

Que empiece ya la Jihad Butleriana.

D

#13 he dicho la ventaja competitiva definitiva, el maletin no lo es

D

#17 No hace falta que tome el control, con que esté controlada con quien no debe ya sería suficiente.

s

#19 no hace falta ni que tome el control ni que este controlada por quién no debe, basta con que en su código nadie se haya acordado de meter que tiene que respetar acuerdos previos.

D

Tiene gracia que la IA, inventada por el hombre, pudiera llegar a la conclusión de que el ser humano es una amenaza por si mismo y que simplemente acelerara lo que posiblemente se produzca unos cuantos años más tarde por mano del propio ser humano.

D

Obviamente no a corto plazo, pero es evidente que sí puede ser un problema .
Basta que perdamos el control para que ya den miedo.

D

#10

La ventaja competitiva ya la tienen unos pocos. Se llama maletin nuclear.
El perder el control de esta ventaja por estar bajo inteligencia artificial ingobernable es un peligro.
Si Trump no la lia antes

D

#14

sin duda lo es.
Te aseguro que EEUU podria barrer Corea del Norte sin capacidad de reacción.

D

#16

Salvo que tome el control una inteligencia artificial , que se la pelan los acuerdos previos

D

#19

Como ahora.
Trump: toma la decisión y se pasa por el forro los acuerdos y toda lógica y sentido comun.
No hace falta IA. Ni siquiera la I

D

#20 deja de ver la tele

D

#13 No me creo que Trump tenga acceso al botón nuclear. Los militares americanos no están tan locos. Otra cosa es que él se crea que sí.

D

#15 Puede barrer el planeta entero, creo que unas 2000 veces.

D

#27 Eso de superar la inteligencia humana está por ver que sea posible. Posible en general, no solo posible con la técnica actual.