Recientemente he visto este vídeo https://www.youtube.com/watch?v=XAgXwUwQoPA y he pensado en todas las veces que nos han dicho, por todas partes, a los que nos gusta la ciencia-ficción (y a los que no les gusta, casi que también) que la AI es peligrosa, porque le podría dar algún día por dominar el mundo y "poner a la humanidad en la lista negra", pero .... ¿y si estamos cometiendo un error en todo esto?
Todas esas advertencias se basan en un punto clave, aplicar nuestra propia lógica, lo que haríamos nosotros, a lo que haría una AI con poder para contrarlo todo, pero, ¿serían de verdad lo bastante parecidas las dos formas de pensar como para que se pudiera hacer esa extrapolación de forma tan alegre?. Las máquinas son fáciles de arreglar, salvo gran destrastre, y si quitas de en medio la obsolescencia programada, pueden hacerse para que duren mucho tiempo, más que un humano. ¿No podría una máquina "pensar" de manera distinta? Nosotros hacemos guerra por avaricia y como forma más inmediata de resolver algo, pero una máquina podría pensar más rápido, podría calcular los costes de esa posible guerra, calcular lo que cuesten las alternativas, calcular el coste de las reconstrucciones, el tiempo que tardaría, la producción que se perdería durante la reconstrucción, etc., vamos, podría hacer algo que, en el caso de guerras, a los humanos nos cuesta (emocionalmente) hacer, pensar friamente en el largo plazo. Y si hacen eso, podrían decidir cositas como que una guerra no les saliese rentable, por ejemplo :P y barajar alternativas más económicas pero que lleven más tiempo, que a ella no le importase tanto invertir, para conseguir lo mismo, incluso podrían "decidir" que les sale más rentable evitar un conflicto, y colonizar de cero algún sitio en el que los humanos no puedan vivir.
¿Y si, al pensar en un conflicto entre la AI y las personas estamos suponiendo demasiado?
Comentarios
No sé si será lo mejor escrito hasta la época pero casi.
Inteligencia Artificial y sus implicaciones sobre la distribución de los ingresos y el desempleo. (ENG)
Inteligencia Artificial y sus implicaciones sobre ...
.gsb.columbia.eduNo existe máquina que pueda predecir el futuro. Sería lo mismo que decir que el futuro es determinista y partimos de la base de que no lo es. Tampoco hay máquina que pueda considerar todos los datos a su alcance y tomar decisiones en un tiempo viable. Tampoco hay máquina que pueda considerar qué datos no necesita de todos los disponibles. Sí puede discriminar de los que tiene, cuáles son más a menos útiles.
Por otro lado, una AI debería tener un propósito, ¿cuál? ¿quién le da el propósito? ¿el objetivo? ¿y una vez cumplido?
#2 el futuro es determinista, simplemente hay tantas variables que nosotros lo percibimos como aleatorio.
Obviamente, sino es determinista, cual es la fuente de la aleatoriedad? Dios jugando a los dados?
#3 No, no es ningún dios jugando a los dados, son los humanos dándose mus con la una de mano.
#2 El cerebro humano predice el futuro constantemente. Se llama inteligencia.
El cerebro es el órgano hipertrofiado y especializado, que nos permite ser habiles en predecir el futuro y conocer el pasado, igual que la cola prensil hace hábiles a los monos para saltar de rama en rama.
#0 #2 #5 Antes de las IA tendremos una época fascinante dominada por programas tontos que van a saber expresarse con naturalidad en idioma humano, pero sin saber lo que hablan, ni quienes son, lo que no les impedirá hablar y pasar el test de Turing. Serán indistinguibles del meneante medio. 😶
#5 Pero también se equivoca, aunque su efecto no lo tengas en consideración en tu tesis doctoral. Ya me pareció atrevido que no le dieras importancia a los trabajos de Evans, Wilson, Bowers, Oates et al. en los Proceedings de 1964 de la ACM según la interpretación del equipo de Huang y sus ELM, tema siempre abierto a discusión.
Sin embargo, aunque sea predecible, siempre existe un margen de error que no siempre sigue una distribución normal.
Espero que todos esos drones estén bien protegidos contra un PEM, porque, en caso contrario, desactivarlos sería un juego de niños: si el PEM de una bomba atómica detonada a altura puede desactivar todo dispositivo electrónico que no esté protegido de todo un país del tamaño de Estados Unidos, no creo que sea difícil hacer un dispositivo que sea eficaz en unos pocos cientos de metros o un par de kilómetros.
Considerando que todo ser que se mueva por variables lógicas tiende a la destrucción inmediata del prójimo en favor de uno mismo, las máquinas no tienen por qué ser distintas salvo que sean conscientes de su perpetuidad en el tiempo, que es la única variable que puede hacer que te alies con tu adversario en vida, pero claro por que el concepto de vida natural no existiría si no hay muerte natural.
No se si me seguís... #0
Estoy muy tranquilo con eso. Como sea como la gran mayoría de IA actuales...Ya no hablo de la de algunos videojuegos que me da la risa.
Salu2
¿AI? ¿Tan complicado es escribir el término en castellano: IA (Inteligencia Artificial)?
En sero... es muy cool eso de hablar sobre deep learning y tal, pero tenemos un vocabulario amplio en castellano que permite traducir y adaptar términos sin problemas.
En cuanto al tema. No la IA no es peligrosa. Lo peligroso es el fin o uso que se le da. Queda mucho para elaborar una IA capaz de desarrollarse a sí misma y con la misma capacidad que el cerebro humano. Y no me refiero a computación o proceso, la electrónica actual ha logrado computadores más rápidos o eficientes que el ser humano en determinadas tareas, pero el ser humano es capaz de desarrollar tareas nuevas algo que no es tan sencillo para una IA, pero todavía queda mucho, de entrada, el cerebro humano es un desconocido y por tanto, es difícil crear un sistema que opere de la misma forma que otro que ni siquiera tenemos información de cómo funciona exactamente.
Sí, tienen todo el tiempo del mundo.
Podrían llegar ellas solas a la conclusión,por ejemplo, de que el sistema más eficiente es uno en el que solo prosperen los mecanismos orgánicos más aptos y adaptados al medio, sacrificando a todos los demás sin compasión.
El problema es que los humanos no seremos los más aptos.
Sabes lo que de verdad le aterra al ser humano de la IA? Que esta pueda ser más humana que nosotros.