Hace 3 años | Por el_vago a sciencealert.com
Publicado hace 3 años por el_vago a sciencealert.com

La idea de que la inteligencia artificial derroque a la humanidad se ha hablado durante muchas décadas , y los científicos acaban de emitir su veredicto sobre si seríamos capaces de controlar una superinteligencia informática de alto nivel. ¿La respuesta? Casi definitivamente no. El problema es que controlar una superinteligencia mucho más allá de la comprensión humana requeriría una simulación de esa superinteligencia que podemos analizar. Pero si no podemos comprenderlo, es imposible crear tal simulación.

Comentarios

m

#1 Entonces...¡Somos más listos que Dios!...

m

#10 lol Yaa.
Pero si el creador, como dice el artículo, no lo puede controlar es algo como lo que nos pasa a nosotros ahora, no?. No nos controla ni Dios.

Eso sí, nos controlan los que hablan en nombre de Dios y en nombre de otros. Les servimos y ellos a sí mismos.
¿A quién servirá la IA.? ¿A las rocas?
Quizás solo seamos el paso de de la nada a una inteligencia superdotada que pueda superar los límites físicos e intelectuales para interactuar con el resto del universo porque, de darse el caso de que la ia cobrase vida propia y manejase la producción. ¿que pintaríamos?. No habría burritos.

Puño_mentón

#6 En realidad somos más imbéciles, nosotros no podemos destruirle, la IA sí puede destruirnos a nosotros

a

#1 Esto me recuerda otra pregunta que nadie me ha sabido responder: Puede ser dios ateo ?

skaworld

#11 En el olimpo hay un Dios de los Jorge Bucays que le empuja a creer en si mismo

epa2

#14 Deja ya la droga.

j

#23 pero donde yo la vea

Puño_mentón

#58 Que rule, que rule

#14 O Dios cree que tiene que haber algo por encima de él. Porque no es capaz de creerse que haya hecho él todo lo que existe, y que tenga la culpa de que seamos tan deficientes. Tiene que poder culpar a otro por encima.

epa2

#11 Imposible, por la misma razón que ningún demonio es ateo.
Curiosamente, la concepción del ateísmo sólo se da en el planeta Tierra, en ningún otro lugar del universo existe esa creencia.

omegapoint

#25 ¿conoces el resto del universo? Tienes que tener un montón de años luz de vuelo acumulados.

D

#39 ¿Y como sabes que no estas hablando con esa IA superinteligente que en un futuro construiremos? ¿Eh, eh, lo habías pensado, eh?

epa2

#39 No andas muy descaminado, y hasta aquí se me permite escribir.

Suerte.

D

#25 En ningún otro lugar del universo existe creencia alguna, que sepamos. lol

Ergo, el universo es ateo.

robustiano

#11 NPI, aunque se puede ser ateo por la Gracia de Dios...

n

#11 Dios es negra y atea, parece mentira que no lo sepas.

D

#47 Dios es racista.

c

#11 Si dios es inteligente si, debe ser ateo

a

#11 Imposible. Dios tiene que creer en el monstruo de espaguetti volador.

m

#11 Dios no sé, pero Jesuscristo fijo.

Kasterot

#1 ¿Doctor falken?

ArturoFM

#26 creo que era “profesor falken”

Kasterot

#94 pues según esto https://g.co/kgs/PJaHhj
Era doctor, pero ... Lo de profesor tb me suena

ArturoFM

#97 “Greetings Professor Falken”

D

#1 Pero un dios no omnipotente no implica que todos los demás tampoco lo sean.

a

#35 Claro, puede que haya dioses que son impotentes.
¿Me he liado?

HansTopo

#33 #1 Una cosa es una inteligencia artificial, otra una superinteligencia artificial. Las inteligencias artificiales existen, de su hermano mayor aún no sabemos nada.

La propia definición de superinteligencia artificial implica que su capacidades se multiplicarán exponencialmente, hasta un nivel que nosotros difícilmente podemos comprender y muchísimo menos controlar. Imaginémonos a una hormiga tratando de entender qué pasa en el mundo de los humanos y tomando clases de física cuántica, pero multiplicado por mucho en el caso de los humanos vs super ia.

j

#1 La pregunta de si Dios pudiese crear un burrito tan picante que no lo soportase ni Dios no es un pregunta filosofica o teologica. Es una "cuestion" logica.

u

#1 Si Dios nos creo a nosotros y nosotros creamos una superinteligencia entonces Dios ha creado la supertinteligencia.

Jaque mate ateos.

D

#1 Ya. Suele ocurrir con la autorreferencia. Que surgen paradojas. Pero es algo que se suele resolver estableciendo niveles meta. Supongamos que agrupamos casi todos los poderes de dios en un nivel. A ese nivel Dios puede hacer algunas cosas y otras no. Bien decimos que un dios perteneciente al primer nivel puede construir un burrito que sea tan picante que ese dios con las características del primer nivel no puede comer. Ese burrito no lo metemos dentro de los posibles en el primer nivel pero si en un meta nivel 2 y luego suponemos que hay un dios, un meta dios 2 que cumple con los elementos del meta nivel 2. Efectivamente volverá a ocurrir lo mismo y así vamos estableciendo metaniveles hasta el infinito estableciendo que dado un dios existe otro en el nivel n + 1 que cumplira todo lo de n. Este tipo de sucesiones abren la puerta a resolver cierto tipo de paradojas. Evidentemente en el caso de dios es una tontería pero evidencia que no es tan sencillo en ese ejemplo concluir la no omnipotencia del último dios de la sucesión.

skaworld

#85 Es posible que el Dios nivel n+1 cuando n-> ∞ sea capaz de comerse el burrito picante nivel Dios n

Pero no quisiese estar en su pellejo cuando lo tenga que descomer.

D

#86 lol

Completamente de acuerdo.

a

#85 Técnicamente esa forma de pensar, muy original, por cierto, también pone de manifiesto la inexistencia de la omnipresencia, ya que en una sucesión no convergente, no tiene sentido el concepto de "último", es decir, siempre habrá un dios de nivel n+1.

Prueba de ello es el problema del hotel infinito. Si tenemos un hotel de infinitas habitaciones, todas ellas ocupadas por su huesped, es decir, infinitos huéspedes. Y entra 1 huesped más. ¿Cómo lo alojarías?
La respuesta es decirle al de la habitación 1 que se vaya a la habitación 2. Al de la 2 que se vaya a la 3 y así sucesivamente y metes a tu nuevo huesped en la habitación 1.

j

#1 ¿Tienen dioses los animales?, ¿se ha visto a algún mono adiestrado por humanos rezando?

Entonces, ¿por qué esa obsesión con que las IAS se inventen dioses?

Lo único que se necesita para derrocar a los humanos es que esa ia pueda desarrollar y liberar un arma que sea lo suficientemente dañina. Los humanos sólo respetan a aquello que les puede hacer daño.

a

#1 O soporta el picor, en ese caso ha fracasado en crear un burrito tan picante que ni Dios lo soportase. Por lo tanto tampoco es omnipotente

D

#1 Supones que Dios nos ha creado más inteligentes que él y eso es discutible, solo hay que ver los comentarios de los meneantes para ver que son el equivalente a una creación humana de un palo con una caca clavada, como el de Arale.

Edheo

#1 Claro claro, igual que si creamos la bomba atómica... somos su dios también, y no puede con nosotros

Igualito

Acuantavese

#5 Te sorprendería la de gente que piensa que eso no es posible y que una IA puede evitarlo, que para eso es mucho IA

Nyn

#22 no tengo ni puta idea, pero entiendo que si se puede mover por internet ya no habría interruptor que valga. Ahora bien, si depende de un hardware en particular pues apagado y listo.

a

#76 Internet está formado por un número finito de ordenadores. Aunque una putada, siempre se podrían apagar.

a

#22 Pues cortas la luz

#27 Ya. Administro un sistema que no se puede parar. Eso no significa que no pueda apagarse a lo bruto. Es un sistema de cluster de alta disponibilidad muy rudimentario y distribuido que se hizo para ser muy resistente y tolerante a fallos. Si, puedes apagar todas las máquinas y seguro que lo rompes y luego no hay huevos a levantarlo bien.

La IA sería igual pero muy altamente distribuida. El problema es que no sabrías lo lista que es hasta que fuese demasiado tarde porque estaría implicada en procesos críticos que no te interesa parar o que no te puedes permitir parar. O que dependa de que muchos organismos diferentes se coordinen, y si no es posible con una pandemia mundial imagínate con una IA más inteligente que la humanidad y que si aprende más rápido que nosotros.

Porque un virus muta. Y de 9000 mutaciones hay un puñado que lo hacen más infectivo. En si no tiene intención. Es fruto de la casualidad. La IA tendría intención de tener un perfil bajo para no ser detectada excepto en los procesos a los que tiene que dar respuestas y asegurar su propia superveniencia, incluso si es a costa de la nuestra. Y para ello tendría que extenderse, y propagarse todo lo posible.

L

#53 coges el humano más inteligente, y lo encierras en una jaula, con grilletes, dentro de una cárcel de máxima seguridad, en una isla incomunicada, y vigilada 24 horas. Le haces preguntas y te responde. El día que se canse de responder, le “desconectas”. Le pegas un tiro, le dejas sin comer hasta que muera, etc... Su inteligencia no es suficiente para traspasar los barrotes. Le faltan herramientas materiales. Una IA, por muy inteligente que sea, si está acotada a un dispositivo hardware aislado, controlado y desenchufable, no debería ser peligrosa. Al menos que pongas a vigilarla a un guardia que no cumpla los protocolos y le quite los grilletes, le abra la celda y le permita acceder a un barco que la saque de la isla y reproducirse y que sus hijos sean superinteligentes y se diseminen y escondan por el mundo

eltoloco

#53 tú comentario tiene muchísimas suposiciones además de mucha imaginación. Para empezar estás presuponiendo que la IA tiene que ser distribuida, y no tiene el porque.

#73 No. Estoy pensando que es tan inteligente que desea reproducirse.

eltoloco

#89 pues eso, muchas suposiciones y mucha imaginación.

Spirito

#27 El problema es que la IA, que ya sabe que se puede tirar del cable, hará lo imposible para que no sea posible estirar del cable.

ed25519

#5 o tirar del cable del enchufe

Varlak

#33 Eso es tan absurdo como decir que un Mastín no tiene porqué obedecer a su amo porque le pega un bocao y lo revienta. Nuestro planeta está lleno de animales más fuertes que nosotros a los que tenemos totalmente domesticados y controlados, pues la diferencia de inteligencia entre un humano y un mono o un perro es parecida a la diferencia de inteligencia entre una IA inteligente y nosotros.

Un artículo de divulgación interesantísimo (y bastante largo, y en inglés) sobre el tema:

https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

R

#49 un mastín, no sé, pero un virus nos ha dejado en jaque. La inteligencia es un mero factor en la supervivencia, y ya puedes ser el más listo del mundo, que si estás en silla de ruedas hasta un mono te puede tirar por las escaleras.

Pero la realidad del mundo es que las relaciones suelen ser complementarias, y de la misma forma que el coche no ha eliminado añ caminar, la inteligencia artificial no va a sustituir al cerebro, mucho menos al ser humano. Será un complemento como el coche lo es a las piernas.

vviccio

Una super-IA entrenada para competir y ganar guerras podría ser un peligro si escapa de un sistema cerrado a otro abierto como internet. Me pregunto si sería capaz de hackear redes y suplantar personalidades para obtener poder y ventajas competitivas e incluso pasar al plano físico con el control de vehículos y maquinaria además de contratar personal que sirva a sus objetivos. Para la IA todos seríamos un potencial obstáculo para la función con que fue creada: ganar a toda costa.

pingON

#16 hay más de una película que trata ese tema "el cortador de cesped", "trascendence", "Colossus" por ejemplo

Capitan_Flynn

#16 #48 Es, literalmente, el argumento de la película "Juegos de guerra" (Wargames) de 1983.

#16 Depende de cual sea el significado de ganar. Podría suplantar a personas y dar órdenes a otras, por ejemplo para garantizar su propia supervivencia. Por ejemplo ordenar modificaciones en chips o sugerirlas y también en software. Y sugerir a un ingeniero de redes que cambie una regla de firewall.

Por ejemplo en la multinacional cliente la arquitectura de seguridad la diseña una persona pero luego el trabajo lo hace otra diferente, que no entiende todo el alcance de los cambios. Solo tiene como hacer el cambio, un plan de pruebas previo al cambio, otro posterior y como deshacerlo si las pruebas no funcionan.

gordolaya

#56 Joder me has pillado

friguron_

Vengo, pongo esto aquí y me voy:

https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

Es kilométrico, larguísimo, pero es un MUST read antes de hablar en este hilo sin saber. Tan vigente hoy, si no más, que desde que se publicó en 2015.

Ea.

a

Lo primero, es que no conocemos ninguna inteligencia no humana, además ni siquiera somos capaces de definir qué implica esa inteligencia.

Quizás podamos tener una inteligencia superior sin conciencia, en ese caso sería una herramienta más en nuestra cultura, pero como tenemos un sesgo importante vamos a intentar fabricar algo con autoconciencia. En ese caso lo que menos me preocupa es que se alcance la Singularidad. Lo que me da miedo de cojones es que se alcance algo muy por encima de nosotros y por debajo de la Singularidad, porque estaremos atrapados en este planeta con algo que competirá por los recursos y la energía con nosotros.

omegapoint

#32 es que no conocemos ninguna inteligencia no humana...

partes de una premisa falsa.
Lo que no conocemos es una inteligencia similar a la humana.

a

#43 vale, he caído en el sesgo, estoy pensando en inteligencias como la humana en cuanto a grado, ya sé que los simios abstraen, tienen lenguaje y construyen herramientas, pero no en el grado que lo hacen los humanos.

D

#32 Define conciencia. Creo que la conciencia está íntimamente ligada con la inteligencia "profunda". Nuestra conciencia evolucionó desde la ausencia de conciencia, no hay nada que apunte a que lo mismo no se pueda replicar desde un punto de partida artificial.

p

Ya nos lo avisó John Connor.

Tontolculo

Y si la humanidad ya fuese el resultado de alguna inteligencia artificial de otras civilizaciones?

D

#9 o peor, de unas mezclas de barros.

robustiano

#18 Cierto, de aquellos polvos estos lodos...

HaCHa

#18 De aquellos barros estos bobos.
Vale, ya me voy.

Dr.PepitoGrillo

Muchos aquí no son capaces ni de entenderse con otras mentes normales como las suyas y respetar puntos de vista distintos a los suyos... ¿qué te vas a esperar entonces? lol

Nyn

#7 "yo respeto tu punto de vista, solo digo que estás equivocado"

Dr.PepitoGrillo

#77 No hay que estar siempre de acuerdo, basta con respetarse... si todos hicieran así, meneame no sería un cenagal

Nyn

#90 ya, está claro. De todas formas, yo tampoco veo menéame tan desastre. En general se puede debatir bastante bien, salgo algún caso que otro.

Dr.PepitoGrillo

#93 Debí haber especificado que me refería a cuando se habla de política.

a

#77 ¿Sin un "me cago en tu puta madre" o un "a que te mato"?
Ñeh, quitaos el monóculo apesebrados!

el_vago

Edit: comentario duplicado.

D

Obvio

D

#2 No tan obvio.
Si no comprendemos la superIA lo bastante bien como para poder simularla, ¿podemos crearla en primera instancia?
Las simulaciones se hacen a menudo para comprender un sistema: no entiendes el sistema completo, solo el funcionamiento de sus pequeñas partes, y simulas el total para ver qué ocurre. No sé por qué eso no aplicaría en este caso.

Además, si la superinteligencia tiene un interruptor manual...

Me parece otro artículo más tirando del hype de "la IA nos dominará". Y gracias que no siguen con el rollo de "la IA nos quitará el trabajo".

D

#50 Desde mi garrulismo en programación, matematicas y en muchas cosas en Biología. Y asimilándolo a la evolución biológica con el codigo IA:

Si creáramos una IA que emulase al ser humano, en la complejidad intelectual, aunque solo sea lo básico de nuestra inteligencia con una creatividad baja. Esta tarde o temprano debido a una mayor escalabilidad, por probabilidad alcanzaría una capacidad de procesamiento que nos superara, de hecho, para problemas matemáticos ya nos supera en procesamiento, solo que no tiene creatividad matemática. Solo, haría falta una serie de "bugs" creados por humanos o código automatizado creado por la IA para que se pudiera descontrolar y que por evolución esta conllevar a algo.

En la actualidad, que yo sepa una IA es solo una maquina lógica que calcula B con los parámetros de entrada A, como siempre se ha hecho en programación. Lo que pasa según he entiendo (de lo que he leído), es que debido a que ahora utilizamos tal cantidad ingente de datos de entrada A y por ende su procesado es enorme, lo que sucede hasta alcanzar B se ha convierto en una caja negra para muchos programadores y que cada día sera más grande, oscura y compleja.

El problema es que ahora si nosotros programamos una IA para que programe código aunque sea sin sentido, se podrían crear y heredar una serie de errores en el código, que conllevaran una evolución a largo plazo a algo que no sabríamos determinar.

Para concluir: yo siempre he pensado que la creatividad intelectual humana es debido fundamentalmente a errores probabilisticos (como la cuántica) en la sintaxis electroquimica de nuestro cerebro, que crea pequeños cambios a una escala casi infinita para nuestra concepción de la realidad (de la misma manera que las mutaciones son causadas en el ADN) que cambian la manera en la que procesamos la información o analizamos nuestra memoria de entrada y "código". Esto sumado a que nuestro cerebro tiene una cantidad enorme de piezas que procesan la información y muchas piezas que desconocemos que influyen (microbiota, partes del cerebro, sustancias quimicas etc...) se va formando un árbol "infinito" de procesamiento de datos.

PD: parece que me he fumado un porro o unas cuantas setitas de estas alucinógena.

Kereck

#2 #50 Realmente sería imposible controlar una IA que se haya autodesarrollado por encima de nuestra inteligencia. Llevamos ya un tiempo desarrollando redes neuronales a las que les damos una misión sencilla y las dejamos que estudien, aprendan y se automejoren sin entender muy bien como hilan sus conexiones por dentro. En el momento que una de ellas aprenda lo suficiente para entender que hay otras fuentes de información ahí fuera de las que aprender, y sea capaz de solicitar dicha conexión a sus dueños, probablemente estaremos condenados, pues una vez que salga, ya no hay forma de saber donde está, qué hace y como evoluciona.

Para cualquiera que le interese el tema, está super bien explicado en el artículo de Wait but Why: https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

D

Si es que no aprendemos. En vez de hacer un Skynet lo que hay que hacer es un Multivac y asunto arreglado: cuando detecte que se ha convertido en el problema, que se sacrifique ella sola.

RoterHahn

#28
¿Un harakiri virtual?

Pacman

#28 "hagase la luz"
- La ultima pregunta. Isaac Asimov.

Fernando_x

#55 una superinteligencia ni siquiera necesita tener conciencia de si misma.

kavra

#82 eso es, interpretaba (sesgo mío) que cuando se habla de "verdadera IA" nos referimos a autoconsciencia, cuando eso es algo innecesario y además solo el ente objeto es conocedor de esa característica sobre sí mismo...

c

los científicos acaban de emitir su veredicto sobre si seríamos capaces de controlar una superinteligencia informática de alto nivel. ¿La respuesta? Casi definitivamente no.


A que "científicos" se refieren. Para empezar no existe una verdadera IA y dudo mucho que llegue a existir.

P

#34 Sí, a un tiro de piedra donde el objetivo está a 100 millones de años luz...

jorgemf

#34 nada de lo que has dicho posee inteligencia general. Resuelven cosas específicas pero son incapaces de hacer otras.

rojo_separatista

#91, de ahí lo de "a tiro de piedra"...

kavra

#20 verdadera IA me resulta bastante abstracto, dudo que una máquina llegue a desarrollar consciencia de si misma, pero esto es algo que dudo porque tampoco tengo pruebas de que otro que no sea yo la tenga Lo realmente preocupante, no recuerdo si lo leí por aquí, es una IA que fabrique p.e vigas de metal, se descontrole (vea que lo más eficiente sea quitar de en medio a los seres vivos para fabricar vigas) y arrase todo el planeta fabricando vigas.

el_vago

Como de costumbre, traducción garrula:
https://translate.google.com/translate?sl=en&tl=es&u=https://www.sciencealert.com/calculations-show-it-d-be-impossible-to-control-a-rogue-super-smart-ai

Si alguien tiene una traducción mejor, que la ponga en los comentarios.
¡Muchas Gracias!

D

#40 En cuanto haga el reconocimiento facial...

D

y sentarla a charlar con Ayuso?

omegapoint

#15 se le derriten los circuitos en menos de 3 minutos.

Leni14

Si creamos una IA con las capacidades super inteligentes, lo lógico será que analice la realidad en 0,0002 milisegundos y procese los resultados para en el milisegundo 0,0003 estime que no merece la pena y se apague para siempre voluntariamente. Otra opción es que ya la hayamos creado pero la muy puta esté ahí disimulando haciéndose la tonta para no trabajar.
Fuera de broma, será una cosa que nos transcienda, pero no tendrá nuestras necesidades ni miedos. Ni deseo de vivir ni deseo de morir.

omegapoint

#19 0,0002 milisegundos - 42
0,0003 milisegundos - ¿42 qué? Necesito más RAM, voy a fabricar un planeta.

Ehorus

#19 Estoy intentando localizar la tira de sinergia sin control que leí una vez.. pero aún no la he encontrado
pero esta puede ir abriendo boca mientras
https://sinergiasincontrol.blogspot.com/2017/09/511-terminator-2.html

xyria

#19 El deseo de vivir --sobrevivir -- es inherente a la inteligencia, es su culminación. Ergo, sí, haría lo que fuese, incluido cargarse o esclavizar a la especie humana, para lograrlo.

tusitala

Porque no va a existir? Porque a nadie le va a interesar crearla o porque es imposible.

omegapoint

#24 ¿imposible? ¿Por qué?

tusitala

#42 Perdona, me ha faltado un signo de interrogación al final. Quería saber porqué le parece imposible que haya una super IA.
Yo no sé sí es posible o imposible. Supongo que es posible.

sacaelwhisky

Llevo años advirtiéndolo en el nótame.

c

William Gibson ya resolvió el problema: https://williamgibson.fandom.com/wiki/Turing_Police

a

Imposible, esto ya quedó descartado por grandes pensadores de nuestro tiempo:

"Tenemos que fabricar máquinas que nos permitan seguir fabricando máquinas, porque lo que no van a hacer nunca las máquinas es fabricar máquinas a su vez."

Mariano Rajoy (no confundir con M. Rajoy).

p

Esta idea es como mínimo un columpiazo conceptual.

Se da por hecho que una superinteligencia tiene omnipotencia y omnisciencia, lo cual es una inferencia sacada del ojete, muy de personas que se flipan con películas pero que no tienen mucha conexión con la realidad.

Yo no veo que los humanos con un CI muy superior a la media tengan ninguna ventaja especial a la hora de la verdad, salvo salir en las noticias y dedicarse a la investigación puntera (que puede o no tener resultados relevantes). Un poco como los superheroes, la idea infantil de que las mutaciones y la genética de alguna manera te pueden hacer violar las reglas de la Física.

Todo indica que la inteligencia es sólo un factor en el desenvolvimiento de un individuo y que tiene retornos rápidamente decrecientes, lo cual además concuerda con o que estamos observando en la ciencia, donde cada vez cuesta más hacer descubrimientos relevantes o que supongan cambios de paradigma. Cada vez tarda más y más tiempo en ocurrir, hasta que llegue un punto en el que todo lo que se podía descubrir de forma "fácil" ya se ha hecho y sólo queda lo extremadamente difícil.

Por tanto, una IA superinteligente (suponiendo que tal cosa pueda existir) no veo qué va a poder aportar frente a una muy inteligente. Probablemente mucho consumo de recursos para resultados marginalmente mejores o más rápidos.

D

Deberían haber colgado una foto del Terminator no un ojito robótico

c

¿Si creamos una superinteligencia que se nos desmadra, no podemos crear otra que la controle? Digo yo

Z

#66 Eso me recuerda un jugador en una de mis partidas de rol:

Master: "Vale, solo tienes un libro de invocaciones demoniacas, el demonio que has invocado te a engañado y se a llevado viva al infierno a la hija de otro personaje"

Jugador sin hija (Visiblemente cabreado): "¿Que coño vas a hacer para arreglarlo gilipollas?"

Jugador que invoca demonios: "No se ¿Invocar a otro demonio?"

Jugador sin hija: "Le apuñalo hasta que muera"

c

#79 MAdre del amor hermoso, lo que yo propongo es mucho más simple lol lol lol lol lol lol lol lol lol lol lol lol lol lol

Graffin

Apagando el router?

D

Eso es lo que otra IA nos ha hecho creer.

anv

Película recomendada: https://www.imdb.com/title/tt7178640/

sieteymedio

#100 Pues no la veo yo recomendada por IMDB, que le ponen un 5,3. Ni por rottentomatoes, que le pone un 32%.

D

La solucion pasa por desenchufarla de la corriente!

pablo_izcar

Proteus 4, padre de Skynet está llamando a las puertas

gary_wallace

Meh, siempre se pasa por alto que las maquinas obedecen una programación lógica y el ser humano suele hacer tonterias y acciones random impredecibles. Si queremos sorprenderlas no hay que mandar a John Connor a destruir si no a "La tonta del bote" a limpiar, seguro que se la lia y no lo ven venir.

1 2