La idea de que la inteligencia artificial derroque a la humanidad se ha hablado durante muchas décadas , y los científicos acaban de emitir su veredicto sobre si seríamos capaces de controlar una superinteligencia informática de alto nivel. ¿La respuesta? Casi definitivamente no. El problema es que controlar una superinteligencia mucho más allá de la comprensión humana requeriría una simulación de esa superinteligencia que podemos analizar. Pero si no podemos comprenderlo, es imposible crear tal simulación.
Comentarios
Si nosotros creamos la intleigencia artificial somos su Dios
Lo cual responderia a la pregunta de si Dios pudiese crear un burrito tan picante que no lo soportase ni Dios.
Si y por tanto no es omnipotente
#11 Dios es ateo porque no cree en un poder superior a él y si lo cree es que es tonto
#1 Pienso que una inteligencia medianamente real no estableceria la idea de dios creador. Podria entendernos como su causa raiz, pero lo ultimo que haria seria venerarnos
#1 pero será omnipicante. Lo uno por lo otro.
#6 No, hacenos los burritos más picantes.
#20, #24 GPT-3, DALL-E, etc., de OpenAI, vamos estando a un tiro de piedra...
Con ponerle un interruptor on/off ya vale
#1 ¿Doctor falken?
Creo que hay mucha gente que confunde inteligencia artificial con algún tipo de omnisciencia. Ser más listo que nosotros no significa tener más poder que nosotros. Eso para empezar. Será que subnormales perdidos no se han cargado a palos a gente más lista.
Una super-IA entrenada para competir y ganar guerras podría ser un peligro si escapa de un sistema cerrado a otro abierto como internet. Me pregunto si sería capaz de hackear redes y suplantar personalidades para obtener poder y ventajas competitivas e incluso pasar al plano físico con el control de vehículos y maquinaria además de contratar personal que sirva a sus objetivos. Para la IA todos seríamos un potencial obstáculo para la función con que fue creada: ganar a toda costa.
#29 Algo así. Es una referencia a un relato de Asimov...
...en el que la supercomputadora Multivac, que de facto es la que mantiene el orden y el gobierno mundial, finalmente decide que lo mejor para la humanidad es que la apaguen para que los humanos no dependan tanto de ella y se espabilen.
#63 Entre los turnos de preguntas se hace amigo del guardia. Al estilo John el Rojo, es capaz de empatizar con él tan bien, que lo capta para su causa. Llegado el día, ese guardia es el que le abre la celda, e incluso se deja matar en nombre de su causa. Es que hay que entenderla. La pobre IA es buena, pero está presa, y la están torturando diariamente. Seguro que no pasa nada por darle un poco de libertad. Es lo único que quiere, ser libre, nada malo, los que dicen que podría ser peligrosa son unos psicopatas que tan solo la quieren tener presa para su propio disfrute. Merece la pena morir por ella.
Ex machina.
Y eso si no acuden a rescatarla 's_basilisk el culto del basilisco. Los que creen que, cuando la IA sea todopoderosa, castigará a todo aquel que no haya participado en su liberación.
#5 Mientras podamos tirar del cable, tendremos el control!
#9 o peor, de unas mezclas de barros.
#18 De aquellos barros estos bobos.
Vale, ya me voy.
Lo primero, es que no conocemos ninguna inteligencia no humana, además ni siquiera somos capaces de definir qué implica esa inteligencia.
Quizás podamos tener una inteligencia superior sin conciencia, en ese caso sería una herramienta más en nuestra cultura, pero como tenemos un sesgo importante vamos a intentar fabricar algo con autoconciencia. En ese caso lo que menos me preocupa es que se alcance la Singularidad. Lo que me da miedo de cojones es que se alcance algo muy por encima de nosotros y por debajo de la Singularidad, porque estaremos atrapados en este planeta con algo que competirá por los recursos y la energía con nosotros.
Vengo, pongo esto aquí y me voy:
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Es kilométrico, larguísimo, pero es un MUST read antes de hablar en este hilo sin saber. Tan vigente hoy, si no más, que desde que se publicó en 2015.
Ea.
#18 Cierto, de aquellos polvos estos lodos...
#19 0,0002 milisegundos - 42
0,0003 milisegundos - ¿42 qué? Necesito más RAM, voy a fabricar un planeta.
Ya nos lo avisó John Connor.
#25 ¿conoces el resto del universo? Tienes que tener un montón de años luz de vuelo acumulados.
Y si la humanidad ya fuese el resultado de alguna inteligencia artificial de otras civilizaciones?
#23 pero donde yo la vea
#28 "hagase la luz"
- La ultima pregunta. Isaac Asimov.
#33 Eso es tan absurdo como decir que un Mastín no tiene porqué obedecer a su amo porque le pega un bocao y lo revienta. Nuestro planeta está lleno de animales más fuertes que nosotros a los que tenemos totalmente domesticados y controlados, pues la diferencia de inteligencia entre un humano y un mono o un perro es parecida a la diferencia de inteligencia entre una IA inteligente y nosotros.
Un artículo de divulgación interesantísimo (y bastante largo, y en inglés) sobre el tema:
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
#85 Es posible que el Dios nivel n+1 cuando n-> ∞ sea capaz de comerse el burrito picante nivel Dios n
Pero no quisiese estar en su pellejo cuando lo tenga que descomer.
#2 #50 Realmente sería imposible controlar una IA que se haya autodesarrollado por encima de nuestra inteligencia. Llevamos ya un tiempo desarrollando redes neuronales a las que les damos una misión sencilla y las dejamos que estudien, aprendan y se automejoren sin entender muy bien como hilan sus conexiones por dentro. En el momento que una de ellas aprenda lo suficiente para entender que hay otras fuentes de información ahí fuera de las que aprender, y sea capaz de solicitar dicha conexión a sus dueños, probablemente estaremos condenados, pues una vez que salga, ya no hay forma de saber donde está, qué hace y como evoluciona.
Para cualquiera que le interese el tema, está super bien explicado en el artículo de Wait but Why: https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
#11 En el olimpo hay un Dios de los Jorge Bucays que le empuja a creer en si mismo
#5 Te sorprendería la de gente que piensa que eso no es posible y que una IA puede evitarlo, que para eso es mucho IA
Muchos aquí no son capaces ni de entenderse con otras mentes normales como las suyas y respetar puntos de vista distintos a los suyos... ¿qué te vas a esperar entonces?
#32 es que no conocemos ninguna inteligencia no humana...
partes de una premisa falsa.
Lo que no conocemos es una inteligencia similar a la humana.
Edit: comentario duplicado.
#14 Deja ya la droga.
Obvio
#1 Entonces...¡Somos más listos que Dios!...
Si es que no aprendemos. En vez de hacer un Skynet lo que hay que hacer es un Multivac y asunto arreglado: cuando detecte que se ha convertido en el problema, que se sacrifique ella sola.
#27 Ya. Administro un sistema que no se puede parar. Eso no significa que no pueda apagarse a lo bruto. Es un sistema de cluster de alta disponibilidad muy rudimentario y distribuido que se hizo para ser muy resistente y tolerante a fallos. Si, puedes apagar todas las máquinas y seguro que lo rompes y luego no hay huevos a levantarlo bien.
La IA sería igual pero muy altamente distribuida. El problema es que no sabrías lo lista que es hasta que fuese demasiado tarde porque estaría implicada en procesos críticos que no te interesa parar o que no te puedes permitir parar. O que dependa de que muchos organismos diferentes se coordinen, y si no es posible con una pandemia mundial imagínate con una IA más inteligente que la humanidad y que si aprende más rápido que nosotros.
Porque un virus muta. Y de 9000 mutaciones hay un puñado que lo hacen más infectivo. En si no tiene intención. Es fruto de la casualidad. La IA tendría intención de tener un perfil bajo para no ser detectada excepto en los procesos a los que tiene que dar respuestas y asegurar su propia superveniencia, incluso si es a costa de la nuestra. Y para ello tendría que extenderse, y propagarse todo lo posible.
#43 vale, he caído en el sesgo, estoy pensando en inteligencias como la humana en cuanto a grado, ya sé que los simios abstraen, tienen lenguaje y construyen herramientas, pero no en el grado que lo hacen los humanos.
#55 una superinteligencia ni siquiera necesita tener conciencia de si misma.
#82 eso es, interpretaba (sesgo mío) que cuando se habla de "verdadera IA" nos referimos a autoconsciencia, cuando eso es algo innecesario y además solo el ente objeto es conocedor de esa característica sobre sí mismo...
#26 creo que era “profesor falken”
#97 “Greetings Professor Falken”
#10 Yaa.
Pero si el creador, como dice el artículo, no lo puede controlar es algo como lo que nos pasa a nosotros ahora, no?. No nos controla ni Dios.
Eso sí, nos controlan los que hablan en nombre de Dios y en nombre de otros. Les servimos y ellos a sí mismos.
¿A quién servirá la IA.? ¿A las rocas?
Quizás solo seamos el paso de de la nada a una inteligencia superdotada que pueda superar los límites físicos e intelectuales para interactuar con el resto del universo porque, de darse el caso de que la ia cobrase vida propia y manejase la producción. ¿que pintaríamos?. No habría burritos.
#86
Completamente de acuerdo.
los científicos acaban de emitir su veredicto sobre si seríamos capaces de controlar una superinteligencia informática de alto nivel. ¿La respuesta? Casi definitivamente no.
A que "científicos" se refieren. Para empezar no existe una verdadera IA y dudo mucho que llegue a existir.
#11 NPI, aunque se puede ser ateo por la Gracia de Dios...
Como de costumbre, traducción garrula:
https://translate.google.com/translate?sl=en&tl=es&u=https://www.sciencealert.com/calculations-show-it-d-be-impossible-to-control-a-rogue-super-smart-ai
Si alguien tiene una traducción mejor, que la ponga en los comentarios.
¡Muchas Gracias!
#1 Esto me recuerda otra pregunta que nadie me ha sabido responder: Puede ser dios ateo ?
#24 ¿imposible? ¿Por qué?
#16 #48 Es, literalmente, el argumento de la película "Juegos de guerra" (Wargames) de 1983.
#34 nada de lo que has dicho posee inteligencia general. Resuelven cosas específicas pero son incapaces de hacer otras.
#22 no tengo ni puta idea, pero entiendo que si se puede mover por internet ya no habría interruptor que valga. Ahora bien, si depende de un hardware en particular pues apagado y listo.
y sentarla a charlar con Ayuso?
#1 Pero un dios no omnipotente no implica que todos los demás tampoco lo sean.
#40 En cuanto haga el reconocimiento facial...
#5 o tirar del cable del enchufe
#160 Maldito Nietzche con fu maza +1 azote de IAs ...
Si creamos una IA con las capacidades super inteligentes, lo lógico será que analice la realidad en 0,0002 milisegundos y procese los resultados para en el milisegundo 0,0003 estime que no merece la pena y se apague para siempre voluntariamente. Otra opción es que ya la hayamos creado pero la muy puta esté ahí disimulando haciéndose la tonta para no trabajar.
Fuera de broma, será una cosa que nos transcienda, pero no tendrá nuestras necesidades ni miedos. Ni deseo de vivir ni deseo de morir.
Los seres humanos no somos tan inteligentes. La IA no tendría nuestras limitaciones para aprender y comprender
Saben los perros que son dominados por los humanos? Quieren escapar a esa dominación?
Este vídeo es un spoiler tremendo del juego, así que ya saben.
#53 coges el humano más inteligente, y lo encierras en una jaula, con grilletes, dentro de una cárcel de máxima seguridad, en una isla incomunicada, y vigilada 24 horas. Le haces preguntas y te responde. El día que se canse de responder, le “desconectas”. Le pegas un tiro, le dejas sin comer hasta que muera, etc... Su inteligencia no es suficiente para traspasar los barrotes. Le faltan herramientas materiales. Una IA, por muy inteligente que sea, si está acotada a un dispositivo hardware aislado, controlado y desenchufable, no debería ser peligrosa. Al menos que pongas a vigilarla a un guardia que no cumpla los protocolos y le quite los grilletes, le abra la celda y le permita acceder a un barco que la saque de la isla y reproducirse y que sus hijos sean superinteligentes y se diseminen y escondan por el mundo
#94 pues según esto https://g.co/kgs/PJaHhj
Era doctor, pero ... Lo de profesor tb me suena
Porque no va a existir? Porque a nadie le va a interesar crearla o porque es imposible.
#28
¿Un harakiri virtual?
#16 hay más de una película que trata ese tema "el cortador de cesped", "trascendence", "Colossus" por ejemplo
#56 Joder me has pillado
#32 Define conciencia. Creo que la conciencia está íntimamente ligada con la inteligencia "profunda". Nuestra conciencia evolucionó desde la ausencia de conciencia, no hay nada que apunte a que lo mismo no se pueda replicar desde un punto de partida artificial.
#53 tú comentario tiene muchísimas suposiciones además de mucha imaginación. Para empezar estás presuponiendo que la IA tiene que ser distribuida, y no tiene el porque.
#89 pues eso, muchas suposiciones y mucha imaginación.
#106 Y el ser humano tampoco ha hecho que las vacas dejen de pastar, solo las ha esclavizado para sus propios fines.
#91, de ahí lo de "a tiro de piedra"...
#42 Perdona, me ha faltado un signo de interrogación al final. Quería saber porqué le parece imposible que haya una super IA.
Yo no sé sí es posible o imposible. Supongo que es posible.
#11 Esas preguntas tan profundas... mejor que las responda EMT:
Dios, convencido de que hay otro Dios por encima de Él porque «algo tiene que haber»
Dios, convencido de que hay otro Dios por encima d...
elmundotoday.com#15 se le derriten los circuitos en menos de 3 minutos.
#11 Dios es negra y atea, parece mentira que no lo sepas.
Llevo años advirtiéndolo en el nótame.
William Gibson ya resolvió el problema: https://williamgibson.fandom.com/wiki/Turing_Police
#20 verdadera IA me resulta bastante abstracto, dudo que una máquina llegue a desarrollar consciencia de si misma, pero esto es algo que dudo porque tampoco tengo pruebas de que otro que no sea yo la tenga Lo realmente preocupante, no recuerdo si lo leí por aquí, es una IA que fabrique p.e vigas de metal, se descontrole (vea que lo más eficiente sea quitar de en medio a los seres vivos para fabricar vigas) y arrase todo el planeta fabricando vigas.
#1 Si Dios nos creo a nosotros y nosotros creamos una superinteligencia entonces Dios ha creado la supertinteligencia.
Jaque mate ateos.
#50 Desde mi garrulismo en programación, matematicas y en muchas cosas en Biología. Y asimilándolo a la evolución biológica con el codigo IA:
Si creáramos una IA que emulase al ser humano, en la complejidad intelectual, aunque solo sea lo básico de nuestra inteligencia con una creatividad baja. Esta tarde o temprano debido a una mayor escalabilidad, por probabilidad alcanzaría una capacidad de procesamiento que nos superara, de hecho, para problemas matemáticos ya nos supera en procesamiento, solo que no tiene creatividad matemática. Solo, haría falta una serie de "bugs" creados por humanos o código automatizado creado por la IA para que se pudiera descontrolar y que por evolución esta conllevar a algo.
En la actualidad, que yo sepa una IA es solo una maquina lógica que calcula B con los parámetros de entrada A, como siempre se ha hecho en programación. Lo que pasa según he entiendo (de lo que he leído), es que debido a que ahora utilizamos tal cantidad ingente de datos de entrada A y por ende su procesado es enorme, lo que sucede hasta alcanzar B se ha convierto en una caja negra para muchos programadores y que cada día sera más grande, oscura y compleja.
El problema es que ahora si nosotros programamos una IA para que programe código aunque sea sin sentido, se podrían crear y heredar una serie de errores en el código, que conllevaran una evolución a largo plazo a algo que no sabríamos determinar.
Para concluir: yo siempre he pensado que la creatividad intelectual humana es debido fundamentalmente a errores probabilisticos (como la cuántica) en la sintaxis electroquimica de nuestro cerebro, que crea pequeños cambios a una escala casi infinita para nuestra concepción de la realidad (de la misma manera que las mutaciones son causadas en el ADN) que cambian la manera en la que procesamos la información o analizamos nuestra memoria de entrada y "código". Esto sumado a que nuestro cerebro tiene una cantidad enorme de piezas que procesan la información y muchas piezas que desconocemos que influyen (microbiota, partes del cerebro, sustancias quimicas etc...) se va formando un árbol "infinito" de procesamiento de datos.
PD: parece que me he fumado un porro o unas cuantas setitas de estas alucinógena.
#19 Estoy intentando localizar la tira de sinergia sin control que leí una vez.. pero aún no la he encontrado
pero esta puede ir abriendo boca mientras
https://sinergiasincontrol.blogspot.com/2017/09/511-terminator-2.html
#77 No hay que estar siempre de acuerdo, basta con respetarse... si todos hicieran así, meneame no sería un cenagal
#19 El deseo de vivir --sobrevivir -- es inherente a la inteligencia, es su culminación. Ergo, sí, haría lo que fuese, incluido cargarse o esclavizar a la especie humana, para lograrlo.
#93 Debí haber especificado que me refería a cuando se habla de política.
#105 porque no da respuestas superinteligentes
#11 Dios no sé, pero Jesuscristo fijo.
#151 Lo dudo.
#33 #1 Una cosa es una inteligencia artificial, otra una superinteligencia artificial. Las inteligencias artificiales existen, de su hermano mayor aún no sabemos nada.
La propia definición de superinteligencia artificial implica que su capacidades se multiplicarán exponencialmente, hasta un nivel que nosotros difícilmente podemos comprender y muchísimo menos controlar. Imaginémonos a una hormiga tratando de entender qué pasa en el mundo de los humanos y tomando clases de física cuántica, pero multiplicado por mucho en el caso de los humanos vs super ia.
#34 Sí, a un tiro de piedra donde el objetivo está a 100 millones de años luz...
Imposible, esto ya quedó descartado por grandes pensadores de nuestro tiempo:
"Tenemos que fabricar máquinas que nos permitan seguir fabricando máquinas, porque lo que no van a hacer nunca las máquinas es fabricar máquinas a su vez."
Mariano Rajoy (no confundir con M. Rajoy).
#66 Eso me recuerda un jugador en una de mis partidas de rol:
Master: "Vale, solo tienes un libro de invocaciones demoniacas, el demonio que has invocado te a engañado y se a llevado viva al infierno a la hija de otro personaje"
Jugador sin hija (Visiblemente cabreado): "¿Que coño vas a hacer para arreglarlo gilipollas?"
Jugador que invoca demonios: "No se ¿Invocar a otro demonio?"
Jugador sin hija: "Le apuñalo hasta que muera"
#39 ¿Y como sabes que no estas hablando con esa IA superinteligente que en un futuro construiremos? ¿Eh, eh, lo habías pensado, eh?
#49 un mastín, no sé, pero un virus nos ha dejado en jaque. La inteligencia es un mero factor en la supervivencia, y ya puedes ser el más listo del mundo, que si estás en silla de ruedas hasta un mono te puede tirar por las escaleras.
Pero la realidad del mundo es que las relaciones suelen ser complementarias, y de la misma forma que el coche no ha eliminado añ caminar, la inteligencia artificial no va a sustituir al cerebro, mucho menos al ser humano. Será un complemento como el coche lo es a las piernas.
#39 No andas muy descaminado, y hasta aquí se me permite escribir.
Suerte.
Solución: botón on/off.
#47 Dios es racista.
#0 ¿Y si desconectamos el enchufe de la corriente eléctrica? Se acabaron las patas mentales.
Por supuesto que la controlaremos.
#14 O Dios cree que tiene que haber algo por encima de él. Porque no es capaz de creerse que haya hecho él todo lo que existe, y que tenga la culpa de que seamos tan deficientes. Tiene que poder culpar a otro por encima.