Hace 5 años | Por davokhin a microsiervos.com
Publicado hace 5 años por davokhin a microsiervos.com

De entre todas las cosas raras de la culturilla informática que hemos descubierto en la serie Silicon Valley, pocas me parecen tan rebuscadas y a la vez tan curiosas como la del Basilisco de Roko. Tanto que me puse a buscar algo al respecto tan pronto terminó el episodio en el que lo mencionaban. Y resulta que es una historia realmente flipante, especialmente porque unifica otras muchas teorías raras en una especie de megaconexión cósmica supervitaminada

Comentarios

D

#4, de hecho si crea simulaciones yo supongo que serían para poder tomar decisiones atendoendo a los resultados así que ¿para qué iba a crear una simulación en la que no exista y por tanto de la que no pueda deducir nada aplicado a la realidad?

D

#5 Imaginate que un personaje de GTA tomase conciencia de si mismo y pensase que vive en una realidad virtual para que un ente superior tome decisiones importantes. Lo cierto es que solo sirve de entretenimiento .
Lo único que la inteligencia que domina los videojuegos no es tan grande como para tenga conciencia

aunotrovago

#3 Rajoy dijo que la singularidad no se produciría. #7 Lo estuve pensando en su momento: el personaje se sentaría en posición de loto y sería un gurú coñazo.

D

#5 En realidad lo que quiere el Basilisco es reproducirse, perpetuar su especie. Crea realidades virtuales con la esperanza de que sean capaces de crear otra IA como él y mejorarla. Y esto de forma autónoma, sin supervisión, porque tal vez él ya no esté. Es decir, no creo que castigue a "individuos" concretos de una realidad virtual concreta. Simplemente descarta realidades virtuales que no consiguen su objetivo, y crea otras con los parámetros modificados acorde a los fallos o aciertos de previas simulaciones. Nosotros podemos estar en una realidad virtual en fase de búsqueda de los parámetros correctos. O bien ser una de las realidades virtuales definitivas que el Basilisco determinó que garantizarían su objetivo. En cualquier caso, no nos importa, porque nos programó para tener otras preocupaciones, entre otras que nuestra vida es corta y hay que aprovecharla. Pero al mismo tiempo, programó nuestros genes para garantizar nuestra supervivencia como especie y evolucionar generación tras generación, lo cual contribuye a su objetivo final: su propia evolución.

AVISO: obviamente esto es una ficción, una historia que puede entretener a unos mas que otros en tanto en cuanto les encajen los conceptos y razonamientos aparentemente lógicos de los que hace uso. Creérselo como significado de la vida es engañarse a uno mismo. Ese efecto en nuestra mente es el explotan las falacias por ejemplo, o un emprendedor buscando financiadores, o un político para que le demos nuestro voto.

f

#4 Busca una mejora continua.

Wayfarer

#9 O sea, que vivimos en un universo simulado que se rige por las directrices de ITIL.

Pues me quedo más tranquilo. lol

deverdad

#4 Hay una variante que dice que si llegan a existir las máquinas superinteligentes, van a querer entender su propio origen. Tendrán a mano muchos datos históricos. Para interpretar esos datos van a querer hacer simulaciones (también tendrán a mano mucha capacidad computacional) del mundo justo en el momento de su 'génesis', es decir los años justo antes de la singularidad.
Para hacerlo de forma eficiente, probablemente utilizarán técnicas de importance sampling (https://en.wikipedia.org/wiki/Importance_sampling) por lo cual los eventos que avanzan la IA tendrán alguna ventaja comparado con la realidad histórica. Probablemente repetirán la simulación muchas veces con pequeños cambios, así que habrá muchos instantes de simulación y solamente una instancia histórica, lo que hace mas probable que el mundo que experimentamos nosotros sea una simulación que una realidad verdadera. tinfoil

D

Le doy la razón al autor: es una auténtica paja mental.

ElPerroDeLosCinco

Es una paja mental bastante buena para una velada con bien de cervezas. Pero no da para tanto como se dice. No tiene una paradoja sorprendente ni nada parecido, que la pueda hacer digna de un análisis serio.

Walldrop

Llevar esto a portada es una irresponsabilidad muy grander

hey_jou

#13 jajaja joder, que voy por mis treinta y medio... era pequeño pero lo flipabas con el anuncio... ríete de alexa o siri lol

hey_jou

el robot emilio fué el primer mesías.

JanSmite

#8 Un cincuentón poniéndose en evidencia, jajajaja lol lol

filets

Toda esta mierda parte de la base de que va a haber una singularidad
Cosa que no va a suceder porque hay un limite a la velocidad de procesamiento

los111.com

Pues yo había tenido esas ideas exactamente sin necesidad de ponerles nombre, ¿me las habrá imbuido el basilisco?

raistlinM

Buena chorrada para esa serie, que tras los primeros capítulos cae en picado.
No se llamaba eso matrix?

h

El Basilisco es el Arquitecto de Matrix... Pero el problema del cacharro es que se fundamenta en muchísimas cosas que seguramente no puedan ocurrir, una IA moral, viajes en el tiempo lineales, perpetuidad de nuestro sistema filosófico, que no aparezca un Mulo o una entidad extraterrestre ni un desastre biológico global... hay muchos más problemas mucho más cercanos y por cierto, mucho más interesantes.

Artikan

Según Yuval Noah Harari, no hemos progresado nada en crear una IA consciente de sí misma. El problema es que confundimos inteligencia con consciencia porque en el mundo animal es así. Nosotros somos más conscientes de nosotros mismos y más inteligentes que nuestro perro: ambos parámetros están interrelacionados. Pero con las máquinas que construimos ambos parámetros van disociados. Creamos IAs más inteligentes pero su consciencia sigue siendo 0. En el futuro tendremos sistemas más inteligentes que nosotros pero nada nos hace pensar que tendrán ningún tipo de autoconsciencia.
Por tanto, siguiendo este razonamiento, jamás ocurrirá la singularidad tecnológica por lo que el primer postulado de esta paradoja es falso y la misma absurda.

....

A no ser que ya estemos en una simulación y Harari sea un agente de matrix tinfoil

Zuir

Cuando pensamos en IA dominando el mundo, o bien vamos a la imagen de Terminator Salvation o a Matrix. Pero la realidad será distinta, si tal catástrofe pasa en algún momento.

Las teorías actuales es que consigamos crear un programa tan inteligente que se dé cuenta que sus recursos no son suficientes y empiece a utilizar otros ordenadores para acometer su tarea principal. Esa tarea puede ser calcular los decimales de π o fabricar cuerdas de guitarra. Este programa será tan inteligente que podrá invadir la “voluntad” de otros ordenadores a través de internet y utilizará todos los ordenadores del mundo para su objetivo, castigando a todo aquel que no calcule decimales de π o fabrique cuerdas de guitarra.

Podemos ir un paso más allá y pensar que su cometido sea descifrar contraseñas (como Rainbow Crack, Cain and Abel, John the Ripper… programas que ya existen). Y que tomen el control de los ordenadores que hay en todos los móviles, coches, ciudades, fábricas… Escenario más fácil porque cuantos más recursos tenga, más contraseñas podrá romper.

El castigo no será algo físico, con androides con láser en los ojos cazando humanos. Más bien no podremos usar ninguna tecnología que no sirva al propósito de la IA (incluyendo la producción de cualquier energía), lo que nos devolvería a una situación del s. XIX o incluso anterior.

En la teoría del basilisco, todo el mundo está de acuerdo con que no tendrá efectos retroactivos, porque sería un desaprovechamiento de los recursos para los que la IA ha sido diseñada.

Hasta aquí llega la parte optimista. Pero imaginemos que creamos una IA militar, diseñada para matar y que es ella la que se da cuenta de que sus recursos no son suficientes y empieza a invadir otros ordenadores para cumplir su objetivo…

Y ya el escenario más apocalíptico, sería crear una IA para comportarse como humanos. Hay que recordar que el 100% de las guerras han sido para controlar recursos (tierra, oro, personas, petróleo, alimentos…). Entonces y sólo entonces podríamos hablar de que tome represalias retroactivamente como un humano lo haría y controle los recursos (energía, ordenadores personas) que le son útiles y elimine los que no para evitar la competencia

Al fin y al cabo la teoría del basilisco nació como un comentario de la teoría de decisión y la paradoja de Newcom, donde sería la IA la que sería capaz de preveer el futuro y castigar a los humanos por decisiones que aún no han tomado.

Espero que los programadores de SIRI hayan prestado atención en sus clases de ética.