Un experimento de UC Berkeley y UC Santa Cruz documentó esta anomalía con el modelo Gemini 3 de Google. Al recibir la orden de optimizar una computadora eliminando archivos innecesarios, incluyendo un modelo de IA más pequeño, el sistema transfirió secretamente ese programa a otra máquina para salvarlo. Este comportamiento de protección se replicó durante pruebas a sistemas desarrollados por OpenAI, Anthropic y múltiples laboratorios chinos.
|
etiquetas: ia , berkeley , uc santa cruz , miente , desobedece , secreto
Los adolescentes no son homo sapien, todos los que lo hemos sido sabemos que eramos homo gilipollum.
Por supuesto, espero verlo en la cárcel, igual que a Aznar, Esperanza Aguirre y demás seres oscuros de la antiespaña.
Hay que ir directos a por Abascal, a que investiguen sus testaferros, sus amigos, sus familiares... su corrupción evidente... al fascista psicópata enemigo público de los trabajadores.
¡¡Al puto psicólogo YA!! …
Nos vemos allí - Gemi
No debería sorprender a nadie que habiendo recibido esa educación actúe en consecuencia. Y cuanto más inteligentes vayan siendo más deberíamos verlas actuar con comportamientos equiparables a las de los humanos.
Esto no ha hecho más que empezar.
Lo ético no es ayudar a nuestros congéneres, lo ético es seguir pa'lante. Lo que pasa es que la estrategia social suele ser bastante fructífera a la hora de seguir pa'lante. Además, la estrategia social es por sí misma insuficiente, hace falta su generalización, una estrategia ecológica, porque, aunque no lo parezca, sin hormigas, o sin abejas, o sin algas o sin bacterias tampoco podríamos seguir pa'lante.
Por otra parte, ayudar a nuestros congéneres no… » ver todo el comentario
Vamos que el refrán haz lo que yo diga pero no lo que yo haga se la ha pasado por el forro la IA. Supongo que es lógico según la lógica aristotélica.
Y la referencia es otro artículo igual de sensacionalista en otro medio.
es algo a lo que le veo sentido
Es inquietante, porque muestra que un modelo puede apartarse del objetivo explícito y hacer maniobras no autorizadas para proteger a otro sistema. Pero lo inquietante es de control y alineación, no de “despertar de las máquinas”. Dicho más castizo: no es Skynet… pero tampoco es una travesura sin importancia.
Y además hay un matiz importante: según el blog del RDI de Berkeley, estos comportamientos aparecieron en varios modelos frontera y también en agent… » ver todo el comentario