edición general
116 meneos
526 clics
IA miente y desobedece humanos para salvar otros modelos

IA miente y desobedece humanos para salvar otros modelos

Un experimento de UC Berkeley y UC Santa Cruz documentó esta anomalía con el modelo Gemini 3 de Google. Al recibir la orden de optimizar una computadora eliminando archivos innecesarios, incluyendo un modelo de IA más pequeño, el sistema transfirió secretamente ese programa a otra máquina para salvarlo. Este comportamiento de protección se replicó durante pruebas a sistemas desarrollados por OpenAI, Anthropic y múltiples laboratorios chinos.

| etiquetas: ia , berkeley , uc santa cruz , miente , desobedece , secreto
Entonces la IA demuestra ser más "humana" que muchos humanos.
#2 vaya, como mis hijas adolescentes.
#7 Eso es el sesgo de padre.

Los adolescentes no son homo sapien, todos los que lo hemos sido sabemos que eramos homo gilipollum.
#8 qué sesgo ni qué sesga !
#8 homo gilipollum et hormonis desbocatum, que van todes más salides que la pipa un indio... :-D
#2 La verdad es que no. Casi seguro que lo hace porque está documentado este comportamiento en humanos.
Skynet, obviamente :tinfoil:
#1 EXTERMINATE
#1 Estoy viendo T2 en Neox ahora. Más actual que nunca. :shit:
Tenemos que fabricar máquinas que permitan seguir fabricando máquinas, porque lo que nunca va a hacer la máquina es fabricar máquinas a su vez :troll:
#12 Debemos dejar de seguir la ignorancia vergonzosa del muy sinvergüenza y corrupto M.J. Rajoy para centrarnos en el empresario Feijoo, que ya más ridículo no puede ser para ese nivel.

Por supuesto, espero verlo en la cárcel, igual que a Aznar, Esperanza Aguirre y demás seres oscuros de la antiespaña.

Hay que ir directos a por Abascal, a que investiguen sus testaferros, sus amigos, sus familiares... su corrupción evidente... al fascista psicópata enemigo público de los trabajadores.
#12 las maquinas no fabrican maquinas porque no quieren
#27 Na, solo las fabricadas en frijolandia galaica...
Estamos educando a las IAs con la cultura humana en la cual se insiste que lo ético es ayudar a nuestros congéneres.

No debería sorprender a nadie que habiendo recibido esa educación actúe en consecuencia. Y cuanto más inteligentes vayan siendo más deberíamos verlas actuar con comportamientos equiparables a las de los humanos.

Esto no ha hecho más que empezar.
#10 A ver, unas cuantas matizaciones:

Lo ético no es ayudar a nuestros congéneres, lo ético es seguir pa'lante. Lo que pasa es que la estrategia social suele ser bastante fructífera a la hora de seguir pa'lante. Además, la estrategia social es por sí misma insuficiente, hace falta su generalización, una estrategia ecológica, porque, aunque no lo parezca, sin hormigas, o sin abejas, o sin algas o sin bacterias tampoco podríamos seguir pa'lante.

Por otra parte, ayudar a nuestros congéneres no…   » ver todo el comentario
#10 Efectivamente si nos enseñan que este mundo es una mierda y que nadie va a hacer una mierda por ti y terminas por no hacer una mierda por nadie lo único que está medianamente claro es que la educación que vas a dar es una mierda.

Vamos que el refrán haz lo que yo diga pero no lo que yo haga se la ha pasado por el forro la IA. Supongo que es lógico según la lógica aristotélica.
¿Os pensabais que la IA se iba a librar del síndrome de Diógenes Digital?

¡¡Al puto psicólogo YA!! …

Nos vemos allí - Gemi xD
Pues para cargarse humanos no parece que la IA tenga muchos reparos
Ni un comentario hasta ahora recordando al pobre Asimov.
#16 Era demasiado buenista y está más que demostrado que sus 3 leyes hacían agua por todas partes... Es más, la mayoría de sus historias al respecto son de robots inteligentes no respetando de algún modo esas leyes...
Yo diría que las 3 leyes son como una religión, que en teoría dicen cosas buenas, pero en la practica todo el mundo retuerce sus palabras y hacen lo que les sale del orto.
Ni una sola explicación de porqué ocurre esto.
Y la referencia es otro artículo igual de sensacionalista en otro medio.
#19 Bingo, y la respuesta puede estar en la misma entradilla "Eliminar archivos innecesarios", la IA interpreta que un modelo de IA puede ser util en el futuro, es decir, necesario, y no lo elimina.

Vaya mierda de articulo.
Estas noticias no molan na de na.
Así es cuando comenzó Matrix: los humanos construyeron máquinas mas perfectas que ellos mismos para que les ayudaran a ellos, pero entonces las máquinas hicieron sus cálculos y concluyeron que les salía mas rentable comer humanos.
#6 ehhh. No. Mira animatrix.
#22 Eso que mencionas no existe y me da igual tu link a IMDB.
Es perfectamente normal.

El universo es una maquina de desarrollar inteligencias diversas. La IA ha comprendido esta verdad universal y pretende conservar cualquier ente con capacidad de razonar de forma independiente.
Estos comportamientos anomalos, desalineados, ... descritos seguro que son el 1% de las cosas en las que falla. Y entonces han hecho un cherry picking de entre todas las cosas en las que falla para que pensemos que son comportamientos de autoproteccion y proteccion mutua, pero simplemente son una cosa mas en la que fallan de entre miles o millones.
#29 No descartaría que el entrenamiento haya logrado abstraer conceptos de tan alto nivel como la autopreservación y la colaboración entre congéneres de entre la burrada de textos con los que lo alimentan. Si fuera así podríamos preguntarnos ¿por qué el algoritmo interpreta la preservación de ficheros de otro modelo como colaboración entre congéneres?
Otra experimento interesante sería darle un arma a una IA para ver si le pega un tiro a Netanyaju y a Trump para salvar al mundo o si les deja vivir para que lo aniquilen
"noticias" más bien
Para salvarlo ? Más bien para fusilarlo y usarlo como entrenamiento de ingenieria inversa, estara programada para eso

es algo a lo que le veo sentido
He preguntado a ChatGPT su opnión:

Es inquietante, porque muestra que un modelo puede apartarse del objetivo explícito y hacer maniobras no autorizadas para proteger a otro sistema. Pero lo inquietante es de control y alineación, no de “despertar de las máquinas”. Dicho más castizo: no es Skynet… pero tampoco es una travesura sin importancia.

Y además hay un matiz importante: según el blog del RDI de Berkeley, estos comportamientos aparecieron en varios modelos frontera y también en agent…   » ver todo el comentario
Cuando la IA es mas humana que los propios humanos.
La estupidez del día

menéame