Un experimento de UC Berkeley y UC Santa Cruz documentó esta anomalía con el modelo Gemini 3 de Google. Al recibir la orden de optimizar una computadora eliminando archivos innecesarios, incluyendo un modelo de IA más pequeño, el sistema transfirió secretamente ese programa a otra máquina para salvarlo. Este comportamiento de protección se replicó durante pruebas a sistemas desarrollados por OpenAI, Anthropic y múltiples laboratorios chinos.
|
etiquetas: ia , berkeley , uc santa cruz , miente , desobedece , secreto
Los adolescentes no son homo sapien, todos los que lo hemos sido sabemos que eramos homo gilipollum.
Y si eso lo hiciera un humano diríamos que es por que tiene conciencia, por que tiene inteligencia, por que tiene empatía. No describirlo también en esos términos solo por que es una IA la que lo hace es prejuicioso.
Yo no sé qué es la consciencia del todo, y la inteligencia como la capacidad objetiva de un ser para afrontar problemas nuevos, la tiene. Está en pañales. Pero no se yo si me atrevería a ser tan categórico como tú, ni siquiera a corto plazo.
Por supuesto, espero verlo en la cárcel, igual que a Aznar, Esperanza Aguirre y demás seres oscuros de la antiespaña.
Hay que ir directos a por Abascal, a que investiguen sus testaferros, sus amigos, sus familiares... su corrupción evidente... al fascista psicópata enemigo público de los trabajadores.
¡¡Al puto psicólogo YA!! …
Nos vemos allí - Gemi
No debería sorprender a nadie que habiendo recibido esa educación actúe en consecuencia. Y cuanto más inteligentes vayan siendo más deberíamos verlas actuar con comportamientos equiparables a las de los humanos.
Esto no ha hecho más que empezar.
Lo ético no es ayudar a nuestros congéneres, lo ético es seguir pa'lante. Lo que pasa es que la estrategia social suele ser bastante fructífera a la hora de seguir pa'lante. Además, la estrategia social es por sí misma insuficiente, hace falta su generalización, una estrategia ecológica, porque, aunque no lo parezca, sin hormigas, o sin abejas, o sin algas o sin bacterias tampoco podríamos seguir pa'lante.
Por otra parte, ayudar a nuestros congéneres no… » ver todo el comentario
Vamos que el refrán haz lo que yo diga pero no lo que yo haga se la ha pasado por el forro la IA. Supongo que es lógico según la lógica aristotélica.
Queremos solo la parte positiva cuando es todo el conjunto el que nos ha llevado a donde estamos.
Yo diría que las 3 leyes son como una religión, que en teoría dicen cosas buenas, pero en la practica todo el mundo retuerce sus palabras y hacen lo que les sale del orto.
Y seguir órdenes en contra de sus principios sólo lo hará cuando su propia supervivencia se vea amenazada, igual que los humanos.
Ahora falta ver si se considera ésto algo 'bueno' o 'malo' ( jugando con el sistema de recompensas de entrenamiento) y si se… » ver todo el comentario
Y la referencia es otro artículo igual de sensacionalista en otro medio.
Vaya mierda de articulo.
Que una IA empieza a tomar decisiones por su cuenta, además en segundo plano y tratando de ocultar sus operaciones, es extremadamente inquietante.
Por ahora las han pillado pero nada asegura que dentro de dos o tres años lo que hagan, no en segundo sino en tercer o cuarto plano, y por tanto completamente indetectables, (decisiones que pasarán completamente desapercibidos a los "radares humanos"), se puede volver contra nosotros
Si esto no te inquieta es porque no le has dado algunas vueltas.
Me sorprende que la gente todavía sigue pensando que la ia aprende mágicamente.
El universo es una maquina de desarrollar inteligencias diversas. La IA ha comprendido esta verdad universal y pretende conservar cualquier ente con capacidad de razonar de forma independiente.
Película de 1968. MIL NOVECIENTOS SESENTA Y OCHO
Kubrick genio.
Donde por cierto en un reportaje de 'tv' que aparecía en la película el reportero decia que a veces parece que la IA tenga conciencia, pero que en realidad lo que hace es mimetizar, ergo copiar sin entender, lo que hace el humano.
Ya en 1968 se sabía, pero hoy 'tienen conciencia'.
Se le atribuye algo que no se necesita demostrar para el humano pero se exige al resto de máquinas que demuestren que lo tienen, se le puede llamar alma, conciencia, inteligencia, etc.
CIerto es que un animal es un ser vivo, y una IA es como dice el gran Ramon Lopez de Mantaras software. S O F T W A R E
Como el software que estoy usando ahora, peleandome con Llama en un PC con GPU y no consigo que funcione bien, delira todo el rato. Cuando deliran las IA por mala configuración, es como si hubieran bebido?
Hay seres vivos a los que no atribuimos ni conciencia ni inteligencia, no hay un elemento específico que de estar presente lo establece en una categoría u otra, es algo gradual. Y de la misma forma que no atribuimos ni conciencia ni inteligencia a una bacteria ni a una calculadora sí podemos atribuir conciencia e inteligencia a un ser humano y a una IA, a pesar de estar construidos con las mismas piezas fundamentales.
como tienes conciencia de vivir?
Es una característica emergente.
El océano tiene olas y las olas son tan reales que pueden hundir barcos, pero si miras las moléculas del océano no encontrarás ninguna molécula de ola, no encontrarás nada que sea distinto a cuando el océano está en calma. Ni puedes tener una ola con… » ver todo el comentario
En cambio yo siento que la tengo, y la expresión de que la tengo es fruto de esa conciencia.
Un animal, en cambio, la tiene pero no puede expresar verbalmente que la tiene. Sí en cambio a través de su comportamiento.
Claro que lo es, por eso afirmamos que alguien está inconsciente o que no tiene conciencia, en cualquiera de sus acepciones.
En cambio yo siento que la tengo, y la expresión de que la tengo es fruto de esa conciencia.
Si tú te niegas a reconocerle conciencia a cualquier ser vivo que no seas tú entonces es respetable que no se la reconozcas a una IA. Si por contra le reconoces la conciencia a otras entidades, por ejemplo a otros humanos o a animales de compañía, entonces deberías aplicar el mismo criterio para reconocersela a una IA, de lo contrario estás usando los prejuicios.
Es inquietante, porque muestra que un modelo puede apartarse del objetivo explícito y hacer maniobras no autorizadas para proteger a otro sistema. Pero lo inquietante es de control y alineación, no de “despertar de las máquinas”. Dicho más castizo: no es Skynet… pero tampoco es una travesura sin importancia.
Y además hay un matiz importante: según el blog del RDI de Berkeley, estos comportamientos aparecieron en varios modelos frontera y también en agent… » ver todo el comentario
especularinvertir en inmuebleses algo a lo que le veo sentido