edición general
11 meneos
54 clics

Unos simples añadidos de texto pueden engañar a los modelos avanzados de razonamiento de IA (ENG)

Unos investigadores han descubierto que añadir frases irrelevantes como «Dato interesante: los gatos duermen la mayor parte de su vida» a problemas matemáticos puede hacer que los modelos de razonamiento de IA más avanzados produzcan respuestas incorrectas a un ritmo un 300% superior al normal [PDF]. La técnica, denominada «CatAttack» por equipos de Collinear AI, ServiceNow y la Universidad de Stanford, aprovecha las vulnerabilidades de modelos de razonamiento como DeepSeek R1 y la familia o1 de OpenAI.

| etiquetas: ia , razonamiento , gatos
Otro dato interesante: además de dormir la mayor parte de su vida, todos los gatos son bonitos.
#1 otro dato: ada colau era alcaldesa de Barcelona.
En ChatGPT no me ha funcionado.
Porque, una vez más, las IA NO RAZONAN.
#3, sabes que en ciencia toda hipótesis necesita ser falsable? ¿Si las IAs no razonan porque fallan cuando se les ánade información irrelevante en el prompt significa que sí razonan cuando no fallan o seguiremos diciendo que no razonan independientemente de lo que hagan?
#5 Si alucinan una vez, es que no razonan. El resto de aciertos fue pura casualidad.
#7, menuda forma más científica de acercarse al problema.
#8 Si razonaran, no cometerían los fallos clamorosos que vemos constantemente, eso es seguro.

Por lo tanto, cuando aciertan en una respuesta, eso lo logran sin razonar.

Es un resultado notable, pero está claro que no pueden razonar.
#16, #15, vuestra aproximación es acientífica en cuanto es imposible de probar y falsear. Yo propongo que si un modelo es capaz de sacar buena nota en un examen de selectividad con el que no se ha entenado antes, debemos concluir que razona razona, de la misma forma que si lo hace un humano también diremos que razona. Este es un experimento que sí es científico, usa el mismo baremo que para los humanos, se puede replicar, se puede evaluar de forma objetiva y lo más importante, se puede probar y falsear.
#19 Eres cansino con ganas.

Para ti si el resultado es el mismo entonces el proceso es el mismo. Eso es FALSO con todas las letras.

Y puedes seguir con tu berrinche si quieres, yo paso.
#20, es que el proceso interno es irrelevante salvo para discusiones de metafísica, cosas que a mí tampoco me interesa. Por cierto, he probado los experimentos que proponen en el artículo, con o3 y Géminis 2.5 y no se equivocan.
#5 No razonan en ningún caso.

Desde el mismo momento en el que "tienen la necesidad" de usar toda palabrería aportada para resolver el problema planteado, mal vamos.

Estoy más o menos de acuerdo con #7. Desde el momento en el que tienen alucinaciones, que es un eufemismo de "cagada monumental que nadie en su sano juicio cometería" no están razonando.

No diría tampoco que aciertan de casualidad en tanto que no es una cuestión de puro azar, hay un desarrollo matemático detrás.

Pero como todo desarrollo estadístico, se podrá optimizar para que "acierte las más de las veces", pero no siempre, demostrando que no es razonamiento, es matemática.
#10, cómo lo haces para determinar de forma científica, es decir empírica y replicable que un ser humano razona? Si un ser humano se equivoca una sola vez, ya concluyes que en ningún caso razona? Utilizas dos varas de medir diferentes? Tengo la sensación de discutir con personas que se mueven más por fe que por principios científicos.
#11 personas que se mueven más por fe

Es un concepto interesante sobre el que deberías reflexionar con mucha sinceridad.
#11 Contigo ya he discutido del tema varias veces y ya sabemos que vas a seguir afirmando algo que no puedes demostrar, pues crees que las IA sí razonan y eso no es cierto.

El problema no está, y lo sabes, en si comete una equivocación como tal, sino en el tipo y "calidad" de la equivocación. Y lo sabes.
#10 "aciertan de causalidad" es una frase que da muy poca información. Sabemos lo que los LLM hacen. Muchas veces dan respuestas correctas. Sabemos que no razonan. Por lo tanto es posible dar algunas respuestas correctas sin necesidad de razonar. Para mi eso es "de causualidad".
#13 Lo prinero: se ha hablado de casualidad, no de causalidad.

Dicho esto, se trata de dar respuestas en base a lo más probable después de ingente entrenamiento. Se basa en que esa mayor probabilidad coincide con lo esperable razonablemente en muchos casos. Pero no siempre.

Eso y que la IA a fin de cuentas tiene en su entenamiento la misión de valorar, de darle valor, a los distintos elementos que forman parte del entrenamiento y el "prompt" y, a diferencia de lo que sí puede hacer un humano medio normalmente, no siempre va a saber separar la paja del grano como demuestra este meneo.
#14, él tiene tantos intereses que abandonó Google con el salario multimillonario que lleva aparejado por los peligros que veía en el desarrollo de la IA. No todo el mundo es un interesado que vende su alma al diablo y Geoffrey Hinton lo ha demostrado con hechos.
Los LLM no razonan. No razonan nada. Lo único que hacen es seleccionar la palabra que más probablemente sigue al prompt. El prompt se genera con cada palabra nueva y va creciendo. Esto es lo único que hacen.

Si les hablas de gatos, la respuesta más probable se inclinará hacia los gatos, como era de esperar.
#6, Geoffrey Hinton el premio Nobel de física por sus descubrimientos en el campo de la IA discrepa un poco de lo que dices.
#9 Pues me alegro mucho de que haya por ahí un tio que opine cosas.

Pero lo de la falacia de autoridad aplica directamente. Entonces, ¿quién es más fiable, el tio ese o yo? Porque yo no tengo intereses en el tema y él sí, y por lo tanto él tiene muchos posibles motivos para mentir, mientras que yo podría simplemente estar equivocado.

Entonces, consultado lo que dice el tipo éste, resulta que es de la opinión de que las redes neuronales funcionan igual que el cerebro humano, lo que es una afirmación extraordinariamente notable cuando no sabemos cómo funciona el cerebro humano. Yo le acuso de hype agudo o si lo quieres más claro, de mentir por dinero.

menéame