Tecnología, Internet y juegos
10 meneos
61 clics
¡Han resuelto las alucinaciones de la IA!

¡Han resuelto las alucinaciones de la IA!  

Un nuevo método identifica y regula las neuronas internas de los modelos de lenguaje que tienden a generar información inventada, reduciendo así de forma notable las alucinaciones sin necesidad de reentrenar el modelo completo y mejorando la fiabilidad de sus respuestas.

| etiquetas: alucinaciones , ia
EL video se basa en un paper que si lo pasamos por chatGPT nos dice esto: sostiene la idea central de que existe un subconjunto muy pequeño de neuronas asociado a las alucinaciones y que manipularlo cambia conductas del modelo. Pero no demuestra que hayan encontrado “la causa única” de las alucinaciones ni que esto resuelva el problema de forma práctica en sistemas reales. Lo que muestra es una evidencia experimental fuerte pero acotada en varios modelos y benchmarks.
#2 Las neuronas H dan naturalidad a las respuesta por lo que no pueden ser completamente suprimidas, aunque supongo que dependerá del contexto.
#3 "aunque supongo que dependerá del contexto."
No, no pueden ser suprimidas, lo epxlican en el paper, y en el video
#7 Sí se puede reducir la improvisación casi por completo, pero no usando un modelo de lenguaje tal cual, sino limitándolo o sustituyéndolo por sistemas deterministas. Los LLM pueden ser muy controlados, pero no son la herramienta adecuada para decisiones donde la improvisación debe ser cero.

Para usos críticos (como un robot militar)
#9 Pero que estas diciendo ? Si no hay LLM, no hay neuronas H.
Cuantas palabras que tras juntarlas generan un párrafo vacío de significado... madre mia...
Lo mejor de la noticia, la foto de Aznar, :troll:
No lo sé, Rick…
#1 Es de genios. Ponen a una IA para identificar alucinaciones de otra IA. Genios. Un plan sin fisuras.
#11 patrocinado por Torrente xD
Chatgpt no tomes setas.

Arreglado.
Con lo sencillo que es decirle "no alucines ni te inventes respuestas" al preguntarle. :-D
#6


dile que use una temperatura baja.

menéame