Tecnología, Internet y juegos
41 meneos
66 clics
Investigadores muestran que los modelos de lenguaje pueden degradarse al exponerse a datos virales, igual que los humanos con contenido basura

Investigadores muestran que los modelos de lenguaje pueden degradarse al exponerse a datos virales, igual que los humanos con contenido basura

Un estudio demuestra que los LLMs entrenados con meses de tuits virales sufren una caída del 23% en razonamiento y del 30% en memoria contextual. Incluso tras reentrenarlos con datos limpios, la degradación cognitiva persistió parcialmente. Los autores llaman al fenómeno “podredumbre representacional”: una deriva irreversible causada por datos ruidosos, análoga al doomscrolling humano. Las pruebas de personalidad mostraron picos de narcisismo y psicopatía. x.com/alex_prompter/status/1980224548550369376

| etiquetas: brainrot , llms , doomscrolling , inteligencia artificial , psicología
34 7 0 K 334
34 7 0 K 334
No si ahora resulta que la calidad de los modelos dependen de la calidad de los datos de los que se nutre.
¡Quién lo iba a decir!
:troll:
#4 Que era tan fácil, ser feliz...
¿Y esto, hay estudios cientificos que indique que tambien ocurre con los humanos?
Igual como una especie de proceso en que te aislan y solo recibes informacion de un tipo, es decir te lavan el cerebro, lavado de cerebro, brainwashing.
El agua moja.
Pues como al cuñado de turno con sus canales de YouTube o WhatsApp :troll:

menéame