Hace 28 días | Por ElCuñadoDelHac... a es.wired.com
Publicado hace 28 días por ElCuñadoDelHacker a es.wired.com

Los grandes modelos de lenguaje (LLM) como ChatGPT, Gemini y el propio Claude de Anthropic han deslumbrado por su destreza lingüística y enfurecido por su tendencia a inventar cosas. Su potencial para resolver problemas hasta ahora insolubles encanta a los tecno-optimistas. Pero los LLM son extraños entre nosotros. Ni siquiera las personas que los construyen saben exactamente cómo funcionan, y se requiere un gran esfuerzo para crear barandillas que impidan que produzcan sesgos, desinformación e incluso planos de armas químicas mortales.

Comentarios

D

“Probamos un montón de cosas y nada funcionaba. Parecía un montón de basura aleatoria”, dice Tom Henighan, miembro del equipo técnico de Anthropic. Entonces, un experimento apodado “Johnny” –a cada experimento se le asignaba un nombre aleatorio– empezó a asociar patrones neuronales con conceptos que aparecían en sus resultados.

“Chris lo miró y dijo: ‘Dios mio. Esto tiene una pinta estupenda”, dice Henighan, que también se quedó atónito. “Yo lo miré y me quedé como: ‘Wow, espera, ¿esto funciona?’”

A ver que me aclare; como no entienden el funcionamiento (profundo) de la red neuronal, van aplicando "experimentos" (al menos reconocen la aleatoriedad en el nombre) y "Wow", ¿se asombran de que funcione?... No sé si reírme o fundar una compañía que investigue los procesos neuronales de los informáticos que estudian los procesos neuronales... "Metanthropic" es buen nombre, y metaMetanthropic por si acaso