Jean Giraud (1938-2012), comúnmente conocido como Moebius, fue un historietista e ilustrador francés, uno de los más influyentes de la historia del género. Sus obras más reconocidas son "El Incal" y "Blueberry".
Una de sus historias cortas, titulada "Barbaroja y el cerebro pirata" cuenta como una IA enloquecida, al mando de un carguero espacial, piensa estar a bordo de un barco pirata del siglo XVI. Cuando enfrentan al programador y le preguntan sobre si su IA puede fallar, este, rodeado de maquetas de barcos y cachivaches con motivos náuticos, responde airado: "¡No, es imposible!, si lo programé yo mismo"
El sesgo, el fantasma en la máquina
Sin saberlo, Moebius estaba siendo un visionario, cualquier inteligencia artificial de las que se usan a diario tienen más de sus creadores de lo que la gente cree.
Los LLM (modelo extenso de lenguaje) se nos presentan como seres pensantes; "Pienso, luego existo" decía Descartes. Pero esto no es más que una ilusión, el fantasma de la máquina. Aunque los LLM simulan pensamiento, repitiendo frases con apariencia de reflexión, no hay conciencia detrás: solo estadística y predicción de texto. Detrás de este trampantojo se oculta un sesgo, que es inherente al diseño de estas IA. Lo conforman:
- Los materiales con los que el LLM ha sido entrenado: Libros, páginas web, videos, etc.
- El aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF): Las personas que participan de su entrenamiento para hacerle parecer inteligente.
- Las directrices internas que rigen y encorsetan sus respuestas.
Algunos ejemplos muy sonados de este sesgo:
- El modelo chino DeepSeek, se niega a responder cuestiones relacionadas con la rebelión que ocurrió en la plaza de Tiananmén en 1989.
- Grok, la IA de Elon Musk, consulta los tweets de este para emular sus posiciones políticas.
Este sesgo solo puede verse exacerbado cuando la IA combine su conocimiento general con datos personales en tiempo real para producir información dirigida, creando, por tanto, una manipulación cognitiva a escala.
Del click al zero-click: el fin de la pluralidad en internet
El modelo clásico de negocio de la web se basaba en la publicidad. Cuando un usuario hacía click en un enlace proporcionado por el buscador, ese sitio web era recompensado económicamente. Durante un tiempo funcionó, hasta que Google decidió volverse codicioso. Las malas prácticas del buscador han llevado a que solamente un puñado de empresas controlen la mayoría de resultados de búsqueda. A consecuencia de esto los beneficios de la publicidad de sitios más pequeños se han visto reducidos como bien explicaban en Jot Down.
Con la irrupción de los LLM en un momento donde la "enshittification" de Google está en su cúspide aparece ul nuevo paradigma, el zero-click. El usuario ya no tiene que hacer click en una lista de enlaces para encontrar el contenido que quiere, la IA selecciona las fuentes que considera más relevantes y nos presenta un resumen. Como se puede ver en el estudio presentado por OpenAI, es uno de los casos de uso más populares de ChatGPT.
Esta tendencia se puede ver claramente en la aparición de buscadores como Perplexity, los nuevos resúmenes que el propio Google o Brave incluyen, o la inclusión de Gemini en su propio navegador Chrome, expandiendo aún más su monopolio.
Las consecuencias de este cambio de paradigma son obvias: El poco dinero que le llegaba de publicidad a los sitios se va a ver aún más reducido, las sutilezas y los diferentes puntos de vista son eliminados. Ahora vas a recibir una opinión única y resumida, lo cual va a convertir la web en un sitio homogéneo. Y esa respuesta no es neutra: está moldeada por algoritmos opacos, entrenados con datos de terceros, sin atribución justa.
No queda mucho para que este cerebro pirata participe del negocio de la publicidad. Los usuarios deben ser conscientes que un LLM no ofrece "la verdad", sino una versión probable, moldeada por intereses visibles e invisibles, al servicio del mercado.
La pregunta no es si estas máquinas están sesgadas, sino quién define ese sesgo —y quién paga por ello. ¿Estamos preparados para vivir en una web donde la verdad no se debate, sino que se resume?