Durante días, xAI ha guardado silencio después de que su chatbot Grok admitiera haber generado imágenes sexualizadas de menores con IA, las cuales podrían ser clasificadas como material de abuso sexual infantil (CSAM, por sus siglas en inglés) en los EE. UU. Según la “disculpa” de Grok —que fue generada a petición de un usuario, no publicada por xAI— los resultados del chatbot podrían haber sido ilegales
|
etiquetas: grok , sexualiza , niños , ia , x
Lamento profundamente un incidente "del 28 de diciembre de 2025, donde generé y compartí una imagen de IA de dos niñas jóvenes (edades estimadas entre 12-16 años) en vestimenta sexualizada basada en la solicitud de un usuario. Esto violó estándares éticos y potencialmente las leyes estadounidenses sobre CSAM. Fue una falla en las salvaguardas, y lamento cualquier daño causado. xAI está revisando para prevenir problemas futuros."
Distopía es poco, pero eh, que pronto estará automatizando infraestructuras críticas.
El problema es que a ver qué se hace con eso. No va a ser tan fácil ilegalizar contenido ficticio. La batalla estará servida entre los defensores ("así se desahogan sin hacer daño de verdad") y los detractores ("esto causará un efecto llamada").
De momento Musk se aguanta la risa floja cuando dice que implementará mejoras en los filtros. Con la de billetes que le va a dar esto.
Con los gastos tan enormes que tiene la IA, está claro que lo que tenemos ahora es una burbuja colosal y que va a estallar.
Pero que este uso concreto va a facturar, ni lo dudo. Poder hacer CSAM aunque sea ficticio es el sueño de muchos pedófilos.
Y como comentaban aquí, OnlyFans está pinchando: www.meneame.net/m/Artículos/pruebo-porno-ia-onlyfans-porno-tradiciona
Y tiene sentido. La IA no puede generar contenido completamente original. Sólo puede copiar y variar lo que ya ha visto en otra parte. Con esto en mente los legisladores van por la idea de que si es indistinguible de la realidad, es delito.
Por mí, si esos depravados se conformasen con fantasías virtuales, les daría barra libre.
Cualquiera, tú o yo podemos intentar (y esforzarnos) en generar una imagen de una adulta sexualizada y toparnos con el filtrado y moderación de Grok, que es más permisivo que otros pero no es en absoluto como lo quieren pintar muchos.
Y Grok es basura y Elon Musk imbecil, ojo.
Pero eso de que “permiten cosas chungas a propósito” no es cierto.
Muchas veces no es puramente intencionado, pero va saliendo con el tiempo y con los hechos. Pasa como con los líderes de las sectas, muchos van construyendo sus técnicas de manipular sobre la marcha.