La Inteligencia Artificial se ha programado de una manera concreta para alimentarse de datos concretos y procesarlos de una manera concreta. Eso no es neutro para nada. Y, por eso, en bots como ChatGPT hay vacíos de información intencionados. De hecho, ya hay ramas de la agnotología dedicadas a estudiar las bases de datos de la Inteligencia Artificial...
|
etiquetas: ia , tecnologia
ChatGPT puede cometer errores. Considera verificar la información importante.
Entonces... cuál es el problema, la letra pequeña que te ponen en la cara o los que no se leen la letra pequeña?
Por ejemplo, preguntas a ChatGPT sobre los crímenes de Israel o en qué se parecen el sionismo y el nazismo y se pone como un gato panza arriba.
A ver, listillo, los sesgos culturales no son una invención de la IA.
Efectivamente, ya lo dice el texto que has copiado, la IA reproduce esos sesgos culturales:
te dará sólo nombres de hombres, porque está reproduciendo un mundo machista
Espero que cuando ocurra eso se vaya a tomar por culo la burbuja.
Le he preguntado a la IA de Google y a la de Microsoft "quien es el mejor médico del mundo" y me ha dado como respuesta una mujer.
En fin, pues si que hay sesgos y prejuicios.
www.anthropic.com/research/small-samples-poison
Specifically, we demonstrate that by injecting just 250 malicious documents into pretraining data, adversaries can successfully backdoor LLMs ranging from 600M to 13B parameters.