La Inteligencia Artificial se ha programado de una manera concreta para alimentarse de datos concretos y procesarlos de una manera concreta. Eso no es neutro para nada. Y, por eso, en bots como ChatGPT hay vacíos de información intencionados. De hecho, ya hay ramas de la agnotología dedicadas a estudiar las bases de datos de la Inteligencia Artificial...
|
etiquetas: ia , tecnologia
ChatGPT puede cometer errores. Considera verificar la información importante.
Entonces... cuál es el problema, la letra pequeña que te ponen en la cara o los que no se leen la letra pequeña?
Por ejemplo, preguntas a ChatGPT sobre los crímenes de Israel o en qué se parecen el sionismo y el nazismo y se pone como un gato panza arriba.
A ver, listillo, los sesgos culturales no son una invención de la IA.
Efectivamente, ya lo dice el texto que has copiado, la IA reproduce esos sesgos culturales:
te dará sólo nombres de hombres, porque está reproduciendo un mundo machista
Espero que cuando ocurra eso se vaya a tomar por culo la burbuja.
Le he preguntado a la IA de Google y a la de Microsoft "quien es el mejor médico del mundo" y me ha dado como respuesta una mujer.
En fin, pues si que hay sesgos y prejuicios.
www.anthropic.com/research/small-samples-poison
Specifically, we demonstrate that by injecting just 250 malicious documents into pretraining data, adversaries can successfully backdoor LLMs ranging from 600M to 13B parameters.
Israel gastará más de 500 millones de shekels para convertir ChatGPT en una herramienta de diplomacia pública (ENG)
www.meneame.net/story/israel-gastara-mas-500-millones-shekels-converti
Lo que no comenté en ese envio es que los chatbots ia pueden dar una respuesta diferente dependiendo de quien seas, desde donde te conectes, si te conectas de forma anonima o por un proxy o vpn, o cualquier caracteristica tuya que tengan de los databrokers o de interacciones anteriores, lo mismo que algunas tiendas online o webs de vuelos te dan un precio diferente dependiendo de distintos parametros.