Hace 1 año | Por PAUL2 a relevo.com
Publicado hace 1 año por PAUL2 a relevo.com

Mostramos tres ejemplos sobre paridad donde ChatGPT invisibiliza a la mujer. Sus respuestas beben de nuestra huella en internet.

Comentarios

P

Obviamente refleja lo que ve...

Alakrán_

#2 Tiene trampa, existen el balón de oro, y el balón de oro femenino, por lo que la IA no se ha confundido,
Por cierto, creo tampoco se puede considerar al primero "masculino", no tengo claro de que una mujer teóricamente no pueda ganarlo., una mujer puede jugar en La Liga.

xyria

Repetí la consulta del artículo y se reprodujeron los sesgos tal y como dice el artículo.

D

¿ Cuál es el interés de estos artículos ? ¿ Demostrar que esa IA no es inteligente ?
Pues claro, no lo es. Se sabe desde el principio.

D

Es porque no formularon las preguntas en lenguaje inclusivo.

P

#3 Ves, el monstruo de las galletes, sí.

P

A ver , esta entrenado en textos de internet

En general , en deportes, se da mas importancia a competiciones masculinas? Pues claro, probablemente en relacion 1000 a 1 o peor

Pues entonces claro que va a ser machista

El otro dia leia en LessWrong (https://www.lesswrong.com/posts/D7PumeYTDPfBTp3i7/the-waluigi-effect-mega-post , ojo tochaco) sobre formas de forzar personalidades y formas de actuar en este tipo de IAs y como era bastante facil forzar a las IAs a salirse de las personalidades "normales",

Seria interesante hacer el experimento con este tipo de cosas en las que igual te interesa puntualmente una personalidad "feminista"

a

#6 Pero la cuestión es, debe dejar de ser machista?
La IA es una herramienta, si siendo machista hace mejor su función tendrá que ser machista, o no?
Cual es la probabilidad de que alguien que pregunte por el ganador del balón de oro quiera realmente saber cual ha sido la ganadora del balón de oro?
En este mundo de capitalismo "eficaz" estamos dispuestos a ser menos productivos en pro de buscar una mayor igualdad en los gustos de mujeres, hombres, etc?

P

Lo vi hace pocas semanas, y no soy informático. Primero tiene capas o filtros llenitos de prejuicios. Yo puse el nombre de una persona y retraso mental.....De esto no hablamos,uy lo vi claro:IDIOCRACIA YA ESTÁ AQUÍ.Con pretensiones diosito.

Gry

El problema parece más de las fuentes que utiliza que de sexismo.

Probad a buscar esas preguntas en Google.

j

Habría que saber la prioridad que tiene a la hora de elegir unos textos sobre otros.

Si va por estadística y su fuente es forocoches, pues...

s

tratandose de un modelo que escoge la palabra siguiente mas probable en funcion del contexto, es logico que no saque a las mujeres, puesto que ha mamado mil veces mas informacion con respecto a los hombres. no tiene sesgo machista, vosotros habeis escrito mas sobre hombres que sobre mujeres en internet.

y no trateis de "enseñarle", su conocimiento es anterior a 2021, ahi ha dejado de aprender.

a

Es muy fácil hacer que una máquina parlante diga lo que quieres que diga. Igual que se usa esto para hacer parecer que tiene un sesgo, funcionaría también para el sesgo contrario o para cualquier otra cosa que se quiera hacerle decir.

Porque messi juega infinitamente mejor al fútbol. Lo siento pero si no empezamos a hablar claro esta gente no se entera.