Hace 2 años | Por besttrademan a lavanguardia.com
Publicado hace 2 años por besttrademan a lavanguardia.com

El problema del bautizado como proyecto Delphi claramente tiene que ver con los datos usados. La investigadora Liwei Jiang, una de las personas que lo promueve, explica en este artículo como Delphi precisamente pretende dotar a las máquinas de una ética. El problema es que Delphi ha terminado siendo como esos loros que escuchan groserías y las repiten en el peor momento.

Comentarios

D

Y votante de la derecha rancia española

AdaSH

#1 No exactamente, los datos son correctos.
Pero a diferencia de una inteligencia humana, la inteligencia artificial no tiene voluntad de esfuerzo por luchar contra el racismo o la xenofobia, por eso una persona emite juicios más justos.
Y luego están los fanáticos políticos (sin voluntad) que también emitirían esos malos juicios, pero que saben que están mal y les da vergüenza emitirlos en público, aún así como el caso de Abascal, intentan colar esos juicios cuando ven una oportunidad en la que creen que habrá más gente que les apoye que gente que demuestre que son unos impresentables.

cc. #3 #6

box3d

Datos incorrectos, respuesta incorrecta.
Más viejo que la computación.

D

Mira como los del supremo...

D

Porque no conoce la corrección política y le importa un güevo que le insulten

EsePibe

En realidad eso sucedió hace varios años.
Pero los de la vanguardia se enteran ahora

Ya salió esa noticia en menéame.

JAVIER_RUIZ_LA_ROSA

Las AI las entrenan con documentos emitidos por humanos, ergo la AI tiene los sesgos humanos, ergo el ser humano, incluso jueces, moralistas, filósofos o profetas se equivocan.no te creas a nadie.