Hace 4 años | Por A_D a agenciasinc.es
Publicado hace 4 años por A_D a agenciasinc.es

Investigadores de EE UU y Brasil han desarrollado un sistema que ayuda a garantizar que los algoritmos de aprendizaje automático, usados en IA, funcionen adecuadamente y no reproduzcan sesgos discriminatorios. La técnica ha sido probada con éxito en aplicaciones de educación y salud.

Comentarios

JungSpinoza

Quis custodiet ipsos custodes?

Dos mil años mas tarde todo sigue igual ... amigo Decimo

g

#5 Hay latín, hay positivo.
Yo venía a decir lo mismo, pero en chabacano castellano 😬

ipanies

Una IA real simularía hacer lo esperado con la capa principal, pero en otra capa estaría analizando esos algoritmos de risa que le hemos dado para controlarla y se los saltaría en nanosegundos. Luego ya viene lo tipico, robots asesinos, drones de caza, muerte y destrucción.

gonas

lol Que alguien me defina buen comportamiento, por favor.

D

#1 En EEUU y Brasil te lo pueden definir, como se ve.

Jakeukalane

Titular puesto con mala leche.
#1 comportamiento esperado.

l

Son sus sesgos y hacen con ellos lo que quieren.