Hace 4 años | Por arniepye a engadget.com
Publicado hace 4 años por arniepye a engadget.com

Se trata de un experimento reivindicativo hecho por una asociación de jueces californianos para pedir que se prohíba el uso del reconocimiento facial a la hora de identificar criminales por parte de la policía. Más de la mitad de los identificados como criminales por error, eran negros.

ﻞαʋιҽɾαẞ

¿Seguro que era un error?

r

#1 De hecho se les ha visto muchas veces rodeados de criminales.

D

"More than half of those falsely identified were people of color"
quién ha definido los parámetros para decir qué cara tiene un criminal?

arniepye

#2 Vamos que con la gente de color la lía más. Es decir, si eres negro tienes más posibilidades de que el algoritmo te detecte como culpable (aunque no lo seas). Independientemente de que haya más criminales negros.

Aokromes

Los anglosajones siempre pensando mal. Como las IA de UK detectando las dunas como tetas.

r

#4 A ver los de UK son mucho de perversiones, si les ponen las dunas pues les ponen las dunas, que hay algunas que van provocando.
No hay nada malo en eso si usas bastante lubricante.

pax0r

para cuando un gobierno manejado por una ia?

TroppoVero

Es lo tiene creer en la Inteligencia Artificial como si fuese magia. La mayoría de veces se trata de redes neuronales, y creedme, una red neuronal no es algo demasiado sofisticado. Si se entrena la red neuronal con datos sesgados, pues a menos que se tenga mucho cuidado, se obtienen resultados sesgados.

Dicho de otro modo, si en EEUU hay un sesgo que asocia a negros con delincuencia, no me extraña que luego ese sesgo se vea reflejado en el sistema de reconocimiento.