Hace 9 meses | Por aiounsoufa a elpais.com
Publicado hace 9 meses por aiounsoufa a elpais.com

La mujer, que ha demandado a la policía de Detroit, fue acusada de robar un coche cuando estaba en el octavo mes de gestación. La única prueba era el controvertido análisis automático de las imágenes

Comentarios

D

#1 guilty = ( White ? False : True )

D

#7 guilty = ! White

b

#8 guilty = skinColor != "white";

Wheresthebunny

#10 guilty = ! skinColor rgb"255,255,255"

Cero_Ironia

#8 nadie te lo ha dicho pero evidentemente eres el único que podría ser un buen programador de los que han escrito comentarios.

Por ponerte una pega, “!white;” sin espacio y camelcase ya que guilty es camelcase y se entiende que debe continuar.

Y por supuesto ;

D

#18 podrias explicar por què su respuesta es mejor que la de #7 ? Sirve para cualquier lenguaje o algo?

D

#28
#18 hace referencia a #8
#7 y #8 son la misma persona.

Como dijo Groucho, si no te gusta mi respuesta tengo otra.

Grub

#28 Y no le contestes que sigue siendo la misma IA.

pawer13

#18 el punto y coma es opcional en JS (ese código podría ser de bastantes lenguajes)

S

#33 hablamos de lenguajes serios...

UnDousTres

#17 guilty = ! isWhite

#8 el "is" es importante

D

#7 guilty = !skinColor.equals("White");

UnDousTres

#17 uff... Sin tipar ese skin color... No se yo...

D

#22 Es Java. Está tipado.

UnDousTres

#26 Me refiero a evitar comparar dos strings creando un tipo para el SkinColor e igualando a un enumerado.

saulot

#1 A parte de las bromas sí es verdad que las IA para esto tienen problemas con la gente de tez muy oscura.

Hasta ahora era medio de cachondeo pero sí fallan más con ellos, hay muchos reportes que el Desbloqueo facial da problemas con esas personas.

Varlak

#13 Siempre se saca primero productos centrados en un estándar blanco y luego se va adaptando la tecnología

Lekuar

#19 O puede que sea cuestión técnica, en foto y vídeo los colores oscuros siempre tienen menos detalle en las texturas que los colores claros.

O ambas cosas.

hideputa

#19 Si, es una parte crucial del método científico.

r3dman

#13 En parte es porque los dataset de entrenamiento seguramente sean mayoritariamente con gente blanca (aparte de que para las cámaras puede ser más difícil distinguir rasgos faciales en gente de color).

Grub

#13 Lo que me intriga, es que los asiáticos no tienen ese problema.
Creo que solo es cuestión de entrenamiento. En china ya pagan "por la cara"

C

#42 seguramente hayan desarrollado sus propios sistemas y los han entrenado con caras de chinos.

k-GaT

#13 El problema del color oscuro de las personas de raza negra ya hace tiempo que es un problema para la tecnología. Por mi trabajo, a veces tenía que fotocopiar DNIs de personas negras y no había manera de que saliera en la fotocopia poco más que una silueta negra con ojos. Ahora escaneamos los carnets y se ha solucionado el problema.

zeioth

#1 En USA hasta los 70 ibas preso si entrabas en un restaurante de blancos. Nos creemos que son super avanzados por tener corporaciones pero realmente siguen en la edad de piedra.

J

#12 Si. Da mucho miedo China con los algoritmos.
Menos mal que en Occidente se respetan los derechos humanos y estas cosas son impensables.

h

#2 Pero el 2, que era más divertido.

f

#2 Mejor un ED-209 que no hace cosas raras como intentar detener a gente de bien.

m

#23: Yo me quedo con el que se quita el cráneo, o el siguiente, que se regenera con un vuelo en el viaducto disparo en su propia cabeza, tras disparar a todos los que hay alrededor, para regenerarles también. roll

UnoYDos

Yo no se como no van con cuidado de hacer estas cosas. Es obvio que con tantos millones de personas haya coincidencias en las cosas que se analizan y por ello haya falsos positivos. Me gustaría poder ver las fotos de la ladrona real y esta juntas para determinar también si ademas de la mas que estilísticamente probable coincidencia se ha juntado con un algoritmo de mierda.

editado:
Se me ha adelantado #3 por 3 segundos lol . Estas cosas deben validarse antes de realizar acciones.

peligrosocial

#4 pues igual que con otras herramientas para toma de decisiones basadas en algoritmos que se aplican en el ámbito social desde hace años (sí, incluido en España) y que suponen consecuencias en la vida de las personas: la gente es vaga y lo que diga el algoritmo va pa'lante.

Herumel

#3 O lo mismo sí han mirado y tienen los mismos, más o menos sesgos que el sistema.

Grub

#3 Eso con los jueces del supremo de USA no ocurre (solo una de cada 10 y lo digo por la progre, no por el morenito). Ni siquiera con los que están embarazados. Son todos de "color inocente"

EGraf

vie esta noticia en el canal de YT de un abogado al que sigo y necesita un par de aclaraciones. El algoritmo habrá fallado, pero no se porqué le echan en cara "que estuviera embarazada"... ese fallo es 100% de la policía, el algoritmo era imposible que lo supiera porque comparó un video del 2023 (la ladrona) con una foto de esta mujer... del 2015! Y en esa foto del 2015 no estaba embarazada

y el pago de una fianza de 100.000 dólares

la fianza fue de 100k PR, osea personal recognizance, no tuvo que pagar

Nobby

#6 ahora me has despertado la curiosidad, dime el canal que quiero echarle un vistazo!

EGraf

#31

S

Eso pasa por aplicar algoritmos sin tener en cuenta a Bayes.

D

¿ Quién fue el idiota que usó un sistema de reconocimiento facial automático para detener a alguien ?

Grub

#11 Tom Cruise.

C

Me parece un tema interesante, pero me sale un muro de pago. Lo siento.

Ithilwen2

Muro de pago en portada

s

el problema no es el reconocimiento facial, sino tragarse el resultado demostrando no tener 2 dedos de frente. como esa gente que esta muerta para la administracion y no hay forma de sacarles del error.

d

Esa noticia está detras de un paywall, está bien ese tipo de noticias en meneame? Por lo pronto le puse "muro de pago" como problema.

antoniosoyo

No me deja leer la noticia si no estoy suscrito, algún truco para poder leerla?

herlocksholmes

#36 Varios:
1-Modo lectura del navegador
2-Ublock origin, y desactivar JavaScript
3-Pagando