Hace 7 años | Por duend a atsnew.com
Publicado hace 7 años por duend a atsnew.com

Cuando alguien sube una fotografía en una red social, se ponen en funcionamiento los sistemas de detección de porno de cada plataforma, sistemas que pueden ser más o menos exactos, motivo por el cual ocurren tantos errores de eliminación de imágenes que no entran dentro de esa categoría. Yahoo! cuenta con un buen sistema de fotos NSFW (not safe/suitable for work), y a partir de ahora tiene el código libre, por lo que cualquier aplicación puede hacer uso de él para evitar que se suban determinadas fotos en su base de datos.

Comentarios

anxosan

- No es lo que parece cariño, solo estoy recopilando estas miles de fotografías de porno para poder entrenar una herramienta informática.

- 😡 Hoy duermes en el felpudo.



"Las plataformas que usen este sistema de Yahoo tendrán que entrenarlo con sus propias imágenes, ya que lo que han liberado es el motor de detección, no los resultados del entrenamiento. Una vez entrenada, la aplicación devolverá un valor entre 0 y 1 para mostrar el nivel de “porno” que tiene una foto específica".

s

#3 habrá que probar que tan preciso es...ya me lo bajo y lo pongo a prueba...todo sea por la humanidad y el rigor científico.

ElPerroDeLosCinco

Entiendo que si alguien alimenta este motor con fotos de roedores arborícolas, luego el programa podrá detectar el porno de ardillas. Interesante.

omegapoint

#6 #7 y si lo alimentas con fotos de muertos y de roedores arborícolas... pues...@sacreew

D

Yo sigo usando el sistema tradicional: si se me pone dura es porno.

Ferran

#2 Hay cosas que no son porno y te la pueden poner dura (erotismo).

Hay porno desagradable que seguro que no te la pone dura y sigue siendo porno.

D

Bueno, y siguiendo alguno de los comentarios anteriores, ¿esa misma herramienta, adecuadamente entrenada, ¿no servirá para reconocer lo que se quiera, no solo porno? Por ejemplo, roedores arborícolas en distintas actitudes.

duend

El código de la herramienta: https://github.com/yahoo/open_nsfw

Nova6K0

El problema es cuando una madre da el pecho a su bebé y estos estúpidos algoritmos y programas lo consideran pornografía. Eso sí ver cadáveres descuartizados eso sí que no.

Salu2