Hace 7 meses | Por Dragstat a genbeta.com
Publicado hace 7 meses por Dragstat a genbeta.com

Unos investigadores de la Universidad de Chicago han desarrollado un software open-source con la habilidad de “envenenar” las imágenes para que dejen de ser material para el entrenamiento de una IA. La han denominado ‘Nightshade’, y funciona alterando los píxeles de las imágenes de forma que sea imperceptible para el ojo humano y a su vez impidiendo que la imagen sea entrenada para un modelo de lenguaje.

Comentarios

Gry

¿Sigue funcionando después de guardar la imagen un par de veces como JPEG?

Robus

#4 ¿o de aplicar un pequeño desenfoque?

Hay que recordar que son imagenes para entrenar, por lo que lo que interesa es la composición y los elementos de la imagen, así que un poco de desenfoque no les va a afectar en lo más mínimo.

MAD.Max

#4 ¿El qué? ¿la imagen o el "envenenamiento"? igual en la imagen ya no se reconoce nada

sorrillo

#_1 OpenSource? Pues basta con ver como lo hace, y deshacerlo antes de entrenar.

No sé como lo hacen pero si parten de una semilla aleatoria para aplicar el filtro que corresponda es posible que no sea realista derivar esa semilla teniendo el resultado.

Nota: Este comentario es para responder a @ tdgwho que por lo visto me tiene en su lista negra de ignorados. Por alguna razón que se me escapa los@admin demeneamemeneame han decidido que si alguien te pone en su lista negra ya no puedes citarle en respuesta a sus comentarios públicos, dificultando así el uso de herramientas de menéame como es el ver los comentarios en forma de hilo de discusión.

D

#2 Estas pidiendo que alguien modifique un "if" porque un usuario se queja....

Mucho trabajo pide usté...

hasta_los_cojones

#5 es que no es un bug, es una feature.

Así los propagadores de bulos pueden campar a sus anchas sin que nadie les ponga en evidencia

D

#6 Es lo mismo que un@admin te bloquee o te meta un strike por sus cojones morenos sin poner un texto explicativo del porqué, que normalmente sería "por mis cojones morenos", pero estaría bien darles pie a una mayor plenitud poética.

rojo_separatista

#10, esto es papel mojado que solo sirve para ganar la atención gente ansiosa de soluciones desesperadas al problema que presentan las IAs generativas pero que desconoce como funcionan como funcionan estos modelos. Hay infinidad de formas de saltarse cualquier clase de protección a nivel de píxel por la propia brecha analógica que por su propia naturaleza tienen las imágenes.

Para mí estas noticias son bastante tóxicas porque venden falsas esperanzas a un problema mucho más complejo.

fuertemachango

#12 Yo aplaudo esta iniciativa. Aunque de forma no deliberada, al poner obstáculos están contribuyendo a perfeccionar los modelos de IA haciéndolos más versátiles.

rojo_separatista

#15, pero es tratar de poner puertas al campo. A mí me da pena que se engañe a la gente dando la esperanza de que eso se puede parar de alguna manera en lugar de buscar soluciones de verdad a los retos que plantea este nuevo escenario.

fuertemachango

#16 Cierto. Yo tengo un sentimiento ambivalente respecto a esta tecnología. Por un lado me entusiasma el incalculable horizonte que abre al progreso, pero por otro me inquieta la certeza de que, en ausencia de una verdadera democracia, no hará más que acrecentar el poder de las élites, quizá hasta un nivel absoluto.

tdgwho

OpenSource? Pues basta con ver como lo hace, y deshacerlo antes de entrenar.

lol

cosmonauta

#1 También los algoritmos criptográficos son de código abierto y sin embargo son inviolables.

tdgwho

#7 Estás seguro de eso?

Robus

#7 Pero esto es una tontería... con añadir un poco de blur antes de entrenar solucionado... si con el blur todavía se ve es que un humano también lo va a ver, por lo que esa herramienta estropearía la obra, así que debe ser sutil... y un poco de desenfoco permitirá ver perfectamente la imagen, a niveles de entrenar, y se saltará la protección.

Máxime si es open source que pueden ver exactamente como afecta y cuanto afecta, para aplicar el blur justo para eliminar el problema.

UnoYDos

Si no es posible conocer o calcular los valores del pixel original difícilmente puedes realizar el proceso contrario. Que los randoms no son inventos del futuro.

editado:
para #_1

ronko

Dame veneno que quiero morir, dame veneno...