Hace 1 año | Por PicoXelado a republica.com
Publicado hace 1 año por PicoXelado a republica.com

FaceMega convierte a cualquier persona en actor o actriz del cine para adultos. Meta ya ha eliminado los anuncios de la misma y la app ha sido borrada de la Apple Store y Google Play

Comentarios

D

Ya queda menos para que nos traguemos todos un buen deepfake con intenciones políticas que marque un hecho histórico y que haga que este problema sea de debate público internacional.

obmultimedia

#1 ese punto aun sigue lejano, se sigue notando el deepfake siempre, hay algo que deja de cuadrar en ese montaje fotografico o de video, un gesto, un movimiento labial, una mirada al infinito que no toca...

a

#2 Claro que si analizas videos reales tambien encontrarás detalles de ese tipo que podrían hacerte pensar que son fake.
Es lo que tiene aplicar diferentes baremos.
Como la famosa mirada del asesino que publicaron los periódicos hace tiempo, con prejuicios siempre se encuentra y justifica lo que uno quiere.

obmultimedia

#9 si ves videos comprimidos en internet, cualquiera puede dudar de su veracidad por la compresion y la mala calidad.
Yo me refiero a otro tipo de detalles.
Para hacer creible un deepfake tiene que hacerse con un fondo oscuro o simulado con un croma, ya con esto da indicativo de la falsedad del video.
La cara de la persona tiene que estar practicamente estatica, grabada in situ para ese deepfake ( como el anuncio de la lola flores por ejemplo) y aun asi se nota que es falso.

D

#2 Yo me tragué este video y luego resultó que era un CGI:
¿Pero qué genialidad es ésta?

Hace 1 año | Por Thornton a twitter.com


Y por muy bonito que fuese me resultó decepcionante que no fuera real

obmultimedia

#10 a la que sepas un poco de lógica de físicas se ve claramente que es cgi.

D

#1 Pues dilo de coña, pero... ¿te acuerdas de Pedro Castillo y el famoso discurso que dio y que dice que no recuerda dar, y que afirma que le dieron un vaso de agua y que se empezó a sentir mareado? ¿Te imaginas que fuese verdad y que el discurso fuese un deepfake, y que los pequeños cortes que hay en varios puntos del vídeo fuesen para disimular los puntos en los que cantaba? tinfoil tinfoil tinfoil tinfoil

(que ojo, no insinúo que sea cierto; en mi opinión, el hombre metió la gamba hasta el fondo).

thorin

#1 Villarejo y toda la cloaca hacía lo mismo sin Deepfakes.

Me da que lo realmente complicado es la ingeniería social que esparce la mierda, no el nivel de sofisticación de la mierda.

D

#6 Una parte del periodismo muy mediático siempre va a estar dispuesto a priorizar exclusivas a la calidad de las fuentes. Yo creo que va a ser un tema muy complicado de abordar.

nemesisreptante

#1 no hace falta ni la tecnología todavía hay idiotas que te dicen que tienen por ahí un video en el que Pablo Iglesias dice que está a favor de ETA.

angelitoMagno

#1 No va a ocurrir. La principal forma de distinguir un bulo de una noticia real es la carencia de fuentes confiables y contrastables.
Y de cara a eso, da igual la calidad del deepfake.

D

#13 Pues ojalá tengas razón.

Porque creo que basta con colársela a una agencia de noticias como Efe o Reuters pero ojalá eso no pase.

D

#1 Falta MUY poco. No hace ni un mes que salió un anuncio deepfake de Joe Rogan y Andrew Huberman vendiendo un suplemento alimenticio. Y curiosamente, lo único que hacía que se notase que es un deepfake es el audio, cuando precisamente de joe rogan hay deepfakes de audio mucho mejores que el de ese anuncio (casi todos de comedia, como cuando debate sobre una situación "Ratatouille").

Lo que han mejorado los modelos de IA tanto en generación de video como de audio en los últimos años es tremendo. Tienen muchísima mejor fidelidad, y la coherencia temporal (que era uno de los mayores problemas hace unos años) ha mejorado muchísimo. No faltan muchos años para que haga falta pasar los videos por un clasificador para que determinen si están generados con IA, porque lo vean mejor que los humanos.

shem

No sólo eran predecible sino que ademas es imparable, por mucho que lo intenten.
En menos de un año nadie tendrá que "fantasear" con alguien famoso, el vecino del cuarto o una combinación de ambos, solo tendrá que generar el vídeo en vez de usar la imaginación

thorin

Teniendo en cuenta lo complicado y costoso que es hacer un vídeo de estos, tiene pinta de ser un timo.

Han robado un Deepfake para prometer unos resultados que nunca conseguirás, salvo que pagues cientos en el mercado negro cientos de euros a un experto. Y eso después de conseguir suficientes muestras, porque con 4 fotos de la cara de la víctima no haces nada.

Saben que la gente que pagará la aplicación falsa no va a reclamar el dinero porque la policía les va a mandar a la mierda

D

Cuidado con las IA's que las mejoran que han tenido en poco tiempo, ha sido increíble

musg0

#_4 Salió hace tiempo una App que se llama Facemagic que tenía videos cortos predefinidos y con sólo una foto te la ponía en esos videos en cuestión de segundos. El resultado era imperfecto y similar a lo que se ve en la noticia, así que si hiciera lo mismo podría ser factible. Pero sí que huele a timo a la legua, y los periodistas no hacen ni el mínimo, que sería encontrar la App para probarla y ver si da lo que promete. No sólo hacerse eco de lo que pone alguien en Twitter y ponerse a elucubrar.