Los usuarios contamos en la actualidad con una serie de aplicaciones que nos permiten manipular digitalmente los vídeos mediante algoritmos de inteligencia artificial, consiguiendo cosas como que un personaje hable según el contenido que le indiquemos, o incluso convertirnos en protagonistas de vídeos sin haber participado en la grabación de los mismos entre otras posibilidades. Como os decimos, esto es gracias a los algoritmos de inteligencia artificial, que han introducido en nuestro vocabulario el concepto de las deepfakes (...)
Comentarios
#5 hombre el equivalente sería "imágenes de personas manipuladas a través de algoritmos de inteligencia artificial" creo que con Deepfake los que estamos algo puestos en tecnología nos vale.
#6 gracias por la aclaracion
#6 #7
#8 No te enfades, nada personal. Es que los anglicismos no los soporto. Te voto positivo a ti.
#10 No pasa nada...
(es mejor eso que morirse)
miguel-angel-revilla-gran-soporte-monarquia-espana-ahora-mismo/c021#c-21
Miguel Ángel Revilla: "El gran soporte de la ...
eldiario.eshttp://etimologias.dechile.net/?troll
#12 A lo mejor se le quedó trabada la L y quería decir trol
#7 positivo por ser "buena gente"
Por cierto, tienes caralibro?
#27 la tengo de enciclopedia
#6 También lo puedes llamar videomontaje o fotomontaje, según sea el caso
#6 Montaje profundo
#34 Eso suena un poco... De aquella manera.
Me gusta, pero por motivos que no voy a desvelar aquí, que tengo una reputación.
#17 A lo mejor yo soy así de listo y culto porque cuando veo algo que desconozco le dedico 10 segundos a mirarlo en Google y deja de ser desconocido, en vez de despreciarlo e ignorarlo para siempre
#14 Yo propongo hipertrucaje.
#24 Ya puestos, cojámoslo literalmente: falsificación profunda.
#37 para decir eso digo Deep Fake, que es como tres veces más corto
#43 Efectivamente. Yo digo deep fake porque no hay una equivalencia en castellano. O uso su nombre original, o la alternativa es crear un neologismo que cale.
No me molesta usar términos en otros idiomas si no existen en el mío, lo que veo fatal es el uso innecesario para palabras claras ( especialmente comunes en el ámbito tecnológico ) y también los "neologismos" innecesarios, castellanizando la palabra inglesa cuando existe y es apropiada la castellana.
#48 el repelente linkar en vez del precioso enlazar.
#52 y más en el ámbito de programación mergear, updatear... Para estos no hay necesidad.
#9 ¿ Peligros ?
¡ Pero si es la única aplicación sana que tiene !
#38
#38 Cierto. De hecho tiene una ventaja adicional. Ahora cuando se filtre algún vídeo erótico de algún famoso simplemente pueden decir que es un deepfake.
#46 Y eso mismo podrán decir aquellos a los que graben cometiendo un asesinato, o que sean grabados en las cercanías de la escena del crimen, etc. Por eso digo que lo del porno es el único uso realmente sano de un deep fake, que de otro modo - quizá salvo en arte o en películas - sólo se utilizaría para engañar.
Relacionada, Eduard Fernández, qué joven te veo: así se hicieron 250 planos de deepfakes 'made in Spain'
Eduard Fernández, qué joven te veo: así se hiciero...
xataka.com#13 Teniendo en cuenta que en internet hay como infinitos videos porno con cientos de miles de personas distintas no creo que eso sea un problema, y si lo es, pues de hace un casting antes de grabar y apañao
Deep fake + Google glass, y que funcione bien online.
Que se prepare el guanaco de mi vecina que Scarlett Johansson esta en su cuerpo.
#15 ¿y decir eso te parece mejor que "deepfake"?
#16 Como no soy tan listo y culto como tú, es lo que entiendo.
wav2lip, mi pasatiempo en momentos de confinamiento duro con resultados variados, aunque lo flipé con lo fácil que es conseguir un deep fake
#50 Espectacular!
veo un futuro con realidad virtual y porno con gente famosa, incluida la voz y tal.... salia en alguna pelicula, minority report creo...
oh yeah...
a que famosa te gustaria ver?
#4 Eso ya lo hicieron hace años, pixelando algunas partes, para mostrar los peligros de la técnica.
#4 Brad Pitt
#4 mientras estos sistemas solo cambien la cara, solo podrás hacerlo en dos personas físicamente parecidas, pero hoy en día canta mucho si no son iguales.
#13 shhhh. No des ideas. Que si una IA puede cambiar una cara, con mucha más facilidad puede cambiar la estructura del cuerpo.
#4 Ayuso
#20 algo tiene esa dama, no se que es, que me la pone como la cuerda de un pozo viejo...
#21 ¿Sucia, deshilachada y podrida?
#21 Picardía más evidente estupidez, aderezado con un poco de vileza.
Es un combo muy peligroso.
#20 Ayuso haciendo un sándwich con Pedro Sánchez y Pablo Iglesias...
#42 I'm so horny now
#4 Es presente, pero la técnica irá mejorando.
#4 ya es presente, como un ejemplo del Equipo Ñ
Yo veo el deepfake para hacer porno anonimamente sin que le reconozcan, incluso se podria utilizar una cara generada que no pertenezca a nadie para evitar lios.
Ya todo es cuestion de tiempo que los modelos mejores, se entrenen y haya mas capacidad de calculo.
#4 pero si había un canal de reddit solo para eso hace unos años ya ...
#4 el otro dia fui a registrar nudefake y deepnude pero ya estaban pillados
#4
Empieza por mrDeepfakes
Deepfake no es ponerle tu voz a un vídeo, ni poner tu cara en la cara de otro. Es que tu cara salga como la de otro, diciendo y haciendo lo que tu dices. Un engaño de meneo clickbait. Negativo por erronea.
Creía que su principal finalidad era para realizar fakes con caras de famosas, de cierto contenido...llamémosle "X"
Nada. Aún no me sirve para usar la cara de mi cuñada en clips que yo quiero... investigar! Yo quiero un reface pero con custom gifs!!!!
Cualquiera diría hace años que esto podría ocurrir.
¿Deepfakes?, ni puta idea de lo que es. Voto negativo por anglicismos absurdos.
#1 Di que sí, picojano.
#2 me mata tanta tontería de palabras que no entiendo y tienen traducción. Pareciera que las usan por “elevar el nivel”.
#5 ¿Y cuál es la traducción?
#14 Según un meneante esto:
“ imágenes de personas manipuladas a través de algoritmos de inteligencia artificial”.
Muchas gracias campeón.
#1 ¿Y cómo lo dirías sin usar un "anglicismo absurdo"?
Flipo con el tiquismiquismo de algunos...