El sitio web llama la atención por su sencillez. Sobre un fondo blanco, un gigantesco botón azul invita a los visitantes a subir una foto de una cara. Debajo del botón, cuatro rostros generados por la IA permiten probar el servicio. Encima, el eslogan proclama audazmente el propósito: convertir a cualquiera en una estrella del porno utilizando la tecnología deepfake para cambiar la cara de la persona en un vídeo para adultos. Lo único que se necesita es la foto y pulsar un botón. Por el momento, "Y" existe en una relativa oscuridad..
Comentarios
#3 En slashdot indican1 que el sitio es éste: https://www.yapty.com/
En estos momentos ya no aparece como describen en el contenido del meneo, aparece un mensaje indicando que el servicio no está disponible para nuevos usuarios.
El "about" parece confirmar que efectivamente es este sitio: https://www.yapty.com/about
1 https://slashdot.org/comments.pl?sid=19773451&cid=61793893
#8 veo que sois hombres de cultura
#25 Y trabajadores!! No a dos manos, porque una la tienen ocupada ...pero muy trabajadores!
#8 os veo muy puestos al día.
#28 http://web.archive.org/web/20210304213625/http://www.yapty.com/
#62 Gracias, es para un amigo. Voy a comprar pañuelos que se me han gastado, vaya resfriado que llevo encima.
#28 ¿Y para qué si no es Internet?
#81
- ¿cual es la primera palabra más buscada en Internet?
- Porno
- ¿ y la segunda?
- Prono.
Pd: la gente se equivoca mucho al teclear.
#8 No sé qué decir. Esto ha llegado demasiado lejos.
Que uno pueda acceder a esta web como si tal cosa y luego se encuentre el acceso desactivado no es de recibo. Pero peor aún, que uno entre al otro sitio y le digan que tiene que pagar para ver cómo de bueno es el armatoste o que le pongan en una cola para procesar su vídeo es humillante. Uno llega todo ilusionado y al final acaba en pornhub como todo hijo de vecino.
Me quedo con mi app de Deepnude, que aunque lento me procesa las fotos que yo le diga sin colas ni pagos. Ea.
#8 ¡¡Me parece increible..................que slashdot siga ahí después de tantos años!!
Pues qué asco. Cada día es más difícil distinguir la realidad de lo que es falso.
#18 Es posible que llegue un momento en el que sea imposible saber qué es falso y qué no, y no podamos dar validez a ninguna imagen que veamos online.
Es bastante complicado el tema…
#18 #48 #77 Los humanos ya no podemos distinguir entre lo real y lo no real hace tiempo, ahora es una carrera entre redes neuronales. Unas generan contenido, la otras dicen si el contenido es real o generado. A este proceso se le llama generative adversarial network.
https://en.wikipedia.org/wiki/Generative_adversarial_network
#18 Para bien o para m, la único soluciones es establecer relaciones de dependencia con medios que se ganen una buena reputación... y que abusar de ella suponga una fuerte penalización. Por supuesto, eso hace que aquellos que busquen/tengan el poder, intenten manipular ese sistema... pero no es nada nuevo.
#58 mucho le pides al espectador/cliente/usuario/consumidor medio
#18 y preparate, que solo es el principio. Los algoritmos se hacen cada día mas eficaces en generar y mezclar contenido multimedia. Lo cual permite construir videos e imágenes de lo que quieras, al coste de la energía de alimentar la computadora.
#18 ¿Para qué quieres que sea real? Una película es una película, tan real es una como otra. ¿Quién sabe cuál es mejor? ¿quién sabe cuál es más cierta?
Y si no, siempre podrás ir a Memory Call, y allí te lo acaban de ajustar
La mitad de los comentarios: ¡Qué horror! ¿Qué sitio es, tan horrible?
En el contenido no quieren citar la web a la que se refieren.
Es posible que sea esta:
myporndeepfake.club
#2 Por la descripción que dan de "sobre un fondo blanco, un gigantesco botón azul" creo que no es esa.
#3 Con fondo blanco y botón azul hay esta pero según entiendo no hace vídeos sino meramente desnudos en fotos: deepnude.gg
#7 Gracias
#78 melafo....
#2 Ostias, alguien ha editado mi comentario para que no sea un enlace.
Joder con la censura. Solo quería dejar constancia que no fue decisión mía dificultar al resto de usuarios acceder al sitio que indiqué, que lo puse para que fuera fácil pinchar en vez de obligar a copiar/pegar. Eso lo ha decidido otra persona, a saber quién, que no ha tenido la integridad de poner su nombre a ese acto.
Vergüenza.
Debería llegar algún tipo de notificación cuando lo que has escrito ha sido modificado por un tercero, no me parece de recibo que se haga eso sin el conocimiento del autor a la par que manteniendo el apodo intacto, como si eso lo hubiera escrito quién está detrás del apodo siendo ya falso, habiendo sido editado o censurado o modificado por un tercero que no da la cara. Lo más triste es que lo ven tan normal que lo hacen hasta con un automatismo, por ejemplo en el caso de la lista negra de ignorar, que el sistema borra las referencias al otro usuario sin avisar, sin decir nada, y publicando el comentario con el apodo original sin ninguna anotación ni nada de que ha sido manipulado.
Traducción automática:
El sitio web llama la atención por su sencillez. Sobre un fondo blanco, un gigantesco botón azul invita a los visitantes a subir una foto de una cara. Debajo del botón, cuatro rostros generados por la IA permiten probar el servicio. Encima, el eslogan proclama audazmente el propósito: convertir a cualquiera en una estrella del porno utilizando la tecnología deepfake para cambiar la cara de la persona en un vídeo para adultos. Lo único que se necesita es la foto y pulsar un botón.
MIT Technology Review ha optado por no nombrar el servicio, al que llamaremos Y, ni utilizar citas directas ni capturas de pantalla de su contenido, para evitar atraer tráfico al sitio. El investigador de deepfakes Henry Ajder, que ha seguido la evolución y el auge de los medios de comunicación sintéticos en Internet, lo descubrió y nos llamó la atención.
Por el momento, Y existe en una relativa oscuridad, con una pequeña base de usuarios que dan su opinión sobre el desarrollo del creador en foros online. Pero los investigadores han temido que surja una aplicación como ésta, que rompa una línea ética que ningún otro servicio ha cruzado antes.
Desde el principio, los deepfakes, o medios sintéticos generados por la IA, se han utilizado principalmente para crear representaciones pornográficas de las mujeres, que a menudo encuentran esto psicológicamente devastador. El creador original de Reddit que popularizó la tecnología intercambió los rostros de las celebridades femeninas en vídeos porno. A día de hoy, la empresa de investigación Sensity AI estima que entre el 90% y el 95% de todos los vídeos deepfake en línea son porno no consentido, y alrededor del 90% de ellos están protagonizados por mujeres.
A medida que la tecnología ha ido avanzando, también han surgido numerosas herramientas fáciles de usar y sin código, que permiten a los usuarios "desnudar" los cuerpos femeninos en las imágenes. Muchos de estos servicios se han visto obligados a desaparecer, pero el código sigue existiendo en repositorios de código abierto y ha seguido resurgiendo en nuevas formas. El último de estos sitios recibió más de 6,7 millones de visitas en agosto, según la investigadora Genevieve Oh, que lo descubrió. Todavía no se ha desconectado.
Ha habido otras aplicaciones de intercambio de rostros con una sola foto, como ZAO o ReFace, que colocan a los usuarios en escenas seleccionadas de películas convencionales o vídeos pop. Pero Y es la primera aplicación dedicada al intercambio de rostros con fines pornográficos, y lleva esto a un nuevo nivel. Está "hecha a medida" para crear imágenes pornográficas de personas sin su consentimiento, dice Adam Dodge, fundador de EndTAB, una organización sin ánimo de lucro que educa a la gente sobre el abuso con tecnología. Esto facilita que los creadores mejoren la tecnología para este caso de uso específico y atrae a personas que de otro modo no habrían pensado en crear porno deepfake. "Siempre que te especializas así, creas un nuevo rincón de Internet que atrae a nuevos usuarios", dice Dodge.
Y es increíblemente fácil de usar. Una vez que el usuario sube una foto de un rostro, el sitio abre una biblioteca de vídeos porno. La gran mayoría son de mujeres, aunque un pequeño puñado también son de hombres, sobre todo en porno gay. El usuario puede seleccionar cualquier vídeo para obtener una vista previa del resultado del cambio de cara en cuestión de segundos y pagar para descargar la versión completa.
Los resultados están lejos de ser perfectos. Muchos de los intercambios de rostros son evidentemente falsos, con las caras brillando y distorsionándose al girar en diferentes ángulos. Pero para un observador casual, algunos son lo suficientemente sutiles como para pasar, y la trayectoria de los deepfakes ya ha demostrado lo rápido que pueden llegar a ser indistinguibles de la realidad. Algunos expertos sostienen que la calidad del deepfake tampoco importa realmente, porque el efecto psicológico en las víctimas puede ser el mismo en ambos casos. Además, muchos ciudadanos desconocen la existencia de esta tecnología, por lo que incluso los intercambios de rostros de baja calidad pueden ser capaces de engañar a la gente.
Y se presenta como una herramienta segura y responsable para explorar las fantasías sexuales. El lenguaje del sitio anima a los usuarios a subir su propia cara. Pero nada les impide subir las caras de otras personas, y los comentarios en los foros en línea sugieren que los usuarios ya lo han hecho.
Las consecuencias para las mujeres y las niñas que son objeto de esta actividad pueden ser devastadoras. A nivel psicológico, estos vídeos pueden resultar tan violentos como el porno de venganza, es decir, vídeos íntimos reales grabados o difundidos sin consentimiento. "Este tipo de abuso, en el que la gente tergiversa tu identidad, tu nombre y tu reputación y los altera de forma tan violenta, te destroza por completo", dice Noelle Martin, una activista australiana que ha sido objeto de una campaña de deepfake porn.
Y las repercusiones pueden acompañar a las víctimas de por vida. Las imágenes y los vídeos son difíciles de eliminar de Internet, y se puede crear nuevo material en cualquier momento. "Afecta a tus relaciones interpersonales; te afecta a la hora de conseguir trabajo. En cada entrevista de trabajo a la que te presentas, puede salir a relucir esto. Las posibles relaciones románticas", dice Martin. "A día de hoy, nunca he conseguido que se retire ninguna de las imágenes. Para siempre, eso estará ahí fuera. Haga lo que haga".
A veces es incluso más complicado que el porno de venganza. Como el contenido no es real, las mujeres pueden dudar si merecen sentirse traumatizadas y si deben denunciarlo, dice Dodge. "Si alguien se debate entre si es realmente una víctima, eso perjudica su capacidad de recuperación", dice.
La pornografía falsa no consentida también puede tener repercusiones económicas y profesionales. Rana Ayyub, una periodista india que fue víctima de una campaña de deepfake porn, recibió un acoso en línea tan intenso tras el suceso que tuvo que minimizar su presencia en línea y, por tanto, el perfil público necesario para realizar su trabajo. Helen Mort, poetisa y locutora residente en el Reino Unido, que ya compartió su historia con MIT Technology Review, dijo que se sintió presionada a hacer lo mismo tras descubrir que habían robado fotos suyas de cuentas privadas de redes sociales para crear desnudos falsos.
La Revenge Porn Helpline, financiada por el gobierno del Reino Unido, recibió recientemente el caso de una profesora que perdió su trabajo después de que se difundieran imágenes pornográficas falsas de ella en las redes sociales y se pusieran en conocimiento de su escuela, dice Sophie Mortimer, que gestiona el servicio. "Está empeorando, no mejorando", dice Dodge. "Cada vez más mujeres son objeto de este tipo de ataques".
La opción de Y para crear porno gay deepfake, aunque limitada, supone una amenaza adicional para los hombres en los países donde la homosexualidad está penalizada, dice Ajder. Este es el caso de 71 jurisdicciones en todo el mundo, 11 de las cuales castigan el delito con la muerte.
Ajder, que ha descubierto numerosas aplicaciones de deepfake porn en los últimos años, dice que ha intentado ponerse en contacto con el servicio de alojamiento de Y y forzar su desconexión. Pero se muestra pesimista a la hora de evitar que se creen herramientas similares. Ya ha aparecido otro sitio que parece intentar lo mismo. Piensa que prohibir este tipo de contenidos en las plataformas de medios sociales, y quizás incluso hacer ilegal su creación o consumo, sería una solución más sostenible. "Eso significa que estos sitios web son tratados de la misma manera que el material de la web oscura", dice. "Incluso si se lleva a la clandestinidad, al menos lo pone fuera de los ojos de la gente común".
Y no respondió a las múltiples solicitudes de comentarios en el correo electrónico de prensa que aparece en su sitio. La información de registro asociada al dominio también está bloqueada por el servicio de privacidad Withheld for Privacy. El 17 de agosto, después de que MIT Technology Review hiciera un tercer intento de contactar con el creador, el sitio puso un aviso en su página de inicio diciendo que ya no está disponible para nuevos usuarios. El 12 de septiembre, el aviso seguía ahí.
#1 que lo hagan con hombres en videos porno gay y nos echamos unas risas con algun que otro politico fachita.
#5 tú te crees que eso sería noticia ? En eso la gente no se indigna
#5 Según la noticia, el sitio incluye vídeos porno gays, también.
#15 pero anuncian lo anuncian con mujeres
#37 Ya, pero luego el artículo dice “ The vast majority feature women, though a small handful also feature men, mostly in gay porn.” (“La mayoría está protagonizada por mujeres, aunque una pequeña cantidad está protagonizada por hombres, mayormente en porno gay”)
#5, lo malo es que esas mismas risas, como dice el artículo, se las puede echar alguno a costa de condenar a muerte a algún ciudadano de un país donde la homosexualidad es un crimen.
#12, leer antes de comentar va muy bien a veces.
#17 menudo merluzo eres, no es una pregunta tan simple como contestar si o no, si no más bien que pasa, que a los hombres estos dramas no les afecta ?
Madre mía que haya que explicar todo
#24, ah, vale, que solo venías a hacer el incel y lo dices como si eso te dejase en mucho mejor lugar
#17 o lo contrario, pierde la validez como prueba.
#72, me temo que en esos países les da un poco igual.
#5 y demuestras que no te has leído ni lo que respondes para salir contestando arriba.
#5 o rojito. Los hay muy guapos!
#1 se puede hacer con hombres?
Me parece exagerado decir que esto es espeluznante o puede ser traumático para las mujeres.
Ahora no son populares este tipo de videos fake, pero cuando sean cosa de todos los días hasta podría ser una ventaja para las mujeres, ya que cualquier vídeo porno que aparezca en la red por más que sea verdadero pueden decir que es fake y le van a creer.
#57 pues también es verdad
Pues no si será ese sitio web u otro, pero como idea lo puede petar. Al fin y al cabo alimenta las típicas fantasías sexuales humanas y eso da mucho dinerito.
#16 El tema es que no puedes subir fotos de terceros sin su consentimiento a una plataforma cualquiera.
Si tu por tu cuenta te bajas un software, y te montas el vídeo en tu casa, para tu uso personal y sin que nadie lo sepa, ni lo compartes con nadie, pues es otro rollo. Nadie lo sabrá más que tú.
Pero usar plataformas online, como que no… y menos aún, crear cosas así, y compartirlas con otra gente. O poner eso online.
#44 Sí, el tema de la ética siempre llega muchos años después. Por ejemplo yo ahora que lo pienso me resulta sorprendente que hasta el año pasado las páginas porno tuvieran videos colgados que podían ser robado. Como te has criado con eso estabas acostumbrado y ni lo piensas.
Mientras pongan mi cara con el cuerpo de Nacho Vidal que es parecido al mío ni tan mal.
#14 lo tuyo es mas plan Torbe ........ y lo sabes
#30
#31
#14: ¿Y haciendo lo del "sapowned"?
#14 Nacho Vidal ha hecho un deepfake poniendo su cara en tu cuerpo
Si hubiese tenido esto en mi adolescencia, eso poner la cara de la chica que te gusta del cole sin tener que usar la imaginación.
Eran tiempos difíciles donde valía hasta el canal plus codificado.
La Ayuso va a poner muy contentos a unos cuantos.
#10 Hay algún link ya? Es para un amigo que querría denunciarlo.
#11 próximamente en tu pantalla
#10 #11 #20 Holi que bueno es el deep fake casi no se nota que es un montaje
.
#29
#70 #83 Reconoced que os ha puesto palote al verla asi como de chica mala.
#29 Ayuso en el lado malo de la historia, osea cuando comienza lo malo.
#10 no me digas
#10 un trio con Almeida carapolla y el coletas?
#45 puaj,..
#10 Con la de gente que hay por el mundo...Pero mejor que la Espe...
Esto lleva haciéndose unos añitos ya... esto solo es publicidad del vigésimo servicio de este tipo. Hay tanto porno con la cara de Alexa Ocasio Cortez (una politica estadounidense) que seguramente compita en cantidad con el de estrellas del porno destacadas.
#32 La verdad es que hacer una noticia de esto genera efecto Streissand…
El día que usen este servicio para poner la cara de una cabra sobre los vídeos de Mia Khalifa, los sitios porno árabes explotan.
#38 Ellos pensaran que el día que usen este servicio para la cara de Mia Khalifa sobre los vídeos de una cabra, los sitios porno occidentales explotan.
¿A los hombres no?
#4 A día de hoy, la empresa de investigación Sensity AI estima que entre el 90% y el 95% de todos los vídeos deepfake en línea son porno no consentido, y alrededor del 90% de ellos están protagonizados por mujeres.
Por lo que sí, un 10%.
jaja a mi me hace gracia, pero reconozco que es denunciable usar imagenes de mujeres sin su consentimiento
#9 A mi no me hace gracia porque esto puede tener unos efectos devastadores, y me refiero a que no se pueda confiar en una escena de video si esta tecnología se extiende y se perfecciona. Las consecuencias pueden ser tales como:
Mujeres asesinadas en paises donde se castiga con la muerte que vean un video porno de ella
Perdida de la confianza de la gente en los políticos y dirigentes, que transmiten sus ideas principalmente por video, limitando su área de influencia a las pocas personas que puedan verlos en directo
Venganzas de todo tipo...
Etc
#42 y bueno, el paso natural para que eventualmente, luego de asesinar a diestra y siniestra uno cuantos miles, se den cuenta de la ridiculez de sus leyes. Evolución natural tristemente. Como todo, tuvieron que morir cientos de miles de inocentes antes de eliminar casi por completo la pena de muerte del mundo, y aún así hay injusticias por todos lados en otras magnitudes, la única forma de aprendizaje social es repetir el error hasta el hartazgo.
#42 Photoshop existe desde hace décadas. Fotomontajes más y menos realistas de famosas y demás han existido desde entonces y nadie se ha muerto por ello. No sé exactamente por qué esto va a hacer más daño que lo que hemos tenido hasta ahora.
#50 La diferencia para mi es que photoshop no es tan sencillo de usar como esto. Veremos en que queda la cosa.
#74 es que hasta que no lo veamos aplicado a algo realmente enorme y polemico que genere un impacto real en el mundo más allá de la vida, emociones y sentimientos de un sólo indoviduo no vamos a percibir la magnitud de disponer de este tipo de herramientas.
Como los drones de uso civil usados para el mal, como el intento de asesinato a Maduro o los que casi se chocan aviones o provocan desvios en aeropuertos enteros. Son todavia tecnologias en pañales y no alcanzamos a dimensionar el alcance de los eventos que pueden desencadenar. Otro ejemplo mucho más preocupante: las armas impresas en 3D.
#50 Porque las ideas se transmiten por vídeo, no por fotos, simplificando
Es el futuro que nos espera.
Si la tecnología ha llegado al punto en que se puede hacer un deepfake porno con darle click a un botón, o nos convertimos todos en personas decentes, o aprendemos a convivir con ello y pasamos del tema porque esto ya no hay quién lo pare.
Cuando salió Bin Laden en la cueva diciendo cosas malvadas, recuerdo que algunos musulmanes creían que le habían hecho un deep fake, porque un musulmán jamás diría esas cosas.
Visionarios de la excusa.
#22 lo mismo dijeron con Mahoma (los versos satánicos)
Qué mal va el mundo para que el MIT Technology Review saque titulares tan sensacionalistas: "horrifying" OMG!!
#73 si lo lees con voz de Piqueras suena más natural. "Una página horripilante, apocalíptica"
#47 Ya no dormiré .
#54 no me jodas que no sabias del tema
#56 No es algo que se encuentre entre mis intereses 😅 .
#67 el cuadro no pero todo el escándalo, ya que bill estuvo según los datos del avión 35 veces, luego el príncipe de UK, Bill Gates y otro montón de gente super rica e importante
"MIT Technology Review has chosen not to name the service, which we will call Y, or use any direct quotes and screenshots of its contents, to avoid driving traffic to the site"
Quiero la URL ya
#21 https://www.yapty.com/
de nada
Hmm, a medio plazo hasta podrías podrás elegir en las plataformas de streaming la cuota racial que quieras para los personajes de una serie.
Ideal para cietos países decimonónicos que aun mantienen el campo "raza" en sus formularios oficiales pero que todavía no han adoptado el sistema métrico
Sería interesante que tuviera opciones, como subir una foto de Rajoy y ponerle cuerpo de mujer .
#35 toma https://filmdaily.co/wp-content/uploads/2020/08/Epstein_clinton-04.jpg
Que monos, se creen que por no poner link al sitio no va a haber efecto streissand
Una espeluznante aplicación llamada photoshop permite cambiar la cara de una persona en cualquier foto porno! el horror!
Venga ya...
#63 ¿sabes usar photoshop?
#92 Como cualquier milenial, vaya
Deleznable... alguien tiene el enlace para investigarlo más profundamente
Esto da muchísimo mal rollo. Lo facilísimo que se le puede joder la vida a alguien. Ahora ya no hace falta ni engañarla (o quizá engañarlo, aunque menos) para que te pase fotos comprometedoras: Basta con sacarse un selfie inocente, recortar la cara de la víctima y PAM, video porno que en realidad nunca ha ocurrido.
Pero ya sabemos cómo somos los seres humanos. ¿Acaso importa si ha sido real o no? El daño ya estará hecho.
#64 Cuando haya cientos de miles de videos creados con esta tecnologia, que creeme, los habrá, que tu rostro este en un video porno importara mas bien poco.
#65 espero que tú y #75 tengáis razón, la verdad.
#65 cuando pasa la novedad o algo se vuelve tan común deja de tener tanta importancia. Mirá el COVID, a pesar de seguir en pandemia ya no genera tanto impacto como los primeros meses. Se naturalizan las cosas muy facilmente por no decir que muchas veces caen en el olvido.
#65 ahora sí pillan un vídeo real tuyo puedes decir que es un deepfake, todo son ganancias.
#64 Todo lo contrario, si es tan fácil hacerlo se dará por hecho que la foto es falsa aunque no lo sea. Diría que estas páginas serán incluso una liberación contra el chantaje.
No entiendo la alarma y el sonar de campanas, la verdad.
De toda la vida Internet ha sido por y para el porno.
Dinero es el único dios.... y porno, su profeta...
Si buscas, encuentras algunos sitios de estos en la web. Es posible, por la descripción, que hablen de Deep Fakes App, pero como no lo he usado, y hay que registrarse para usarlo (paso, no tengo interés en esos temas, ya hay demasiado porno gratis en el mundo como para pajearse de por vida), pues no puedo confirmarlo.
El que quiera, que lo busque y lo mire.
#26 No parece que sea el que digo, sino el que mencionan arriba, Yapty, pero han restringido la suscripción al servicio, así que no podréis probarlo de momento.
Según el título de la noticia si pongo la foto de una mujer, me devuelve un video porno... pero luego entro y veo que el vídeo tengo que elegirlo también yo para que "cambie" una mujer por la de la foto... y se me quitan las ganas.
PD: En serio, el título está traducido con el culo.
yo quiero uno para tíos así me mato a pajas usando la cara del Hemsworth