edición general
63 meneos
8166 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear

Una nueva y espeluznante aplicación de IA cambia a las mujeres por vídeos porno con un clic [ENG]

El sitio web llama la atención por su sencillez. Sobre un fondo blanco, un gigantesco botón azul invita a los visitantes a subir una foto de una cara. Debajo del botón, cuatro rostros generados por la IA permiten probar el servicio. Encima, el eslogan proclama audazmente el propósito: convertir a cualquiera en una estrella del porno utilizando la tecnología deepfake para cambiar la cara de la persona en un vídeo para adultos. Lo único que se necesita es la foto y pulsar un botón. Por el momento, "Y" existe en una relativa oscuridad..

| etiquetas: inteligencia artificial , pornografía , aplicación
Comentarios destacados:                        
#3 En slashdot indican1 que el sitio es éste: www.yapty.com/

En estos momentos ya no aparece como describen en el contenido del meneo, aparece un mensaje indicando que el servicio no está disponible para nuevos usuarios.

El "about" parece confirmar que efectivamente es este sitio: www.yapty.com/about

1 slashdot.org/comments.pl?sid=19773451&cid=61793893
#8 veo que sois hombres de cultura :troll:
#25 Y trabajadores!! No a dos manos, porque una la tienen ocupada :roll: ...pero muy trabajadores!
#8 os veo muy puestos al día. :troll:
#62 Gracias, es para un amigo. Voy a comprar pañuelos que se me han gastado, vaya resfriado que llevo encima. :troll:
#28 ¿Y para qué si no es Internet?

www.youtube.com/watch?v=hhl6uC8tyek
#81
- ¿cual es la primera palabra más buscada en Internet?
- Porno
- ¿ y la segunda?
- Prono.

Pd: la gente se equivoca mucho al teclear. :troll:
#8 No sé qué decir. Esto ha llegado demasiado lejos.

Que uno pueda acceder a esta web como si tal cosa y luego se encuentre el acceso desactivado no es de recibo. Pero peor aún, que uno entre al otro sitio y le digan que tiene que pagar para ver cómo de bueno es el armatoste o que le pongan en una cola para procesar su vídeo es humillante. Uno llega todo ilusionado y al final acaba en pornhub como todo hijo de vecino.

Me quedo con mi app de Deepnude, que aunque lento me procesa las fotos que yo le diga sin colas ni pagos. Ea.
#8 ¡¡Me parece increible..................que slashdot siga ahí después de tantos años!! ;)
Pues qué asco. Cada día es más difícil distinguir la realidad de lo que es falso.
#18 Es posible que llegue un momento en el que sea imposible saber qué es falso y qué no, y no podamos dar validez a ninguna imagen que veamos online.
Es bastante complicado el tema…
#18 #48 #77 Los humanos ya no podemos distinguir entre lo real y lo no real hace tiempo, ahora es una carrera entre redes neuronales. Unas generan contenido, la otras dicen si el contenido es real o generado. A este proceso se le llama generative adversarial network.

en.wikipedia.org/wiki/Generative_adversarial_network
#18 Para bien o para m, la único soluciones es establecer relaciones de dependencia con medios que se ganen una buena reputación... y que abusar de ella suponga una fuerte penalización. Por supuesto, eso hace que aquellos que busquen/tengan el poder, intenten manipular ese sistema... pero no es nada nuevo.
#58 mucho le pides al espectador/cliente/usuario/consumidor medio
#18 y preparate, que solo es el principio. Los algoritmos se hacen cada día mas eficaces en generar y mezclar contenido multimedia. Lo cual permite construir videos e imágenes de lo que quieras, al coste de la energía de alimentar la computadora.
#18 ¿Para qué quieres que sea real? Una película es una película, tan real es una como otra. ¿Quién sabe cuál es mejor? ¿quién sabe cuál es más cierta?

Y si no, siempre podrás ir a Memory Call, y allí te lo acaban de ajustar :troll:
La mitad de los comentarios: ¡Qué horror! ¿Qué sitio es, tan horrible?  media
En el contenido no quieren citar la web a la que se refieren.

Es posible que sea esta:

myporndeepfake.club
#2 Por la descripción que dan de "sobre un fondo blanco, un gigantesco botón azul" creo que no es esa.
#3 Con fondo blanco y botón azul hay esta pero según entiendo no hace vídeos sino meramente desnudos en fotos: deepnude.gg
#7 Gracias  media
#78 melafo....
#2 Ostias, alguien ha editado mi comentario para que no sea un enlace.

:palm:

Joder con la censura. Solo quería dejar constancia que no fue decisión mía dificultar al resto de usuarios acceder al sitio que indiqué, que lo puse para que fuera fácil pinchar en vez de obligar a copiar/pegar. Eso lo ha decidido otra persona, a saber quién, que no ha tenido la integridad de poner su nombre a ese acto.

Vergüenza.

Debería llegar algún tipo de notificación cuando lo que has escrito ha sido…   » ver todo el comentario
Traducción automática:

El sitio web llama la atención por su sencillez. Sobre un fondo blanco, un gigantesco botón azul invita a los visitantes a subir una foto de una cara. Debajo del botón, cuatro rostros generados por la IA permiten probar el servicio. Encima, el eslogan proclama audazmente el propósito: convertir a cualquiera en una estrella del porno utilizando la tecnología deepfake para cambiar la cara de la persona en un vídeo para adultos. Lo único que se necesita es la foto y

…   » ver todo el comentario
#1 que lo hagan con hombres en videos porno gay y nos echamos unas risas con algun que otro politico fachita.
#5 tú te crees que eso sería noticia ? En eso la gente no se indigna
#5 Según la noticia, el sitio incluye vídeos porno gays, también.
#15 pero anuncian lo anuncian con mujeres
#37 Ya, pero luego el artículo dice “ The vast majority feature women, though a small handful also feature men, mostly in gay porn.” (“La mayoría está protagonizada por mujeres, aunque una pequeña cantidad está protagonizada por hombres, mayormente en porno gay”)
#5, lo malo es que esas mismas risas, como dice el artículo, se las puede echar alguno a costa de condenar a muerte a algún ciudadano de un país donde la homosexualidad es un crimen.

#12, leer antes de comentar va muy bien a veces.
#17 menudo merluzo eres, no es una pregunta tan simple como contestar si o no, si no más bien que pasa, que a los hombres estos dramas no les afecta ?
Madre mía que haya que explicar todo
#24, ah, vale, que solo venías a hacer el incel y lo dices como si eso te dejase en mucho mejor lugar xD xD xD
#17 o lo contrario, pierde la validez como prueba.
#72, me temo que en esos países les da un poco igual.
#5 y demuestras que no te has leído ni lo que respondes para salir contestando arriba.
#5 o rojito. Los hay muy guapos!
#1 se puede hacer con hombres?
Me parece exagerado decir que esto es espeluznante o puede ser traumático para las mujeres.
Ahora no son populares este tipo de videos fake, pero cuando sean cosa de todos los días hasta podría ser una ventaja para las mujeres, ya que cualquier vídeo porno que aparezca en la red por más que sea verdadero pueden decir que es fake y le van a creer.
#57 pues también es verdad :popcorn:
Pues no si será ese sitio web u otro, pero como idea lo puede petar. Al fin y al cabo alimenta las típicas fantasías sexuales humanas y eso da mucho dinerito.
#16 El tema es que no puedes subir fotos de terceros sin su consentimiento a una plataforma cualquiera.

Si tu por tu cuenta te bajas un software, y te montas el vídeo en tu casa, para tu uso personal y sin que nadie lo sepa, ni lo compartes con nadie, pues es otro rollo. Nadie lo sabrá más que tú.

Pero usar plataformas online, como que no… y menos aún, crear cosas así, y compartirlas con otra gente. O poner eso online.
#44 Sí, el tema de la ética siempre llega muchos años después. Por ejemplo yo ahora que lo pienso me resulta sorprendente que hasta el año pasado las páginas porno tuvieran videos colgados que podían ser robado. Como te has criado con eso estabas acostumbrado y ni lo piensas.
Mientras pongan mi cara con el cuerpo de Nacho Vidal que es parecido al mío ni tan mal. :troll:
#14 lo tuyo es mas plan Torbe ........ y lo sabes :troll:
#14: ¿Y haciendo lo del "sapowned"?
#14 Nacho Vidal ha hecho un deepfake poniendo su cara en tu cuerpo :hug: :-D
Si hubiese tenido esto en mi adolescencia, eso poner la cara de la chica que te gusta del cole sin tener que usar la imaginación. :foreveralone:

Eran tiempos difíciles donde valía hasta el canal plus codificado.
La Ayuso va a poner muy contentos a unos cuantos.
#10 Hay algún link ya? Es para un amigo que querría denunciarlo.
#11 próximamente en tu pantalla :roll: o_o
#10 #11 #20 Holi que bueno es el deep fake casi no se nota que es un montaje

.  media
#70 #83 Reconoced que os ha puesto palote al verla asi como de chica mala. :troll:
#29 Ayuso en el lado malo de la historia, osea cuando comienza lo malo.
#10 no me digas  media
#10 un trio con Almeida carapolla y el coletas?
#45 puaj,..
#10 :-S Con la de gente que hay por el mundo...Pero mejor que la Espe...o_o :wall:
Esto lleva haciéndose unos añitos ya... esto solo es publicidad del vigésimo servicio de este tipo. Hay tanto porno con la cara de Alexa Ocasio Cortez (una politica estadounidense) que seguramente compita en cantidad con el de estrellas del porno destacadas.
#32 La verdad es que hacer una noticia de esto genera efecto Streissand… :roll:
El día que usen este servicio para poner la cara de una cabra sobre los vídeos de Mia Khalifa, los sitios porno árabes explotan.
#38 Ellos pensaran que el día que usen este servicio para la cara de Mia Khalifa sobre los vídeos de una cabra, los sitios porno occidentales explotan.
¿A los hombres no?
#4 A día de hoy, la empresa de investigación Sensity AI estima que entre el 90% y el 95% de todos los vídeos deepfake en línea son porno no consentido, y alrededor del 90% de ellos están protagonizados por mujeres.

Por lo que sí, un 10%.
jaja a mi me hace gracia, pero reconozco que es denunciable usar imagenes de mujeres sin su consentimiento
#9 A mi no me hace gracia porque esto puede tener unos efectos devastadores, y me refiero a que no se pueda confiar en una escena de video si esta tecnología se extiende y se perfecciona. Las consecuencias pueden ser tales como:

Mujeres asesinadas en paises donde se castiga con la muerte que vean un video porno de ella
Perdida de la confianza de la gente en los políticos y dirigentes, que transmiten sus ideas principalmente por video, limitando su área de influencia a las pocas personas que puedan verlos en directo :troll:
Venganzas de todo tipo...
Etc
#42 y bueno, el paso natural para que eventualmente, luego de asesinar a diestra y siniestra uno cuantos miles, se den cuenta de la ridiculez de sus leyes. Evolución natural tristemente. Como todo, tuvieron que morir cientos de miles de inocentes antes de eliminar casi por completo la pena de muerte del mundo, y aún así hay injusticias por todos lados en otras magnitudes, la única forma de aprendizaje social es repetir el error hasta el hartazgo.
#42 Photoshop existe desde hace décadas. Fotomontajes más y menos realistas de famosas y demás han existido desde entonces y nadie se ha muerto por ello. No sé exactamente por qué esto va a hacer más daño que lo que hemos tenido hasta ahora.
#50 La diferencia para mi es que photoshop no es tan sencillo de usar como esto. Veremos en que queda la cosa.
#74 es que hasta que no lo veamos aplicado a algo realmente enorme y polemico que genere un impacto real en el mundo más allá de la vida, emociones y sentimientos de un sólo indoviduo no vamos a percibir la magnitud de disponer de este tipo de herramientas.
Como los drones de uso civil usados para el mal, como el intento de asesinato a Maduro o los que casi se chocan aviones o provocan desvios en aeropuertos enteros. Son todavia tecnologias en pañales y no alcanzamos a dimensionar el alcance de los eventos que pueden desencadenar. Otro ejemplo mucho más preocupante: las armas impresas en 3D.
#50 Porque las ideas se transmiten por vídeo, no por fotos, simplificando
Es el futuro que nos espera.
Si la tecnología ha llegado al punto en que se puede hacer un deepfake porno con darle click a un botón, o nos convertimos todos en personas decentes, o aprendemos a convivir con ello y pasamos del tema porque esto ya no hay quién lo pare.
Cuando salió Bin Laden en la cueva diciendo cosas malvadas, recuerdo que algunos musulmanes creían que le habían hecho un deep fake, porque un musulmán jamás diría esas cosas.

Visionarios de la excusa.
#22 lo mismo dijeron con Mahoma (los versos satánicos)
Qué mal va el mundo para que el MIT Technology Review saque titulares tan sensacionalistas: "horrifying" OMG!!
#73 si lo lees con voz de Piqueras suena más natural. "Una página horripilante, apocalíptica"
#47 Ya no dormiré xD .
#54 no me jodas que no sabias del tema
#56 No es algo que se encuentre entre mis intereses {0x1f605} .
#67 el cuadro no pero todo el escándalo, ya que bill estuvo según los datos del avión 35 veces, luego el príncipe de UK, Bill Gates y otro montón de gente super rica e importante
"MIT Technology Review has chosen not to name the service, which we will call Y, or use any direct quotes and screenshots of its contents, to avoid driving traffic to the site"

Quiero la URL ya
Hmm, a medio plazo hasta podrías podrás elegir en las plataformas de streaming la cuota racial que quieras para los personajes de una serie.
Ideal para cietos países decimonónicos que aun mantienen el campo "raza" en sus formularios oficiales pero que todavía no han adoptado el sistema métrico :troll:
Sería interesante que tuviera opciones, como subir una foto de Rajoy y ponerle cuerpo de mujer xD .
Que monos, se creen que por no poner link al sitio no va a haber efecto streissand
Una espeluznante aplicación llamada photoshop permite cambiar la cara de una persona en cualquier foto porno! el horror!

Venga ya...
#63 ¿sabes usar photoshop?
#92 Como cualquier milenial, vaya
Deleznable... alguien tiene el enlace para investigarlo más profundamente :roll:
Esto da muchísimo mal rollo. Lo facilísimo que se le puede joder la vida a alguien. Ahora ya no hace falta ni engañarla (o quizá engañarlo, aunque menos) para que te pase fotos comprometedoras: Basta con sacarse un selfie inocente, recortar la cara de la víctima y PAM, video porno que en realidad nunca ha ocurrido.

Pero ya sabemos cómo somos los seres humanos. ¿Acaso importa si ha sido real o no? El daño ya estará hecho.
#64 Cuando haya cientos de miles de videos creados con esta tecnologia, que creeme, los habrá, que tu rostro este en un video porno importara mas bien poco.
#65 espero que tú y #75 tengáis razón, la verdad.
#65 cuando pasa la novedad o algo se vuelve tan común deja de tener tanta importancia. Mirá el COVID, a pesar de seguir en pandemia ya no genera tanto impacto como los primeros meses. Se naturalizan las cosas muy facilmente por no decir que muchas veces caen en el olvido.
#65 ahora sí pillan un vídeo real tuyo puedes decir que es un deepfake, todo son ganancias.
#64 Todo lo contrario, si es tan fácil hacerlo se dará por hecho que la foto es falsa aunque no lo sea. Diría que estas páginas serán incluso una liberación contra el chantaje.
No entiendo la alarma y el sonar de campanas, la verdad.
De toda la vida Internet ha sido por y para el porno.

www.youtube.com/watch?v=hhl6uC8tyek
Dinero es el único dios.... y porno, su profeta...
Si buscas, encuentras algunos sitios de estos en la web. Es posible, por la descripción, que hablen de Deep Fakes App, pero como no lo he usado, y hay que registrarse para usarlo (paso, no tengo interés en esos temas, ya hay demasiado porno gratis en el mundo como para pajearse de por vida), pues no puedo confirmarlo.
El que quiera, que lo busque y lo mire.
#26 No parece que sea el que digo, sino el que mencionan arriba, Yapty, pero han restringido la suscripción al servicio, así que no podréis probarlo de momento.
yo quiero uno para tíos así me mato a pajas usando la cara del Hemsworth
Según el título de la noticia si pongo la foto de una mujer, me devuelve un video porno... pero luego entro y veo que el vídeo tengo que elegirlo también yo para que "cambie" una mujer por la de la foto... y se me quitan las ganas.

PD: En serio, el título está traducido con el culo.
«12
comentarios cerrados

menéame