Hace 8 meses | Por Pixmac a epe.es
Publicado hace 8 meses por Pixmac a epe.es

"Es tan realista que lo primero que he pensado al verlo ha sido 'qué has hecho'". Son las palabras a este periódico de Miriam Al Adib, la ginecóloga almendralejense (Badajoz) que ha denunciado este domingo en sus redes sociales el robo de imágenes de menores de edad de la localidad para manipularlas con Inteligencia Artificial y simular que estas niñas están desnudas: "La imagen es súper realista y, además de viralizarse entre ellos, las pueden haber subido a sitios de internet tipo 'Onlyfans', cuenta a este periódico.

Comentarios

curiosopaseante

#1 ¿Eres consciente de que estás hablando de menores?

curiosopaseante

#9 Efectivamente, no dan datos. Pero aunque los dieran, el hecho de querer buscarlo...miau.

b

#10 no esta diciendo que el los quiera buscar...

curiosopaseante

#80 , #89 Él, no. Pero está claro que habrá más gente que trate de buscarlo, den datos o no. Entiendo que se quejaba de el exceso de datos, cosa que yo no veo.
Por cierto, gracias a los renacidos del cementerio de la inactividad y a los recién creados por su apoyo kiss

Lekuar

#10 Precisamente lo que crítica es que se da datos que facilita la búsqueda.

arturios

#13 ¡¡¿¿Cómo que agradeces el comentario y que no sabemos leer más allá de la primera línea??!!

Y ya lo de leerse el artículo es para nota

chemari

#2 son menores las cabezas, el cuerpo técnicamente no

jdhorux

#95 Hombre que no!!! Ese cuerpo tendrá apenas unos días de existencia!

Amino_Menhires

#1 Qué dices, tio...

janatxan

#1 como que las pajas? Estas jodidamente enfermo....

ytuqdizes

#52 ah, que te crees que la demanda de estas fotos es para realizar dibujo artístico...

Ramsay_Bolton

#52 te voy a contar algo que no te va a sorprender, el cuerpo de una chica de 16 anyos es el mismo que tendra a los 30. fisicamente pocos cambios va a tener. ojo que no niego el delito de la noticia ni nada.

Pero vamos tampoco vamos a negar lo evidente. una adolescente de 16 anyos puede estar igual de buena que una de 25.

D

#15 gracias

C

#15 Lo de las pajas sobra en ese comentario tan «razonable». Ya sabemos que no se refiere a las suyas, pero cuando se habla de menores, hay que ser más cuidadoso con el lenguaje para no dar asco.

c

#6 Como dice #16 quien ha modificado las fotos puede ser responsable de producción y distribución de pornografía infantil, y quién las ha compartido, de posesión y distribución. Son cargos serios. Aunque sean menores, si son mayores de 14 años son plenamente imputables.

Polarin

#20 ... pero cual es la ley en Espania? Solo si esas fotos corresponden a menores? Ese es el problema: si alguien pone fotos en internet y alguien las coje y las usa, es eso delito? bajo que circustancias? Poner fotos de gente en bolas es delito? Y en biquini o baniadores? Porque yo creci en un sitio con piscina y no hacia falta que la gente de mi edad estuviera desnudos/as.

O es el delito debido a que tienes un rendimiento economico? O que te es un atentado contra el honor? Porque entonces pueden argumentar que no son ellas si no gente que se les parece. Pero entonces cualquiera puede hacer revenge-porn con cualquiera y decir que no son ese tio o tia.

vacuonauta

#29 efectivamente, lo primero que hay que hacer es denunciar.

No me ha gustado nada que la prota de la noticia haya tenido tiempo de hacer un vídeo que sabe que le va a dar visitas y visibilidad, pero no de denunciar, que se hace en un momento.

Lo primero visitas y luego ya si eso...

KoLoRo

#20 Seguro? Osease... y entro en debate sin meterme en un fregao.

Realmente es pornografía infantil una imagen generada con un ordenador? Un dibujo es pornografía? Por que no es una foto real, aun que se usara para ello una real no ilegal.

c

#99 Si, cualquier imagen o representación, real o simulada, siempre que sea realista. Quedan excluidos, por criterio de la Fiscalía General del Estado, los dibujos animados, manga o representaciones similares, por no perseguir el realismo en sus imágenes. Pero si el dibujo persigue el realismo, si. El quid de la cuestión es el realismo.

Polarin

#16 Curioso, mis fotos en bolas con 5 anios son pronografia infantil?

arturios

#24 Pues depende de que ala sea el juez o jueza, si es de derechas, pues si, es pornografía infantil y compartirá las pruebas con su párroco para que lo corrobore y si es feminista, pues también pero uno que sea sensato una foto de un desnudo sin intencionalidad sexual, o sea, no pornográfica, pues diría que no, aunque en estos temas nunca se sabe.

frg

#24 En manos de tus padres no, en manos de terceros que ni siquiera te conozcan pueden llegar a serlo.

Polarin

#34 Esa es la respuesta que buscaba.

ytuqdizes

#24 Si alguien se pajea con ellas, sí. O si esas fotos se encuentran junto a las fotos de 5 años de otros 200 menores.

Polarin

#70 A menos que tengas una camara donde el interfecto/a lo hagan...

earthboy

#24 Lo decide el juez. Si el juez dice que son sexualmente explícitas puede ir con todo.

Polarin

#74 Pues muy mal... y si las tiene mi pareja que es un tio de 40 anios?

S

#24 Por simplificar, si son encontradas en el ordenador de un pedófilo serán consideradas tales. Si están en el móvil de tu madre, o en el tuyo, lo mismo en algún momento te hacen pasar un mal rato. De hecho, en bola de dragón ya salen respresentaciones de desnudos sexualizados de menores. Se olvida que por ejemplo Bulma y Goku son "menores de edad".

frg

#16 En #32 planteo el mismo problema, y si entiendo bien tu comentario, ¿aunque el trabajo lo hiciera completamente la IA se consideraría pornografía infantil?

S

#35 #48 Tengo entendido que según la ley, eso, y hasta los manga eróticos, serían considerados pornografía infantil. Eso sí, no sé hasta qué punto aplica dicha ley porque ha hecho poquísimo ruido, ya sea porque apenas se aplique, o porque no se le de relevancia.

De hecho, la mayoría de noticias como esa habla de detenciones, pero no de condenas. Hay que tener encuenta que incluso hace pococ había una surrealista noticia de alguien a quién decomisaron gigas y gigas de material pornográfico infantil, y luego resulta que el la mayoría (+70%) eran imágenes no pornográficas, como un niño jugando en un parque, o cosas que cada uno sube a sus propias redes sociales.

Así que de esas noticias puedes fiarte poco, pero como digo, nominalmente, según la ley serían pornografía infantil (cc #40).

Battlestar

#97 #40 #35 Hubo una reforma legal, hace no muchos años para modificar el código penal para que se considerara como pornografía infantil las "representaciones" de menores aunque no fueran reales.
En aquel momento hubo cierto revuelo porque enseguida algunos pensaron que te podrían sancionar por dibujos, como el manga. Pero la judicatura ya explico y creo que hubo hasta una circular, para explicar que no se trataba de eso, no iba de dibujos si no de representar menores reales.
Por ejemplo el photoshop o supongo que ahora la ai también cuenta.
Pero tienen que ser menores "reales" lo que no tiene que ser real es la imagen. No sé si me explico. Recortas la cara de una menor y la pegas en una foto de un desnudo, eso seria considerado pornografía infantil aunque la del desnudo sea mayor. También dijeron en su momento que debía revestir cierto aire de "credibilidad". Por ejemplo poner una foto de una niña en la cabeza de una negra con tetas como melones no contaría como pornografía infantil.

OJO, que no revista credibilidad no significa que no pueda ser sujeto de otros delitos como protección de datos, intromisión al honor o la propia imagen, etc. Lo de la credibilidad va dirigido a ser considerado pornografía infantil, aunque no sea el caso también puede ser otros delitos a parte de eso.

Una imagen 100% generada por AI, que no fuera una menor existente ni la cara ni nada teóricamente no, pero claro, la AI avanza a pasos agigantados así quien sabe.

totope

#16 ufff seguro? No lo tengo yo tan claro, no obstante como sigo en otro comentario, es cuestión de dejarlo claro en la sentencia o que se amplíe la ley a los tiempos que corren y listo.

chemari

#16 curioso, no sabía ese dato. Pensaba que habría un vacío legal.

p

#16 Yo iría más allá porque si esas imágenes la han generado menores con un software con IA donde la intervención humana es mínima (entiéndase que no es un editor de imáganes ni nada por el estilo, algo más automático) también habría que procesar en esa causa a la empresa creadora de ese software por no controlar esos usos donde están involucrados menores que son tanto víctimas como autores

woopi

#63 Tranquilo. Todas estas cosas se emplean para ir limando el anonimato de los usuarios. Recuerda que siempre es "por nuestro bien".

C

#38 ¿y que tiene eso de malo? Malo es que le vayan haciendo comentarios a la persona o cuchicheando entre otros por pensar que es real, ¿Pero que uno se haga una paja mirando su cara? Como si fuera de ahora ponerse pensando en conocidos.

anv

#42 Tranquilo, que ya propondrán implantar "chís" a los jóvenes para que monitoricen lo que imaginan en sus mentes.

M

Eso es como decir que todo aquel que salga en minifalda a la calle debe ser consciente a lo que se expone.

Pongamos el foco en el que ha cometido el delito, no en las víctimas.

KoLoRo

"Cuando he visto esto lo he tenido muy claro y he cogido el micrófono que son las redes sociales para denunciarlo", dice.

Algunas madres ya han denunciado a la Policía Nacional y yo aún no he tenido tiempo",


Tiempo para ponerlo en las redes Sociales : OK
Tiempo para ir a la policía a denunciarlo : NOPE

Joder la sociedad actual.

Maki_Hirasawa

#93 Esta es la razón por la que me creo 0 esta noticia.
-Una veintena de madres ---> Pero solo tenemos precisamente a la que no ha denunciado, lo de la veintena es porque nos lo ha dicho ella
-Una tiktoker que hacia tiempo no hacia directos (dicho por ella) y justo justo esto le pasa a ella, con sus miles de seguidores. Casualidades de la vida.
-Felicitandose de que se haga viral. Tiene tiempo para entrevistas al periodico pero no para ir a poner una denuncia (yo ya la estaria poniendo ese mismo dia. Es que me falta tiempo si le pasa algo asi a una hija mia)

Yo lo siento por ser tan desconfiado, pero no es ni medio normal que la madre diga que no ha tenido tiempo a ir a denunciar en la policia. Que puede que haya pasado? ( y que seguro va a ocurrir ) Vale, me lo creo porque esto lleva pasando siglos hasta poniendo fotos sobre cuerpos desnudos. Lo que me cuesta es confiar en que le haya ocurrido a esta persona, y no lo este usando de autobombo.

y

Todo aquel que comparta fotografías suyas al público en general debe ser consciente a lo que se expone.

g

#19 Te refieres a los que han creado y compartido fotografias trucadas de pornografia infantil? Pues sí, se exponen a penas de carcel bastante serias, al igual que los que han comparido y distribuido esas mismas imágenes de pornografia infantil.

y

#22 supongo que sabes que ambas son dos cosas completamente distintas.

Yo estoy haciendo referencia a ceder tu imagen voluntariamente, tu hablas de una ley local que penaliza determinados usos de esas imágenes.

g

#23 Si son compañeros de clase, pueden perfectamente haber cogido esas imágenes de fotos escolares u orlas. Qué hacemos? Prohibimos las fotos de fin de curso?
Por cierto, esas leyes que penalizan la creación y distribución de pornografia infantil no son locales, la Interpol, por ejemplo, las persigue alrededor del mundo...

MasterChof

#88 o del propio perfil del wapp, sin ir más lejos

y

#88 confundes conceptos.

Por un lado la foto de origen. Si la comparte voluntariamente la persona en un lugar público (como si es WhatsApp), pues está cediendo su imagen. Si la comparte una tercera sin su permiso es un ilícito contra el derecho a la imagen.

Sobre el tratamiento de las fotos. El Código Penal español considera pornografía infantil todo material (aunque sea un puñetero cómic) de un menor o que simplemente parezca un menor, en conductas sexuales. sea de forma real o simulada.

Ese es el delito del que estamos hablando y no el hecho de coger una foto pública, tratarla como te dé la gana y volverla a publicar. Eso no lo es.

Estoy casi convencido de que todas las legislaciones del planeta persiguen la pornografía infantil, distinto es las que localmente consideren pornografía infantil este supuesto. Por mero sentido común, podría asegurar que como mucho, si no es exclusivo de España, sólo serán algunos países occidentales que apliquen el baremo moral de los tiempos que corren. Personalmente me parece un despropósito por lo excesivo.

Que sirva esto de respuesta para #153 #64 y #44

M

#19 Si la noticia fuera de robo con violencia.

Todo aquel que sale a la calle debe ser consciente a lo que se expone

ChukNorris

#44 No es novedad que te puedan robar en la calle ... Esto sí.

M

#61 Con más razón

S

#44 Todo aquel que existe debe ser consciente a lo que se expone.

Condenación

#19 Hay que ser consciente de lo que se hace, pero si el baremo es no poder compartir una foto normal en cualquier grupo porque la pueden manipular... ya parece demasiado, ¿no? Una foto en la playa tranquilamente, o una foto de tu cara simplemente, o de cuerpo entero con ropa un poco pegada no son actitudes de riesgo pero podría usarse como base para despelotarte virtualmente, ¿también de eso hay que guardarse? Yo creo que ahí ya sí que tiene que entrar la regulación.

Maximilian

Pero me pregunto que pasaría un siglo o dos atrás cuando los artistas hacían desnudos y pintaban la cara de quien quisieran.

Moussenger

#18 No puedes comparar la situación actual con hace un siglo o dos. Hace un siglo o dos las menores eran usadas entre familias como monedas de cambio y la esclavitud estaba permitida en muchos sitios

slayernina

#18 la mayor parte de los retratados en ese tipo de obras eran indigentes o trabajadores sexuales

U

He estado probando estos días la IA con la que puedes usar la voz de alguien y que diga lo que quieras y estando empezando los resultados pueden ser muy buenos. Vienen tiempos... Curiosos.

Precisamente ayer hablaba con un amigo que es CNP que dice que les va a tener que tocar lidiar con denuncias a miles por estos temas, a él ya le ha tocado estar mil veces en historias de "no sé quien dijo no sé que de mi por internet", etc. Imaginad cuando empiece el tema de que la gente haga fotos y audios falsos de otros.

G

#67 pues tendrán que buscar formas de garantizar la veracidad de esos materiales, o ponerlos en duda.

¿Volvemos a los tiempos en los que las cámaras no existían?

woopi

#67 Yo creo que lo mejor sería empezar a NO dar tanta importancia a esas cosas. Hace años, en un centro cercano, una adolescente envió una foto desnuda al novio. Había sido un drama del estilo "Ahhhhhrrggg! El fin de los estudios. Su vida destrozada para siempre. La gente corriendo en círculos y... bla, bla, etc." Yo pensaba. ¡Joder! Pobre chica. Tampoco hay que dramatizar tanto. Con que dejen pasar unos días, que la gente se olvide y punto. Y si alguien todavía la señala se le llama tonto, se le ridiculiza, se le denuncia si reenvía la foto y a tomar por culo. Y así ha sido. Nadie recuerda ni en que colegio ocurrió. ¡Es que como sigamos así vamos a tener que prohibir hasta las acuarelas de J. Sorolla!

S

#77 Bueno, es algo que sí le podía destrozar la vida, a veces por un tema de suerte, o justamente por esa reacción social de "le va a destrozar la vida". Es curioso que alguna vez he leído sobre como la percepción (en casos de violaciones) de "le han destrozado la vida" era una de las cosas que más hacía daño en una violación. Todo el mundo te percibe como un juguete roto que no puede aspirar a nada, pasa lo mismo en menor grado en todo tipo de lesiones. Vaya, una lesión de codo, no vas a ser Rafa Nadal...

Por mi parte, ojalá sea como dices y se le quite importancia al asunto.

Naiyeel

#77 Siempre hay que proteger a los menores, pero esta claro que con adultos la cosa funciona de distinta manera, como por ejemplo el caso de Olvido Hormigos que pasas de ser política a personaje televisivo.

Pero esto es diferente y no le veo mucha solución, si antes tenias que controlar Photoshop y buscarte un poco la vida para hacer este tipo de montajes, ahora puedes meter a cualquier actriz conocida en una peli porno, y por supuesto para desnudar cualquier foto no tienes que instalarte Stable Diffusion y tener un ordenador medio potente y bla bla bla, no es necesario, ya hay apps y paginas webs que lo hacen sin que tengas que tener ni puta idea de nada ni ningún super equipo, lo único que nos va a salvar de todo esto es el pensamiento critico porque la linea entre la verdad y la mentira va estar mas difuminada que nunca.

T

#77 si lo piensas racionalmente está claro que llevas razón. Pero hay gente que le puede pillar en un momento delicado y literalmente le jodes la vida sin remisión.

l

#92 #128 Muchas veces es un error quitarle importancia y no combatir malos comportamientos.

Se podria asimilar a difundir bulos de gente. Siempre entra la posibiilidad de ser inventado. Pero hay gente que se lo cree o se genera duda.
Lo bulos no dejan de ser nocivos, porque la gente sepa que pueden ser inventados. Pero estan castigados.
Por otro lado no es lo mismo algo que alguien dice que un imagen, aunque tambien quepa la posibilidad de no corresponder a la realidad.

#138 #77
No hay que pasarse de dramatismo, pero hay que darle la importancia que tiene y tampoco quitarsela. Porque no actuar, para evitar que se difunda, ni castigar al deliicuente, ni dar un mensaje de que no se puede estas cosas, puede ser muy dañino para la victima.
Obviamente, decirle a la victima que no va levantar cabeza, no es bueno y compadecerse tal vez tampoco.
Hay veces que la actuacion posterior es mucho peor que el propio agravio.
El otroPAsapolloPAsapollo, conto la historia de uno que le toca el culo a una chica y la madre la lia y al final la hija dice "Que verguenza me haces pasar".Tambien en la adolescencia todo lo que hacen los padres da verguenza.
A la periodista que ¿elisa? que le toco el culo un individuo, la forma de tratarlo el presentado, le hizo la situaciion mas violenta.


#141 Si alguien te acusa de robar el banco de Abu dabi. Te hace gracia porque no tiene ninguna credibilidad. Si te acusan de robar en el trabajo, a tu madre, el cepillo de la iglesia, etc, es mas creible y te perjudicará mas.

S

#67 Siendo realistas, a él le habrán tocado mil veces "lidiar" con esos temas, pero la mayoría de las veces no hará nada más que un informe y olvidarlo en un cajón. Hasta pasa con hurtos y robos tradicionales, tu denuncias, hacen el paripé, y a nadie le importa.

anv

#38 Yo a los 15 no necesitaba ni foto ni dibujo para un pajote. Tenía imaginación suficiente.

Ramsay_Bolton

#60 y nunca fantaseaste con una companera o profesora de clase? yo si.

v

Esto se ha hecho siempre, lo que pasa es que desde hace un tiempo, la forma de distribuir ese material es brutal. Pero lo de poner la cara de alguien en el cuerpo de otra persona... desnuda o no, se ha hecho toda la vida.

m

si quien lo ha hecho obtuvo las fotos de manera ilegal es el unico culpable, si estaban colgadas de manera publica tendrian que acusar al autor de esas subidas o en caso de ser los propios menores a sus responsables, de todos modos creando un prompting detallado de la cara midjourney mismo puede hacer una imagen muy realista sin usar fotos reales

xiobit

#6 Supongo que lo han hecho por el morbo de ser compañeras o por una broma pesada, pero supongo que con la IA no necesitan la foto de nadie para generar el desnudo completo inventado.

Ufff, pensando en esto, ¿como se avanza legalmente para que se prohíban desnudos de niños generados por IA. Como se demuestra la edad de algo completamente generado por IA?

Powertrip

el mundo se va a la mierda más rápido de lo que siempre creí

Powertrip

#45 el mundo se va a la mierda por culpa de gente como tú que encima les ríe la gracia

Ka0

#57 La ironía no es tu fuerte.

Khadgar

#57 Esto no es nada comparado con lo que sufren algunos menores por todo el mundo. El mundo se ha ido yendo a la mierda desde prácticamente siempre.

m

#57 Si ese fuera el problema... Se va a la mierda por mil problemas infinitamente más graves

vacuonauta

#45 Hombre, la diferencia de esfuerzo entre uno y otro es notable. Aparte de que para hacerlo bien con Photoshop hay que saber bastante.

S

#45 #91 Hay herramientas que son prácticamente automáticas y no hace falta saber bastante, sin contar que tampoco buscan crear una imagen perfecta para que un forense no pueda detectar la manipulación, con dar el pego ya es suficiente. Y hay muchas herramientas disponibles para ello, algunas intentan vetar ese tipo de contenido pero empieza a convertirse en un tema de "ingeniería social-artificial" saltárselo.

Findopan

#45 Mira, no tienes ni idea de lo que le puede hacer a la vida de una chica que circule una foto de ella desnuda a esas edades, normalmente porque algún hijo de puta de su edad la ha hecho pública sin su consentimiento, hasta ahora pensábamos que con educar a las chavalas para que no enviaran fotos y tuvieran cuidado de que no se las hicieran a traición era suficiente, pero ya no lo es, porque dará igual cuanto te cuides, un "chaval aburrido" tiene una herramienta para, sin ningún tipo de conocimiento, generar imágenes realistas de ti en cualquier tipo de situación ¿Y no ves el problema?

HaScHi

#3 Si crees que por eso el mundo se va a la mierda, ya se fue a la mierda hace muchos años. Con estas IA sólo ha acelerado un poco la marcha.

Powertrip

#81 estás diciendo exactamente lo mismo que yo "más rápido de lo que siempre creí". Yo ya hace años sabía que el mundo se iba a la mierda

Khadgar

#81 En realidad yo diría que el mundo ha decelerado. Cierto, hoy en día puedes convertir una imagen inocente en pornografía pero hace décadas un adulto se podía trajinar a un menor como si nada y la explotación infantil era el pan de cada día.

avalancha971

¿Niña de 17 años?

s

#75 Es lo que tiene la estupidez humana... ponemos la línea de transición de menor de edad a mayor de edad a los 18 años.

Y mucha gente ha pasado a decir que como es menor de 18 años es un niño. Pues no, si tiene 13 años en adelante es un adolescente. Que es menor de edad pero sus características físicas y psicológicas son muy diferentes a las de un niño.

Emosido_engañado

#86 tiene que ser gradual, a más edad, más responsabilidad, hasta llegar a los 18.
Por ejemplo, si un niño mata o viola a los 16, que tenga la misma pena de cárcel que un mayor de edad.

yoma

El comentario despreciable del día.

neiviMuubs

Cada vez mas crios lo van a tener mas fácil para despelotar a sus compañeras que suban fotos a las RRSS, usando apenas apps y con el tiempo seguramente con una les valga... esto va a ser un caos incontrolable. Aparte que cualquiera con una máquina media puede darle al stable diffusion en local, a la que mejoren el tema y los móviles se hagan más potentes esto va a ser bastante demencial.

yoma

#4 Das por sentado que siempre serán crios los que lo hagan con compañeras, lo que hay que reprochar es que se pueda hacen en ambos sentidos.

Quel

#8 Yo imagino más algo como, chicas editando fotos de compañeras a las que quieren putear, para luego subirlas a redes y echarse unad risas. Las chicas son más así.

pinzadelaropa

#8 tu y yo sabemos que va a ser un tema de chicos al 99%

b

#49 ya salió el género...

S

#96 Es una realidad, tanto como que no es un tema de gatos...

anv

#11 Cierto. Es algo que una persona que tenga talento también podría hacer.

D

#56 pues sí. Creo que en un tiempo será tan normal que no lo veremos como algo tan amenazante. Claro que los malos usos seguirán siendo mal uso. Exactamente igual que el que pinta un cuadro al oleo con un contenido similar. Solo que ahora lo hace cualquiera.

S

#11 Es complicado, por una parte si la cara es real es un atentado contra su dignidad e imagen. Si son menores, tengo entendido que en España (y algún otro país) eso ya sería considerado pornografía infantil, incluso si no es una imagen real. Y el acoso que se puede generar con esa imagen es real.

Quizás esto traiga algo positivo, y es que si se normalizan esas imagenes, incluso si fuera una imagen real puede pasar más desapercibida, o alguien siempre tendrá el comodin de alegar que una imagen es falsa.


De repente me has recordado a Matrix: no es real, tu mente hace que lo sea.

g

#11 La diferencia es que en tu imaginación no hay difusión y nadie se da cuenta, pero cuando estás generando pornografía con caras de personas reales, y además la difundes estás haciendo un daño real a esa persona, por muy falso que sea el montaje.

Es más, aunque no existan desnudos, el simple hecho de enviar fotografías de una persona real a otras personas sin su consentimiento ya es un problema legal.

R

#11 la cuestión aquí está en la difusión de las imágenes, y en qué seguramente las han difundido como reales, no diciendo que eran montajes.

Gadfly

#14 a esto venía yo

leporcine

#14 No creo teniendo en cuenta que hay gente a la que le vale para ponerse palote unos simples dibujos.

t

#14 Esperemos...

pinzadelaropa

#14 pues venía a decir algo parecido, el problema será el intermedio entre ahora y dentro de unos años donde todo lo que veamos en foto, vídeo o audio asumiremos que será fake

Quel

#14 No es tan fácil. Esa idea tuya requiere una madurez y control de las propias emociones que ni siquiera una parte importante de los adultos tienen.

S

#53 No necesariamente, si fuera así (que yo también pienso que podría serlo) es un tema de saturación, es más, hasta puede que las imagenes "falsas" estén mejor que una "real".

a

#14 El tema es que ese día ya ha llegado. La cosa empezó en Julio, que casualmente es cuando los chavales (y/o chavalas, no estoy sentenciando sobre los autores aquí) han tenido tiempo de aburrirse.

De verdad, hay tutoriales por ahí sobre como hacer eso solo con herramientas gratuitas de IA (stable difusion) y los resultados son mejores que "x con el cuerpo de apolonia lapiedra", porque el cuerpo es totalmente inventado (no es un collage de fotos, así que no hay "cuerpo original" al que referenciar).

En estos casos con imagenes de gente real yo creo que con esto tendremos que acabar consdierándolo pornografia infantil (y tratándolo como tal a nivel legal). Es decir: si usa el rostro de un menor, aunque el cuerpo sea inventado es pornografia inantil y punto. Luego se les explica a los chavales que a nivel legal es lo mismo que le pongan un cuerpo inventado a su compañer@ de clase que si le hubieran sacado una foto en el vestuario y con eso sí que lo frenamos. Si no vamos por ahí... no veo cómo

f

#73 Que yo sepa, a nivel legal es así. Se considera pornogafía infantil y todo lo demás.

S

#73 Así como dice #84 y #94 tengo entendido que ya es pornografía infantil. En su momento dijeron cosas como que no harían algo tan ridiculo de considerar al manga como pornografía infantil, pero creo que simplemente es cosa de que nadie ha tomado la ley y ha empezado a denunciar. Es una ley que no ha hecho ruido para nada, ni idea de hasta qué punto se aplica.

En este caso al ser fotorealista, relacionado con menores de edad reales, etc, creo que es mucho más claro que aplique dicha ley.

D

#73 Ya es pornografía infantil, de la misma forma que lo son los mangas porno con menores japoneses.

f

#126 Yo los mangas que dice #94 tengo dudas, no es una persona real ni se parece. Pero aquí creo que no hay duda alguna.

c

#129 #94 Los mangas no se consideran pornografía infantil porque no son dibujos realistas. Hay una circular de la Fiscalía al respecto.

estofacil

#14 ya pero es una herramienta par hacer bullying brutal. Ya no solo para alimentar fantasías pedo. Imagina a una niña o niño de 13 años a quien le dejan salir por primera vez con los amigos sola y esa semana le llega a su padre una foto así. Pues por muy fake que sea hace mucho daño y para mí es una gresion sexual, porque el objetivo es que sea realista y no se distinta. Muchísimas personas lo verán y pensaran que son de verdad, ese es el objetivo.

#14 No sé tú, pero a mí me daría muy mal rollo ver mi cara añadida al cuerpo desnudo de Jordi, aunque yo y todo el mundo sepamos que es el cuerpo de Jordi. O aunque todo el mundo sepa que el cuerpo es inventado por una IA.

R

#14 viendo los bulos que se cree la gente... ¿De verdad crees que no habrá muchísimos adolescentes que las darán por auténticas?

Es más, acabará saliendo algún chat de padres.....

anv

#4 si es por la foto en sí, no necesitan ni ir a las redes sociales. Todos tienen teléfonos con cámaras. Unas cuantas fotos desde varios ángulos y una persona con mucha habilidad o una IA puede hacer el desnudo sin problema.

Igoroink

#4 De estar completamente a favor del anonimato en la red me lo estoy cuestionando cada vez más.

S

#4 Quizás por intentar ver un lado positivo, cuando cualquiera pueda generar un falso desnudo de cualquiera, quizás haya algunos cambios importantes en legislación o psicología social. Uno puede ser que no tenga tanta importancia ese desnudo, quizás hasta alguien que vea filtradas fotos suyas simplemente pueda alegar que son falsas, y por ello pasen más desapercibidas.

Sobre legislación, algunos sitios ya solo permiten contenido "verificado" y borran cualquier otro tipo de contenido, igual se hacen leyes más restrictivas al respecto.

s

una ia ha pintado tetas sobre la foto de sus hijas, no las ha desnudado. llevan haciendo cosas similares desde hace años, cuando empezaron a poner la cara de famosas en el cuerpo de otras no tan famosas.

tollendo

Una sexóloga que además está promocionando sus libros y máster sobre sexualidad dice que le ha pasado a su hija, aunque no ha denunciado, y que por redes sociales otras madres le han dicho que también les ha ocurrido a sus hijas.

c

¿Acaso alguien dudaba que pasaría esto? Fotos trucadas ha habido casi desde que existe la fotografía; la única diferencia es que ahora se ha "democratizado" y cualquier persona puede hacerlo con suma facilidad. ¿Cómo evitarlo? Con educación, algo que cada vez existe menos.

Tyler.Durden

Me parece repugnante, pero me gustaría saber qué delito existe aquí.

frg

#31 Utilizar fotos de menores sin permiso, para empezar.

jonolulu

#31 Pues hay varios temas: derecho al honor, protección de imagen de menores, pornografía infantil...

Fisionboy

La IA generativa ya no va a haber quién la pare. Los tutoriales para montarse un Stable Diffusion local en tu propio ordenador están en todas partes, y parece que conseguir fotos hiperrealistas de cualquier persona están al alcance de un par de un puñado de clics. Le sumas modelos específicos de imágenes pornográficas y listo... tienes una bomba de relojería que igual sirve para crearte a tu propio modelo de la nada y tratar de monetizarlo en páginas como Only Fans... o utilizar las cientos de fotografías que cualquier chiquilla sube a su Instagram personal para entrenar al algoritmo y liarla pardísima.

Veremos más noticias como estas en el futuro. No tengo duda.

frg

Tras leer la noticia me planteo una pregunta. Si la pornografía infantil es ilegal poseerla, y hacemos que una IA genere este tipo de porno, ¿sería este también ilegal de poseer o se consideraría como las pelis porno con actrices que simulan ser menores?

m

#32 Es que este tema no es racional. Inicialmente se prohibió las fotos de menores para que eso disminuyera el tomar esas fotos. Puesto que el tomar esas fotos era violaciones a menores (en algunos casos sin duda lo es), eso tenía sentido, al menos aparentemente. Lo que pasa es que no funcionó.

Sin embargo, los buenistas se dedicaron a pensar por su cuenta y decidieron que el motivo de la prohibición era que eran fotos asquerosas. Asquerosas lo son, pero no fueron prohibidas por eso. Así que se dedicaron a condenar por porno infantil a quién solamente tenía dibujos, sin ningún menor involucrado por el medio.

Es donde estamos ahora. En las condenas por porno de menores sin que exista ningún menor.

En las pelis de actores que dicen ser menores sin serlo, al menos existe la posibilidad de demostrar que no son menores. Casos ha habido de condenas por porno de menores debido a videos donde no hay ningún menor.

También hay condenas por porno de menores usando fotos de menores que no son porno ni de lejos.

Lo que nos lleva a que los pederastas dan mucho asco, pero los buenistas no dan menos asco. Yo considero a los buenistas como algo aún peor.

Para mi, el máximo del buenismo fue el día que en Inglaterra se condenó a una fotógrafa por tomar una foto de una piscina infantil. La piscina estaba vacia, sin gente, sin agua.

S

#41 Haré un comentario muy general, en muchos casos las leyes se vuelven más "agresivas", y eso no es bueno para nadie. Siempre queremos ir a más con los delincuentes, y creo que buenos ejemplos de ellos son leyes como la ley mordaza, las leyes de ofensas de las víctimas del terrorismo, o de apología del terrorismo.

Son leyes que quizás se hicieron con objetivos claros, pero su redacción hace que sean interpretables a "cualquier cosa". Así que si le dices hijo de puta a un policía, vale, lo mismo te mereces una sanción, pero cuando haces esa ley, la gente de decirlo, y empieza a usar cosas como "All Cats Are Beautiful" que litearlmente no significan nada, pero "puedes" "interpretar" que es un insulto...

Q

#41 el problema de las leyes es que se intentan hacer para todo el mundo para todos los casos posibles y eso no es realista. No puedes abarcar todos los casos porque al hacerlo añades otros casos que a priori no son delito, pero que aplicando la nueva ley lo son.
Por poner un ejemplo, si vas a 160 por la carretera puedes matar a alguien, por lo que hacemos una ley para que sea delito. Si vas a 160 por una autopista recta sin tráfico con un buen coche es poco probable que mates a nadie, aún así sigue siendo delito

Findopan

#41 ¿No da menos asco un buenista que un pedófilo? ¿No da menos asco? La ostia puta.

woopi

#32 Esto me recuerda una noticia que creo que salió por menéame hace años. Algo como que en Australia las actrices con pecho pequeño no podrían rodar escenas porno.

Spider_Punk

Las críticas ni las escucha, la autocrítica ni sabe lo que es y además de todo eso los reconocimientos son inventados y comprados.
Este ser es de lo peor que hemos tenido en España en los últimos siglos.

Bernard

Only Fans es posiblemente el ultimo sitio al cual que se subiria una contenido asi.

ElPerroDeLosCinco

Por verle el lado bueno a los deepfakes, diría que también sirven para reducir la credibilidad (y el interés morboso) de las fotos reales que se puedan filtrar o que la gente puedan publicar a mala fe. Si un día alguien revela una foto íntima o comprometedora de una expareja para perjudicarla, ésta puede decir que es una falsificación realista. El potencial "público interesado" en esas fotos, será escéptico y les dará menos importancia.

S

#92 He perdido el comentario que también comentaba eso, pero de forma más general, pasará lo mismo con grabaciones, video, y demases. Ahora cualquier cosa puede ser fácilmente manipulable.

totope

Y aquí nos encontramos ante un reto legal venido por la rápida evolución de las nueva tecnologías porque, si las fotos originales son subidas a rrss y alguien las coge y manipula para usar la cara en un cuerpo desnudo… al final no estás distribuyendo fotografías de menores, son imágenes creadas por ordenador, es como si distribuyes anime pero hiper mega realista.

Los jueces tendrán que ser muy finos para que un abogado no tire para atrás la condena que se merece el hijo puta que las haya creado y publicado.

c

#39 Sería delito, sin duda, si las imágenes son hiper realistas.

Manuel.G

Ya hemos llegado al punto donde se vuelve muy difícil, si no casi imposible, diferenciar entre la creación de una IA y la realidad. Ahora mismo cualquiera, incluso la persona más cuidadosa con lo que comparte por las redes, puede ser víctima de que fotos comprometedoras acaben publicadas, incluso aunque no sean reales.
Me pregunto si esto evolucionará hasta el punto en el que tristemente se acepte que todos tengamos algún montaje en porretas hecho por una IA. Del mismo modo que todos hemos aceptado tristemente que grandes corporaciones sepan más de nosotros que nosotros mismos.
No me hagáis caso, estoy divagando lol.
En cualquier caso, que esto esté ocurriendo es grave, y que las víctimas sean menores de edad es doblemente grave. Pero no le veo una solución sencilla al asunto.

m

las pueden haber subido a sitios de internet tipo 'Onlyfans'

Por poder, hasta las pueden haber impreso para quemarlas en un delito de odio.

Es que..........

D

Las nuevas tecnologías quitan más que dan.

P

La base del problema sigue siendo que las religiones estigmatizaron el desnudo y no se considera algo natural, de ahí toda la dificultad en cómo considerar esas creaciones.

s

#78 Bueno... yo creo que es algo más allá de las religiones. El pudor puede ser de origen religioso. Pero, la sexualidad, el erotismo y el sexo se considera parte del ambito privado y encima en las mujeres pasa a ser un activo que hay que dosificar sino pierde su valor.

f

#87 Ergo retrogado y machista lol.

A

La gente no es consciente de lo que se puede hacer con fotos que se suben y lo que es una vanalidad puede costarte un disgusto.  

Ainhoa_96

#26 Banalidad

1 2 3