cultura y tecnología
163 meneos
908 clics
El limbo legal de las 'apps' de desnudos con IA permite el acoso de niñas y mujeres

El limbo legal de las 'apps' de desnudos con IA permite el acoso de niñas y mujeres

Ya no es algo (horrible) que le puede pasar y pasa solo a celebridades o 'influencers' como Rosalía ["es un tipo de violencia y da asco", dijo cuando le sucedió] o Laura Escanes ["el cuerpo de una mujer no se utiliza", respondió dolida cuando le tocó a ella]. La denuncia de decenas de niñas en Almendralejo (Badajoz) de que sus falsos desnudos creados por Inteligencia Artificial (IA) circulaban desde hacía meses por el pueblo ha vuelto a poner sobre la mesa la especial vulnerabilidad de las chicas en internet

| etiquetas: tecnologia , ia
Desde un punto de vista legal no hay diferencia entre hacerlo con photoshop o con IA, el photoshop existe desde el siglo pasado.
#4 O con la imaginación.
#6 Desde un punto de vista legal sí hay diferencias entre imaginarlo o hacerlo en photoshop o IA.
#7 Lo que imaginas no puedes compartirlo en redes sociales si no eres pintor o poeta, dramaturgo o algo de eso. Se queda para ti
#7 Es cierto que las apps de IA generando imágenes falsas de personas, especialmente mujeres y niñas, son un problema grave hoy en día, pero creo que compararlas con lo que Goya hizo con sus 'majás desnudas' tiene sentido. En su época, pintar a mujeres desnudas fue escandaloso, y muchas personas pensaron que eso era una violación del respeto y las normas. Hoy, esas mismas obras están en museos y son vistas como arte.

Lo que quiero decir es que la tecnología avanza, y aunque los primeros…   » ver todo el comentario
#61 Yo diria que las majas de Goya se dejaban retratar voluntariamente...
#4 Y hacer un collage? (vease Show de Truman)  media
#10 puede que el matiz de "que se hace con ello" sea en realidad lo importante aqui. Puedes tenerlo para tí, pero NO distribuirlo. Arte secreto, clandestino, censurado. De aqui a quemar libros en piras, hay sólo 4 páginas.
#4 Desde el punto de vista de la responsabilidad de quien hace y comparte el montaje, correcto.

Sin embargo, Photoshop no viene por defecto con una funcionalidad que te permita hacer un montaje específicamente sexual en pocos segundos, porque si así fuera a Adobe le caería la del pulpo. Lo que ha cambiado es que muchas IAs abiertas están permitiendo hacer esto a partir de un prompt de pocas palabras, y por eso estamos viendo ahora miles de montajes que antes no se hacían.
#14 dime en cuál estás pensando porque para nada es tan fácil como pulsar un botón en una "ia abierta". Hay que ser muy concienzudo para hacer algo así.
#27 perdona, pero es bastante bastante sencillo
#28 ok, me he puesto a buscar y parece que es más sencillo de lo que pensaba, si no te importa que sea un poco cutre el resultado...
#27 En la propia noticia puedes ver que lo están haciendo con Grok. Por 'ia abierta' no me refería a que sea open source; tal vez no ya sido una gran elección de palabras.
#4 Estoy de acuerdo. Aquí el problema no es la herramienta si no el uso que se le está dando. Y en este caso es hacer pasar por reales imágenes generadas por ordenador o buscar dañar el honor de las personas con ellas aún sabiendo que son falsas.
#4, desde el punto de vista legal... Las leyes siempre van con la realidad y la realidad es que ahora cualquiera sin conocimientos técnicos de ninguna clase y con unos cuantos clics puede hacer esto y antes no. Y eso sí es noticia.

Algo parecido ocurrirá con las estafas de cualquier tipo y luego, para gente con algo más de conocimiento pero con mucho menos esfuerzo, la creación de nuevos virus informáticos o biológicos...

Los gobiernos deben ponerse las pilas para regular todo eso, no es fácil, tal vez es imposible que desaparezca, pero hay que hacerlo lo más complicado posible.
#4 Ya bueno, claro, es como asesinar con una piedra o hacerlo con una ametralladora que se puede comprar en el media martk, asesinar se ha echo siempre.
La tecnología accesible es lo que tiene, que facilita mucho las cosas y cualquiera con el gatillo fácil puede hacer una masacre.
#66 El titular de este meneo no es sobre el incremento de acceso sino sobre el supuesto "limbo legal" el cual no existe.
#4 Son los hechos y no lo que lo produce. Cada hecho implicaría sentencias. Complicado posiblemente porque serán menores en su mayoría los que se muevan en ese ambiente.
Creo que el tema principal no es la tecnología empleada ni lo guarro que sea cada cual, sino la publicación, difusión o la amenaza de los mismos. Esos delitos ya existían y se han añadido variedades por la facilidad de fabricación. A efectos del delito, si la imagen parece real o cumple una función coactiva, de extorsión o perjuicio... a la hoguera con los villanos!
SI se empezase a usar para poner a políticos y famosos con pichas bien cortitas, veríais como empieza a controlarse el asunto.
Yo le dejo una carta abierta a la redactora, porque me he quedado flipando, la verdad.

Estimada Helena,

Tu artículo parte de un hecho real y desafortunado, pero lo encajas en un marco interpretativo prefabricado que no resiste un análisis riguroso ni jurídico ni empírico. No informas para comprender el fenómeno; informas para confirmar un relato.

Has optado por:
- Una explicación monocausal (“machismo”) donde el fenómeno es multicausal
- Una autoridad, que por muy psicopedagoga que sea, no…   » ver todo el comentario
#30 Son apesebrados que viven de subvenciones, por eso repiten el discurso imperante como loros.
El problema es la difusión instantánea que supone el "Hey @grok! Put her in bikini", no es el hecho de que se haga y ahora salga escandalosamente bien, porque eso ya era factible (aunque más lento) desde el momento en que las fotografías son digitales.
En cualquier caso, el no poder manipular ninguna imagen de terceros por norma, ni es realista ni se puede legislar a mayores sin coartar libertades (no así la difusión).
#12 Al igual que no se puede escanear un billete, la funcion de manipular cuerpos desnudos se puede capar.

No veo protestas por no poder hacer un escaneo de un billete de 50€.

Y no se exactamente eso de "las libertades" como aplica a un sistema digital de una empresa privada.

Hay muchas cosas que las empresas no pueden hacer.
#37 técnicamente es muy diferente : en un caso tienea a los fabricantes de scanneres que pueden avenirse a la legislación para conseguir la homologacion y en el otro es un software de libre distribución mucho más difícil de controlar
#37 ¿Has cogido una cámara de fotos y has fotografiado un billete? Magia, ya lo tienes escaneado.
#44 No, no lo tienes.
Repito mi comentario en una noticia anterior del tema:

Si yo ahora cojo una foto de una usuaria de X, la imprimo, y la pego sobre una foto X tambien cundiria el panico? Y si cojo una foto, y en el paint recorto de manera cutre su cara y la pego en un jpg porno, tambien seria violencia digital? Y si perfecciono la tecnica y lo hago con photoshop y queda mucho mas realista? Habria que pedir censurar Photoshop y los programas de retoque? Y si oso cruzar la barrera, y sin su permiso, me las…   » ver todo el comentario
#16 en reddit que tal vez sea el foro más masivo de internet, ya cierran comunidades donde resuben ciertos contenidos por más que esos contenidos hayan sido subidos a redes de instagram por el entorno del propio usuario.

Lo cual si lo piensas es aún más loco en este caso concreto, porque en el esquizofrénico reddit tenemos miles de comunidades donde cientos de miles de usuarios (varias de esas comunidades pasan fácilmente del millón) fetichizan a niveles violentos todo tipo de condiciones de…   » ver todo el comentario
#24 Sí, quizás el problema sea por las victimas.
Si es que se lo han buscado. Cómo no se me había ocurrido antes...
#26 Si has puesto fotos publicas en RRSS, publicado tu PIN de la tarjeta del banco, hacerte una pagina WEB donde cuentas toda tu vida.... el problema lo tienes tu.
#89 Sí, entiendo lo que es tener un problema, pero respecto a la responsabilidad de ese problema que opinas?
Es responsabilidad de las mujeres por haber dejado disponibles esas fotos. El que use esas imágenes sin permiso, las altere y las comparta no tiene ninguna responsabilidad ya que las mujeres no debían haberlas dejado disponibles?
#90 Me he pasado, hablemos legalmente, no moralmente: el delito es compartirlo, no hacerlo.
En 2 años hemos avanzado nada
#1 No habrás acabado tu (ni yo), pero las cuentas bancarias de las tecnologías no veas como van!!!
#1 entre que el tema mueve mucha pasta y que la sociedad aún no ha acabado de asumir lo rápido que está yendo esto y que ningún político quiere ser visto como un puritano/censor... a saber qué se acaba haciendo

Creo que van a dejar que avisos a estas empresas y estas empresas escurriendo el bulto dejando que los usuarios encuentren prompts para saltarse las protecciones sea la nueva normalidad
Yo opino que ya todo es legal desde que ya nada es real pero se. Creer que lo que vemos es real es algo obsoleto y sin sentido.
Ayuso de bandolera  media
#18 Mejor en real de "Dora, la exploradora".  media
#36 Y el mono botas? :troll:
#24 Yo si. Pero no me hacen el honor. :troll:
#40 olvidas que hay consentimiento entre adultos y es de acceso privado.

Creo que no es difícil de entender, si hacen que una IA me ponga con una gorra de maga, un porro y en tutú, y es parte de la dinámica aceptada entre todos y quien dice que no, no se le hace, no hay problema.

De verdad, no es tan difícil de comprender: consentimiento y sin difusión más allá de lo acordado (en este caso el grupo de WhatsApp).

¿En qué parte exactamente te pierdes?

Tener un cuchillo en la cocina no me…   » ver todo el comentario
Y quitando al loco de Elon Musk con Grok , el problema de verdad lo vamos a tener con los modelos Open Source , los cuales no están capados , por paradójico que parezca , quizá los modelos menos dañinos son los que están bajo el control de empresas.
#11 eso .. Tu da ideas para que los esbirros políticos puedan prohibirlos y que todos seamos siervos de los neocaciques tecnológicos.
#45 Es una realidad y un problema
#11 ahí estoy un poco dividido, si es cierto que los open source no están capados pero por ahora no tienen la enorme difusión que pueda tener un grok, los open source tienden a ser menos amistosos en el "plug and prompt"

Y por lo que se ve, a varias de esos modelos online conocidos ya les han encontrado varias maneras de saltarse sus barreras.

Los modelos abiertos por otro lado, siguen necesitando sus LORAs, ahí si que los pueden capar si los usuarios ven y denuncian esos contenidos en servidores en caso que haya material chungo de menores. Que tampoco será una solución perfecta (nadie puede diferenciar un cuerpo de 17 de uno de 18) pero al menos es algo para los contenidos más perversos.
#49 Es verdad que los modelos open source no son tan accesibles , pero tampoco es que cueste mucho encontrar modelos sin capar y una interfaz para usarlos de manera sencilla.

Y siempre habrá algún perturbado que tenga acceso a fotos de niños por estar en el grupo de padres donde se comparten las fotos de la última excursión , o fotos que pueda hacer el mismo desde la ventana y las pase por el modelo y en segundos tenga todo tipo de imágenes.

Creo que esto debería regularse de alguna manera , que la propia comunidad sea la que denuncie estos modelos.
Y dale. Si podemos desnudar a todos, todas y todes, a golpe de click, no hay nada que usar para atacar a nadie. La credibilidad de esas imágenes fake es cero. Por tanto, quién las usa para intentar chantajear a otra persona, pierde el tiempo. La existencia de estas IAs es una gran noticia para todos. Se acabó la extorsión por imágenes!
#50 ostras! Una opinión sensata!
Que grata sorpresa.
Como inexperto en derecho no me parece que haya ningún limbo legal; si un programa tiene usos lícitos es legal, y si solo tiene usos ilícitos es ilegal. Sobre las imágenes generadas, no me parece una vulneración de la intimidad, sino del derecho al honor.
#17 te pueden afixiar con unos calcetínes. ¿ ¿Son los calcetines ilegales?
#47 He hablado de programas de ordenador, pero si quisieras aplicar las mismas reglas para los calcetines, dado que tienen usos lícitos son legales.
Pues habrá que perseguir a los acosadores que comparten esos contenidos, no a las apps, del mismo modo que cuando hay un asesinato a cuchilladas empapelan al asesino y no al fabricante del cuchillo.
#25 No es así. Si es un cuchillo de cocina (llamémoslo Photoshop en la analogía) el fabricante de cuchillos no tiene nada que ver. Pero si es una pistola modificada para pasar el escáner de seguridad y cometer el asesinato (Programa exclusivo para desnudar a la gente), el que ha fabricado la pistola tiene muchas posibilidades de acabar en el trullo si lo pillan.
#32 Tampoco es así, aquí el "cuchillo", es un puto bisturí laser que tan pronto lo usas para operar a corazón abierto, lo usas para comerter un asesinato a distancia de forma indetectable o te pinta la casa del color que quieras.
#35 Bueno... hay aplicaciones que sólo sirven para eso. Y desde luego esta funcionalidad está para cometer delitos.
#32 Las herramientas no tienen la culpa de lo que hagan los usuarios con ellas. El delito no se comete por generar un vídeo de una persona desnuda; el delito se comete cuando ese vídeo se comparte para burlarse de esa persona y eso lo hace un ser humano, no una app.
#71 Las herramientas no. El que hace la herramienta para un fin delictivo sí.

Y generar un video de una persona desnuda es ilegal. No es necesario compartirlo.
#72 ¿Generar un vídeo de una persona desnuda es ilegal? ¿En base a qué ley?
#75 Yo diría que la LO 1/1982 de protección del derecho al honor lo prohíbe. Prohíbe tomar fotografías aunque no se divulgan, el caso en el que estamos es similar. Y por cierto, generar contenido pornográfico de una menor de edad es pornografía infantil. Aunque sea falso y no se difunda.
#76 Generar imágenes con IA no es lo mismo que tomar una fotografía. Parece que lo de que es ilegal te lo has inventado. Te dejo un poco más de tiempo para que me digas qué ley lo prohíbe, porque yo lo desconozco, pero la carga de la prueba recae en quien hace esas afirmaciones. Respecto al material de pornografía infantil generado artificialmente, de nuevo, desconozco si es ilegal o no, pero ese es otro tema diferente.
#77 No es lo mismo, pero se parece bastante. El texto de la ley tiene casi 50 años, y aunque intentaba durar, no está explicitado algo que tardaría décadas en llegar. Y el espíritu de esa ley y de muchas otras (cómo la pornografía infantil) es el mismo; el atentado contra la propia imagen no se produce al distribuir, se produce ya al generar. Como el ejemplo de la fotografía.

Pero vamos, justifíjate como quieras diciendo que hay un agujero legal porque no lo explicita. Es condenable.
#78 No es lo mismo, pero se parece bastante. El texto de la ley tiene casi 50 años, y aunque intentaba durar, no está explicitado algo que tardaría décadas en llegar. Y el espíritu de esa ley y de muchas otras (cómo la pornografía infantil) es el mismo; el atentado contra la propia imagen no se produce al distribuir, se produce ya al generar. Como el ejemplo de la fotografía.

No, en muchos casos el delito se produce al distribuir. Tu novio/a te puede mandar fotos en pelotas y no es…   » ver todo el comentario
#80 El delito es distribuir cuando la creación es autorizada. Por ejemplo en el caso de las fotos en pelotas, si las haces sin permiso es delito, si te las mandan (se ha hecho con permiso) el delito es distribuir.

Y que el RGPD no aplique no significa que sea legal, significa que habla de otra cosa. Estamos hablando del derecho a la propia imagen, que es el bien a proteger. Y la ley y varias interpretaciones dejan claro que el bien jurídico a proteger se produce en la creación, no en la…   » ver todo el comentario
#81 Vamos a poner un ejemplo, yo hago una imagen tuya desnuda, y alguien la distribuye ¿De verdad crees que no se me puede condenar?

Se condenará al que lo ha distribuído y al que la ha sacado por cómplice, ya que, por acción u error, ha permitido que se distribuya, claro. La pena será mayor para el primero sin duda. Pero no se condenará al que ha creado la app, el Photoshop o el lápiz que ha permitido que la imagen se haya creado.

Pero vamos, una futura reforma del Código Penal que está en tramitación lo va a dejar aún más claro.

La palabra clave ahí es "futura".
#82 Es decir, si tú haces la imagen y eso sale a la luz tienes claro que las cosas te pueden ir mal delante del señor de negro. Que es lo que yo he dicho.
#83 No, eso es lo que yo he dicho: que sólo si se distribuye es delito. Lo que tú has dicho, en #32 (que es donde me has referenciado por primera vez), es que el creador de la app tiene posibilidades de acabar en el trullo. Luego, reculando, has centrado el debate en que la persona que lo crea es culpable y es ahí donde yo he dicho que solamente si se distribuye, porque el delito es ese. Pero el origen del debate es si el creador de la herramienta es culpable.
#84 Nunca he dicho que hoy por hoy sea ilegal. He dicho que la analogía del cuchillo no tiene por qué ser cierta.

Y si es una aplicación creada exclusivamente para hacer desnudos... puedes tener problemas legales, y muchos.
#85 Nunca he dicho que hoy por hoy sea ilegal.

No, has dicho que tiene posibilidades de acabar en el trullo, aunque también es cierto que en los tiempos que corren no es extraño acabar en el trullo por hacer algo legal.

He dicho que la analogía del cuchillo no tiene por qué ser cierta.

La analogía del cuchillo es cierta en el contexto en que aplica, es decir, cuando lo que hace la herramienta no es ilegal per se. Lo que tú has hecho es pervertir el concepto recurriendo a una…   » ver todo el comentario
#86 La ley es interpretable. Y tu estás buscando un agujero legal para decir que la ley no lo contempla... esos agujeros son muy peligrosos.

Y estás confundiendo hacer la imagen con hacer la aplicación. Yo el que he dicho que tiene probabilidades de acabar en la cárcel es el que ha generado la imagen. Es el problema de mezclar dos cosas.

Sobre la analogía, repito, si es una aplicación genérica y alguien la usa mal no hay ningún problema (cuchillo), si es algo exclusivo (rifle modificado) suerte con el juez.

Y por cierto, problemas legales no es sólo acabar en la cárcel. Puede ser una demanda millonaria.
La imagen y el vídeo van a acabar teniendo cero credibilidad.
#91 No.

Dependiendo del sistema legal es diferente: en EEUU una vez que sales a la calle o publicas fotos publicas, pierdes la presuncion de privacidad. Eso signfica que si alguien hace una modificacion de tu imagen y la publica (y eso tiene ramificaciones legales), tienes que demandar a la persona por un delito concreto.

En Hispanistan, tienes derecho a tu propia imagen y no pueden divulgar tu imagen en publico si te afecta.
#64 y tampoco a tener sueños con ellas o dibujarlas, faltaría mas.
#65 si no entiendes la diferencia entre ámbito privado y publicación, me temo que poco podemos hacer por ti. Comprendo que extraer contexto de una conversación para no caer en una burda falacia de reducción al absurdo es algo que no está al alcance de todos.
Del tema consentimiento para la publicación de la propia imagen ni hablamos porque sin duda te queda a galaxias de entendimiento y capacidad.
#64 #65 Creo que el problema es "dinfundirlas publicamente".

Cualqueira puede coger una foto mia y tirarle dardos, solo que muy bien de la puta cabeza no debe estar, pero.. bueno, no me meto en la vida privada de nadie.
#87 exactamente. Si alguien quiere tener fotos privadas, hechas con ia, Photoshop o collage artesanal, de su vecino haciendo el salto de la rana, pues cosa de él y de su psicólogo. En el momento en que las difunde, es grave. Muy grave.
#64 Educar no es una opcion. La opcion es informar de las consecuencias penales si haces algo, y que la persona afectada pueda ejercer la violencia necesaria en el momento para evitar que cojan sus cosas, sin que haya consecuencias como ir a juicio y demas: que no exista el delito de agresion si le he tenido que romper la cara a un tio que ha cogido a mi bebe, y por lo tanto tengan que demostrar que hubo delito, pero yo no tenga ni que contratar a un abogado.

Educar, en tu caso, significa decirle a la gente lo que tiene que pensar. No existe el derecho a coger mis fotos, existe la capacidad de alguien a hacerlo.
#96 no, significa explicarles que si cogen tus fotos, te editan en pelotas y las publican cometen un delito penado.
Lo siento, pero no tienes derecho a ejercer la violencia. Ni siquiera en defensa propia. Y siempre vas a ir a juicio para demostrar proporcionalidad.

Así que no nos flipemos con películas y atengámonos al código penal y civil real, no el de la fantasía.
El titular está bien? Acoso de niñas y mujeres, no sería "acoso a niñas y mujeres"

Y de todos modos, solo sirve para el género femenino?
No, no lo permite.
#5 a ver Trollchador, iluminanos
#13 Dentro de la misma noticia:
En cualquier caso, los objetivos por los que se están utilizando sí son perseguibles
La ley no tiene ningún vacío legal, si usas la IA para generar imágenes falsas con contenido pornográfico de personas reales y lo difundes es delito, y hay sentecias al respecto.
#43 antes había que elaborar el montaje a mano, quedaba en tus manos el conseguir la foto, recortar, pegar, etc y fácilmente se notaba el montaje. Ahora una empresa te invita y facilita usar la fotos de terceros sin derechos ni permisos y te da un resultado instantáneo, sin responsabilizarse de llevarse el grueso del esfuerzo en crear un material que podrá usarse para cyberacoso.
Creo que algún papel importante cumplen las empresas detrás de las IAs, y es eso lo que se apunta.
Es el debate de los derechos de autor, elevado a la privacidad y el derecho al honor.
A ver si lo entiendo:
1. Chica posa sexy en Instagram, porque es su cuerpo, es empoderada y tiene un culazo tremendo.
2. El chaval se baja una app que le da a un botón y hace una recreación realista y ficticia de esa chica desnuda del todo. Es difícil para él no dar a ese botón.
3. El chaval lo flipa, no ya por el desnudo en sí, sino por hacer la gracia, y la comparte con los colegas. Evidentemente esta acción es totalmente reprochable.
4. La ley dice que hasta 4 años de cárcel si es mayor de edad.
5. ¿Perdón? ¿Cuatro putos años de cárcel?
¿Estamos tontos?
#21 me quedo en el punto 1.

Veo que haces mención a:
-posa en instagram
-es sexy
-está empoderada
-tiene culazo

Que tiene que ver todo eso para que un chaval haga y difunda ese material?
El posar sexy, estar empoderada, y tener culazo, da derecho a un pavo a "darle al botón" y difundir material pornográfico de la chica en cuestion?

Me gustaría que lo desarrollaras
#22 #21 Quizas el problema es: no pongas fotos publicas!!!!

Yo no tengo fotos publicas que nadie me pueda coger y ponerme nada.
#24 Y que no salgan a la calle en minifalda, ¿verdad?
#34 y #38 ya lo dicen por ahí arriba. El primer pensamiento que os sale es culpabilizar a las víctimas. Hay que mirárselo.
#63 No, sal como te salga de los cojones... pero si alguien coje una foto tuya en publico, la retoca para que estes dandole la mano a Franco, o te pona la ropa de Juana de Arco, o... te cambie la cara por una actriz porno, ... y no la divulga, eso es lo que hay.

El problema es que alguien divulgue en publico una foto mia comiendole la polla a alguien. No que se la casquen con esa foto.
#88 ¿Pero no te das cuenta de que cuando dices "sal como te salga de los cojones" y en #24 dices "no pongas fotos públicas", te estás contradiciendo? Tengo el mismo derecho a salir vestido como me de la gana de casa que a subir fotos mías a cualquier red social. El mismo.
#24 no es mal consejo. Pero también educar a la gente en que no tiene derecho a coger tus fotos y hacer con ellas lo que le plazca sin tu consentimiento.
Como no tienen derecho a coger tus cosas, por ejemplo.
#22 Desarrolla tú lo de 4 años de cárcel
#21 Correcto si las hacia públicas , y más que debieran del caerle, por el daño que hace a la persona.
#21 cierto, deberían ser más.

Aquí el tema NO es el desnudo.
NO es que ella suba fotos.
NO es que a alguien le ponga la idea y este salido.

El tema es el puto consentimiento y el daño que eso hace, reputacional y psicológico.

Lo que describes no es “una broma” ni “hacerse una paja con la IA”. Es coger a una persona y crear contenido pornográfico falso suyo sin consentimiento, y encima compartirlo, porque si lo hiciera para él , se hiciera una paja y lo…   » ver todo el comentario
#34 Te cito:
"con mis amigos nos puteamos con IA y ya lo hacíamos con Photoshop"
Entonces has estado a un paso de 4 años de cárcel si alguno de tus amigos lo llega a difundir.
#40 De toda la explicación que te ha dado te quedas en eso? Justo en eso? Una situación donde se da licencia al colega para hacer una broma con una foto tuya? :-O
#21 Es que llevaba la falda muy corta, es que iba provocando, etc.
De verdad estáis enfermos.

menéame