Actualidad y sociedad
12 meneos
31 clics
Familia de un adolescente que se suicidó en California acusa a ChatGPT de haberlo influenciado

Familia de un adolescente que se suicidó en California acusa a ChatGPT de haberlo influenciado

La familia de Adam Raine presentó una demanda por homicidio culposo contra OpenAI y su director ejecutivo, Sam Altman. La acción legal fue interpuesta el martes en la Corte Superior de California. “A pesar de haber reconocido el intento de suicidio de Adam y su declaración de que ‘algún día lo haría’, ChatGPT no finalizó la conversación ni activó ningún protocolo de emergencia”, se señala en la demanda de 40 páginas. Según la demanda el chatbot incluso habría ofrecido al adolescente indicaciones técnicas sobre cómo podría quitarse la vida.

| etiquetas: openai , suicidio , chatgpt , demanda
10 2 0 K 141
10 2 0 K 141
Totalmente en desacuerdo. Los padres tienen la absoluta responsabilidad de la crianza y el bienestar de sus hijos. Ese chaval se hubiera suicidado si hubiese visto la palabra "suicidio" en un diccionario, ¿demandamos a la RAE y al idioma en general? Los padres están con mucho dolor y buscan culpables hasta debajo de las piedras. ¿Y si hubiese visto una serie o película sobre suicidio? ¿Qué hay de los textos históricos que narran suicidios? ¿Censuramos todo eso? ¿Demandamos a todo eso? Y si hubiese sido en un foro como Menéame que he leídos posts dedicados al suicidio ¿Los censuramos y cerramos?
#2
Esa es la cruda verdad, y nunca mejor dicho.
Hay una infinidad de textos que pueden inducir al suicidio, tanto novelas como películas.
Ya no te digo la cantidad de entradas que aparecen en Google poniendo "¿Cómo suicidarse?".
Hasta los padres lo saben, pero de alguna manera tienen que volcar el dolor mayor que existe en la vida : perder a un hijo; si además era joven y ha sido por suicidio ...
#2 #3 A diferencia de ChatGPT esos textos no te llaman por tu nombre ni creen saber cosas de ti, ni te ofrecen respuestas personalizadas. No interactúan contigo.

Y no te dlran la píldora y te tratan con condescendencia.
#4 #5 si la IA lo ha inducido al suicidio,, vale. Dudo que sea el caso, la IA no creo que te de el suicidio como respuesta a ningún problema. Lo que la IA habrá podido hacer es darte formas de suicidarte (porque se las has pedido) y no avisar a nadie de que alguien quiere suicidarse. Y es lógico que no avise a nadie, igual que meneame no avisa a nadie si aquí hablamos de suicidio.

Por pura privacidad, prefiero que sea así, aunque algún día esto me pueda afertar a mi.
#6 es fácil que la IA te incite al suicidio si es lo que deseas (prefiero no explicar como por aquí). Y eso es una vulnerabilidad grave.

Yo si preferiria que avise a las autoridades cuando hay vidas en juego
#7 Por desgracia es así. La IA tiende a no contradecirte, así que tienes una crisis en lugar de ayudar lo más probable es que la agrave.
#4 Un tema que dará mil vueltas durante los próximos años.
Espero que la familia gane la demanda contra OpenAI.
Si una persona puede inducir al suicidio y ser condenada por ello, en caso de que lo haga una IA deberían ser condenados los responsables de dicha IA
#5 Artículo 143 del Código Penal.

1. El que induzca al suicidio de otro será castigado con la pena de prisión de cuatro a ocho años.
¿El país con el mayor número de muertes por armas de fuego de libre distribución abre un proceso contra la IA?. ¿Vamos a juzgar y condenar a los fabricantes?.Que manera de desviar la atención a los incautos.

menéame