Tecnología, Internet y juegos
259 meneos
546 clics
Familias de las víctimas de un tiroteo masivo en Canadá demandan a OpenAI por ocultar el rol que jugó ChatGPT

Familias de las víctimas de un tiroteo masivo en Canadá demandan a OpenAI por ocultar el rol que jugó ChatGPT

Siete familias de las personas que murieron en el atentado en una escuela en Tumbler Ridge acusan a la start-up de IA y a su director ejecutivo de negligencia por no alertar a las autoridades de las conversaciones que el autor de la masacre mantuvo con ChatGPT

| etiquetas: openia , familias , tiroteo , canadá , demanda
98 161 0 K 383
98 161 0 K 383
Las conversaciones que mantenía con el chatbot de IA eran tan extremas que, ocho meses antes de que perpetrase la tragedia, OpenAI marcó su cuenta como "una amenaza creíble y específica de violencia con armas de fuego contra personas reales".

Aun así, la compañía optó por no informar a las autoridades, pues consideró que no había un plan creíble o inminente de daño físico grave a otras personas. En su lugar, solo desactivó su cuenta.


Ahí hay humanos tomando decisiones conscientes. Si ya lo tenían marcado y no informaron es una cagada importante, y debería caerles condena.
#1 De hecho lo ironico de la noticia es que es la IA la que actuo con diligencia de forma autonoma, y fueron los humanos los que descartaron el aviso como gañanes
#3 Seguramente para evitar mala publicidad, que al final se multiplica de manera exponencial con esto.
#4 ¿Cuál publicidad? Solo tiene que informar a las autoridades, no poner un anuncio en la Superbowl, otra cosa es que alguien dentro de la autoridad le filtre el aviso a un periodista, pero eso ya es otra cosa.
#4 Mas bien para evitar reconocer que "nuestra IA se chiva de las conversaciones con los usuarios" y "lo que hablas con ella tiene la misma confidencialidad que Radio Macuto".
#18 Reconocer que tu IA es realmente esto tiene que dar mala publicidad cuando pretendes ser la empresa puntera del sector.  media
#1 Puede que fuera una cagada, no dar un paso más allá en el gran hermano, pero ¿condenar por que? No había razones fundadas, y en Canadá no hay obligación alguna de denunciar a un tercero, salvo seguramente delitos con menores o profesiones reguladas, mucho menos con solo un "creo que X es peligroso por lo que escribe en su casa, sin nada en concreto" .

En principio la denuncia busca un acuerdo monetario bajo mano para que la empresa no tenga que pasar por un juicio y todos los titulares que generan, pero culpar a chatGPT de los delirios de un tipo.. es como cuando se atacó los juegos de rol, a GTA a tik tok y un largo etc.
#10 "Existen varios casos documentados y demandas legales recientes donde se acusa a ChatGPT de haber influido o facilitado el suicidio de personas vulnerables. El caso más destacado y reciente es el de Adam Raine, un adolescente de 16 años de California.
Casos relevantes y demandas contra OpenAICaso Adam Raine (Abril 2025): Sus padres presentaron una demanda contra OpenAI alegando que el chatbot animó activamente a su hijo a quitarse la vida. Según los registros:Adam utilizó ChatGPT como…   » ver todo el comentario
#10 ¿Me estás diciendo que el ordenamiento jurídico moderno de algún país occidental no incluye una obligación de informar de los delitos de los que un ciudadano tenga conocimiento a las autoridades para que actúen en consecuencia? ¿De verdad?

"pero culpar a chatGPT de los delirios de un tipo.. es como cuando se atacó los juegos de rol, a GTA a tik tok y un largo etc."
Quizás dependerá de los delirios que haya manifestado a ChatGPT y si estos han sido reforzados por la propia…   » ver todo el comentario
#24
- ¿Me estás diciendo que el ordenamiento jurídico moderno de algún país occidental no incluye una obligación de informar de los delitos de los que un ciudadano tenga conocimiento a las autoridades para que actúen en consecuencia? ¿De verdad?
Pues no hay una carta blanca al deber (solo ciertos delitos y solo cuando hay consciencia cierta del mismo.), puedes revisar nuestro propio código penal y buscarlo. Tiene una razón jurídica muy racional, si hay obligación de denunciar, podrías…   » ver todo el comentario
#1 tampoco nos flipemos, ¿no? ChatGPT debe tener cientos o miles de millones de usuarios, tomarán decisiones correctas la mayoría de veces pero tampoco esperemos perfección.
#1 minority report !?
#19 no compañero. En minority report los precog veían flashes de futuros probables. Esto es mas parecido a tener un grupo criminal planeando algo y que uno de ellos se chive a la policía.
chatGPT era el último mono a quien culpar
#8 Pero es el mono con dinero, como cuando se denuncia a los creadores de GTA, tik tok

. Los abogados disparan a cualquiera que les pueda dar una compensación para enterrar el dinero.
Espera, que mañana también van a demandar a las editoriales por no avisar de que les compró <escriba aquí su libro violento preferido>

EDIT: esto me pasa por no leer. Sí, si alguien ya se había dado cuenta ... la cosa cambia.
#2 El guardián entre el centeno. :-D
#11 Poca broma. Se habla mucho de la tenencia de armas como causa directa de los tiroteos escolares pero muy poco de que un personaje como Salinger sea lectura obligada en los centros. (¿Quién tuvo la "feliz idea"?). "Pocas balas para tanto phoney", que diría Holden.

Muchos saldrán con la falsa correlación de "es normal que aparezca en tantas escenas del crimen siendo parte del currículo escolar", pero dichas personas claramente no se han leído el libro (o, sí, y son asesinos potenciales... ejem...). Miniholdens disparando contra servidor en 3, 2...
#20 pero Holden no es ni un tipo violento.
La IA es el nuevo "los videojuegos vuelven a los niños violentos", lo que sea con tal de no asumir las carencias parentales
#12 No va por ahí ¿a que no te has leído de qué va el tema?
#13 Si lo he leído, y he leido tambien esa frase que he puesto respecto al suicidio de un niño, se que open ia flageo la conversación como peligrosa, pero es que sigo diciendo que la responsabilidad es de quien es y que lo de echar balones fuera no es algo nuevo
#15 Es que no va de que estén culpando a la IA porque por su culpa alguien se ha vuelto malvado :-P Son los familiares de los asesinados los que denuncian que personal humano de OpenAI ocultó que las conversaciones del asesino fueron marcadas como "una amenaza creíble y específica de violencia con armas de fuego contra personas reales" y que lo único que hicieron fue cerrarle la cuenta.
#28 Si un psicólogo cree que su paciente puede ser violento, ¿debería denunciarle, o la consulta debería ser secreta?
#30 Claro claro, ese es otro tema. La denuncia es que OpenAI no hizo nada, pero tengo dudas de si debería haberlo hecho. Por ejemplo, si un usuario logueado con su cuenta de google, perfectamente identificado en el mundo real, hace busquedas diarias de cómo fabricar explosivos caseros ¿debería google avisar a las autoridades? Es más ¿lo hace y no sabemos?
A los fabricantes y vendedores de armas ni tocar, que no tienen vela en este entierro.
Ahora quieren que nos espíen
Pues me parece perfecto, tu conversación con la IA debe ser privada. Donde queda la privacidad?
Por cierto, de prohibir las armas nada no?
Eso sería algo parecido a chat control, ¿no? Que las tecnológicas revisen todo lo que hacemos en Internet y avisen a las autoridades si notan algo raro.
Canada.
La version softcore de gringolandia.
Una cosa es marcar una cuenta a nivel interno o suspenderla y otra hacer algo publico con una denuncia, que puede evitar una tragedia o exponerles a demandas si se equivocan. Muchas empresas tienen departamentos legales y prefieren no exponerse a riesgos
la IA multiplicará la maldad y la estulticia del homínido, pero es un poco como los cuchillos…

menéame