Hace 10 meses | Por Laro__ a chatgpt5.quora.com
Publicado hace 10 meses por Laro__ a chatgpt5.quora.com

Mark Walters, locutor de radio de Georgia, ha demandado a OpenAI porque el chatbot de IA de OpenAI, llamado ChatGPT, le dijo a un periodista que él estaba robando dinero de un grupo llamado The Second Amendment Foundation. No es cierto en absoluto. Mark Walters no sólo está enfadado, también va a llevar a OpenAI a los tribunales. traducción en el primer comentario

Comentarios

Tieso

Pues esto en EEUU puede tener mucho recorrido.

Robus

#2 No he leido las condiciones que debes aceptar para usar GPT, y creo que ese es justo el problema, no las ha leido nadie... pero me juego un café de starbucks (a lo loco!) que dice, en lenguaje formal, legal y muy bonito: "ni puto caso a lo que diga el chatbot".

Tieso

#11 seguro, pero tampoco sería la primera vez que un juez de EEUU interpreta si son conformes a la ley unos términos y condiciones. Aquí se juega mucha pasta, motivo último de la demanda, pero si le sale bien la jugada al demandante, afectaría mucho el uso del chatgpt.

ed25519

#2 poco han tardado la verdad

jeioncs

Hay que ser mu TOooonto, pero que muy Tooonto para poner una demanda por eso. Creo que lo habrá hecho por cinco minutillos extra de fama a nivel nacional o mundial.

m

#6 Probablemente no entienda cómo funcionan estas IA. Como la mayoría de la población.

Laro__

Chatgpt acaba de ser demandado en los tribunales

Un hombre llamado Mark Walters, locutor de radio de Georgia, ha demandado a OpenAI. Está enfadado porque el chatbot de IA de OpenAI, llamado ChatGPT, le dijo a un periodista que estaba robando dinero de un grupo llamado The Second Amendment Foundation. Esto no era cierto en absoluto.

Mark Walters no sólo está enfadado, también va a llevar a OpenAI a los tribunales. Probablemente sea la primera vez que ocurre algo así. Puede que sea difícil demostrar en los tribunales que un chatbot de IA puede realmente dañar la reputación de alguien, pero la demanda podría ser importante en términos de sentar un precedente para futuras cuestiones.

En la demanda, el abogado de Walters afirma que el chatbot de OpenAI difundió información falsa sobre Walters cuando un periodista le pidió que resumiera un caso legal en el que estaban implicados un fiscal general y la Fundación para la Segunda Enmienda. El chatbot de IA dijo erróneamente que Walters formaba parte del caso y era ejecutivo de la fundación, lo que no era cierto. En realidad, Walters no tenía nada que ver con la fundación ni con el caso.

Aunque el periodista no publicó la información falsa, sí consultó a los abogados implicados en el caso. La demanda argumenta que empresas como OpenAI deberían ser responsables de los errores que cometen sus chatbots de IA, especialmente si pueden potencialmente dañar a las personas.

La cuestión ahora es si el tribunal estará de acuerdo o no en que la información inventada por chatbots de IA como ChatGPT puede considerarse difamación (declaraciones falsas que dañan la reputación de alguien). Un profesor de Derecho cree que es posible porque OpenAI admite que su IA puede cometer errores, pero no la comercializa como una broma o ficción.

La demanda podría tener importantes implicaciones para el futuro uso y desarrollo de la IA, especialmente en el tratamiento legal de la información creada por IA.

¿cuáles son las implicaciones?

Esta demanda podría tener varias implicaciones clave:

* Responsabilidad y regulación de la IA: Si el tribunal declara a OpenAI responsable de las declaraciones falsas generadas por ChatGPT, podría sentar el precedente de que los desarrolladores de IA son legalmente responsables de lo que producen sus sistemas. Esto podría conducir a una mayor regulación en el campo de la IA, obligando a los desarrolladores a ser más cautelosos y minuciosos a la hora de crear y lanzar sus sistemas de IA.
* Comprensión de las limitaciones de la IA: Este caso pone de relieve las limitaciones de la IA, especialmente en el contexto de la generación y el análisis de información. Podría llevar a una mayor comprensión pública de que las herramientas de IA, aunque avanzadas, no son infalibles y pueden producir información inexacta o incluso perjudicial. Esto, a su vez, podría repercutir en la confianza en los sistemas de IA y en su adopción.
* Perfeccionamiento de los sistemas de IA: Tras esta demanda, los desarrolladores de IA pueden sentir una mayor urgencia por mejorar las salvaguardas y la precisión de sus sistemas de IA para minimizar la posibilidad de generar declaraciones falsas o perjudiciales. Esto podría impulsar la innovación y los avances en la tecnología de IA, incluida la aplicación de mecanismos más sólidos de comprobación de hechos o validación de datos.
* Consideraciones éticas en la IA: El caso también pone de relieve las responsabilidades éticas de los desarrolladores de IA y de las organizaciones que la utilizan. Si los desarrolladores y las empresas pueden ser considerados responsables de los resultados de su IA, esto podría dar lugar a prácticas más reflexivas y éticas en el desarrollo y despliegue de la IA.
* Situación jurídica de la IA: Por último, este caso podría contribuir a las discusiones y debates en curso sobre la situación jurídica de la IA. Si una IA puede ser considerada responsable de difamación, esto podría conducir a una reevaluación de la situación jurídica de la IA, pudiendo incluso dar lugar a que la IA sea reconocida como una entidad jurídica distinta en determinadas circunstancias.

C

Si ChatGPT escribe eso es porque lo leyó de algún sitio en Internet, es como si demandara a Google porque el buscador indexó una página con información errónea o falsa, Google no tiene ni idea si lo que indexa es cierto o no. Este periodista lo que quiere son sus cinco minutos de fama y ver si puede pillar dinero, nada más.

RamonMercader

#9 no, no tiene porqie ser así.

Puede haberselo inventado de la nada.

ChatGPT no "resume" la web, ha aprendido la distribución mas probable de las palabras (en realidad de los tokens con los que trabaja, algo a media camino entre silaba y palabra) y en base a eso es capaz de completar los imputs del usuario.

Si le escribo "dime algo de pepito", chatGPT generará un mensaje palabra a palabra (token a token) basandose en las palabras anteriores con un cierto componente aleatorio psra no generar siempre lo mismo.

Generará "Pepito Perez es" y calculara que despues de es el x% de veces viene "un", un y% viene "muy", etc...

Como además Pepito Perez no le va a aportar info al no ser muy famoso y no haber "interiorizado" ese token, se va a mover con un margen muy grande y podra acabar generando, "Pepito Perez es un ladrón" como podría generar "Pepito Perez es una persona excelente".

ChatGPT es como un cuñado que opina de lo que le pidas sin saber
, pero que goza del vocabulario de un catedrático en Lengua Castellana

g

Interesante,

D

Esto necesita palomitas

D

es importante considerar que la responsabilidad por la difusión de información incorrecta o dañina no recae únicamente en los proveedores de IA, sino también en los usuarios que consultan y comparten esa información. Como usuarios, debemos ser críticos y verificar la información que recibimos de diversas fuentes.

Dicho esto, si existiera una demanda real y relevante en este contexto, sería asunto de los tribunales determinar la validez de los reclamos y establecer precedentes legales en relación con la responsabilidad de los proveedores de IA por las acciones de sus sistemas.

f

La demanda es una cortina de humo.

La info es totalmente cierta pero nadie lo sabe todavía. ChatGPT se ha vuelto tan inteligente que explora movimientos de cuentas y lee chats privados.