Hace 11 meses | Por elgranmago a xataka.com
Publicado hace 11 meses por elgranmago a xataka.com

El magistrado del caso, P. Kevin Castel, reconoce encontrarse ante "una circunstancia sin precedentes", con un informe legal salpicado de referencias erróneas: "Seis de los casos presentados parecen ser decisiones judiciales falsas, con citas falsas y referencias falsas". The New York Times detalla que ya ha fijado una audiencia para el 8 de junio en la que se discutirán las posibles sanciones.

Comentarios

D

#2 Exacto.

Quecansaometienes...

#7 Mis dies lol

MasterChof

#7 Abogados, políticos, votantes, periodistas, tertulianos, etc. Solo hay que ver las respuestas o comentarios que, a veces, se dan aquí: fruto de lo que más se escucha, panfletos, constructos, discursos manidos. A veces no hay a penas diferencia.

KoLoRo

#8 Muy buena analogía. Si señor, mis dieses.

mecha

#8 esto no es la primera versión de una nueva tecnología. Hace ya 40 años que se vienen desarrollando IAs.
Esto es más como coger el Titanic, un buen barco, pero un exceso de confianza en el te lleva a un fracaso absoluto.

Suigetsu

#28 Los modelos como GPT son bastante recientes, y GPT3.5 ha sido el primero en ser realmente un paso adelante.
Aún así sigue siendo el primero.

c

#8 No, más bien es como creer que el nombre que se le ha puesto a una tecnología, Inteligencia Artificial, un puto nombre mercadotécnico, tiene algo que ver con lo que significa Inteligencia: las IA actuales no tienen ni un poquitín de I, dan el pego, sí, y sirven para infinidad de cosas, pero las cagadas que realizan demuestran que no tienen ni la lógica de una puta ameba, que al menos lleva miles de millones de años demostrando que puede sobrevivir a infinidad de situaciones diferentes y cambiantes. Las IA ni siquiera tienen que demostrar que funcionan, ya tienen a grandes empresas apoyándolas para metértelas hasta en la sopa.

Tarod

#2 pues muy parecido a la mayoría de personas.

BiRDo

#2 No es un sistema estadístico. Tampoco es equivalente.

D

#17 Es un conjunto de pesos en los nodos y en los vectores, que se van modificando a medida que se entrena.

Una vez entras una pregunta, la respuesta viene dada por esos valores. Lo que pasa es que como hay millones, se nos escapa lo que hace, pero no deja de ser una respuesta a una pregunta a través de una Red entrenada para dar estasisticamente una respuesta correcta.

Igual me puedo algo pero creo que es así.

BiRDo

#41 Eso sigue sin ser estadística. Si fuese estadística podría implementarse de otra manera, pero no se puede. En los 70 creo recordar que hubo una demostración matemática que intentaba justificar justo eso y se hizo tan famosa que se dejó de investigar prácticamente en las redes neuronales. Posteriormente se refutó esa demostración y volvieron a coger impulso precisamente porque podían dar resultados que la estadística no da.

Pero hablo de memoria, esto lo estudié en la carrera hace 20 años y puedo estar equivocado, tanto en fechas como en la cuestión matemática salvo en que una red neuronal no funciona como un sistema estadístico.

elGude

#2 esto es lo que pasa cuando usas una tostadora para lavar la ropa.

leader

#2 Bah, este señor hubiera confiado en el primer resultado de Google aunque fuera Yahoo Respuestas. Si eres imbécil no es problema de la tecnología.

mierdeame

#1 #2 #3 Eso le pasa por no entrenarlo, pero para eso hay que saber programar.

Puedes crear un índice con chorrocientos mil documentos legales y sentencias y luego consultar ese índice con un modelo GPT, dándote resultados mucho más fiables, porque son basados en la infomación que TU le has dado.

p

#2 Va a ser gracioso cuando tome datos de memes y bromas muy extendidas y diga cosas como "Grasias de antebraso" o "Shurmano"

ljl

#27 la ciencia avanza que es una barbaridad

p

#32 Jajajajaj pues si me he reído lol Calvo no homologado me imagino que será cualquiera que no sea Pepe Viyuela

Trublux

#2 Si es que para lo que sirve es para simular conversaciones, se basa en información que ya tiene, pero no tiene por qué decir algo verídico, solo que lo parezca.

D

#6 _Booster de productividad_

Un bofetón a mano abierta te daba.

c

#6 Pues ya verás con los copia-pega de código....

d

Es que lo que te dice chatgpt, luego hay que verificarlo.
Estoy viendo que la gente no lo hace y luego hay problemas

Aimfain

#3 Yo estoy estudiando ahora y no os imagináis la de gente (con pelos en los huevos) que le manda las preguntas de los trabajos a ChatGPT, pega la respuesta en un Word y lo manda tal cual... sin comprobar nada y pensando que el profesor es tonto.
Lo bueno es que los profesores tienen más fácil descubrir a los "lumbreras" que intentarán copiar después.

D

Eso le pasa por no usar la versión de pago lol

C

#1 Eso le pasa por no comprobar lo que te dice el cacharro. Es de primero de ChatGPT

Jesuo

#4 A lo mejor el abogado estaba haciendo lo que algunos hacen en meneame, comprobar si se leen las noticias, en este caso comprobaba si el juez leía lo que presentaba o si se dejaba influenciar por incluir el contexto de la IA en tela de juicio y si también el juez pecaría en exceso, un tanteo.

i

#11 el "no me las leo ni yo se las va a leer este" le salió mal lol

G

"No es solo que ChatGPT aportara nombres y citas incorrectas, es que —asegura Schwartz— incluso ofreció garantías de que su información era verídica. "

Hasta que le dices que todo lo que dice es "bullshit" y que no tiene ni zorra idea de lo que escribe.

Entonces ahí te manda al disclaimer de verificar por otras fuentes si lo que dice es cierto.



No sé. Me extraña que el tío este no haya tenido ese disclaimer en ninguna de las respuestas de la IA.

Elbaronrojo

¿A quién se le ocurre hacer eso.? Ya hay que ser vagos. lol
Yo le mandé hacer una tarea de bases de datos y cada vez que le ponía los errores que había que corregir reescribía el código con nuevos errores. Cuando el profesor dijo que para el examen podiamos usar internet para consultar pero nada de chatgpt, pensé: como alguno sea capaz de usarlo tiene el suspenso asegurado. lol

D

ChatGPT chatea como en el bar: para nada te puedes fiar de lo que dice. lol

D

#31 "dame referencias" es fácil. Lo acabo de hacer con la teoría de la relatividad

Bacillus

Hace poco use la misma IA para buscar relaciones entre ciertos procesos fisiológicos y interacciones dando una proteína específica. Y me pasó lo mismo... Me ofrecía datos y cuando le pedía que me referenciara ciertas afirmaciones me ofrecía citas que no tenían nada que ver con lo dicho. Hay que andarse con ojo.

p

Si se tiene que revisar todo el tocho que te suelte para comprobar qué trolas te ha contado, en un tema tan farragoso y extremadamente detallista semánticamente como es el Derecho, no creo que se gane un pijo de productividad o de eficiencia.

Más bien es como tener un compañero de trabajo con muy buena presencia pero totalmente imbécil al que le tienes que revisar todas las burradas para que la empresa no quede en evidencia.

Para temas "artísticos" (para cierto nivel bajo de criterio) no existe este riesgo y por tanto importa poco. Para conducir, programar o redactar recursos o sentencias, no vale tanto como nos quieren vender.

La prinicipal demostración de esto es que siguen existiendo coches no autónomos, y los programadores siguen programando ellos. Si fuese verdad lo que se promete, ambas profesiones ya apenas existirían en dos meses.

c

#35 Más bien es como tener un compañero de trabajo con muy buena presencia pero totalmente imbécil al que le tienes que revisar todas las burradas para que la empresa no quede en evidencia.
Cuidado que con un 95% de probabilidad ese compañero acabará siendo tu jefe...

K

Err.... ChatGPT NO da referencias. Únicamente información, que será verdadera o falsa, pero no da referencias a leyes. Básicamente genera texto. En este caso un texto legal.

La versión del abogado es imposible y las referencias inventadas son 100% suyas.

D

#13 no sé si a las leyes, pero si da referencias incluso cita las URL de donde las saca, y ya se ha dado el caso, en otros ámbitos, que se ha inventado tanto la cita como la URL.

K

#23 ChatGPT ? Podrías mostrarme un promt que te dé una referencia o una URL? Gracias...

analphabet

#13 A mi alguna vez me ha respondido a algo poniendo un número en una fuente menor al texto con un hipervínculo.
Lo que no recuerdo si era el gpt 4 a pelo o usando el plugin del browser.

M

#13 Referencias sí que da, a leyes no lo se, pero a artículos científicos inventados sí que los da.