edición general
580 meneos
4133 clics
Envío erróneo o controvertido, por favor lee los comentarios.

Los jueces se han vuelto locos: Trabajo en un despacho familiar y dictan sentencias con IA en <24h con leyes y precedentes del Supremo INVENTADOS

Escribo esto porque lo que estoy viendo en el día a día de nuestro despacho es para denunciarlo en el Tribunal Constitucional o en Estrasburgo. Trabajo en el despacho de mi familia, somos un equipo pequeño y llevamos "un poco de todo": civil, laboral, penal, divorcios... lo que sea. Siempre hemos tenido respeto por la judicatura, pero lo que está pasando últimamente es una estafa procesal absoluta liderada por jueces que han decidido dejar de trabajar

| etiquetas: chatgpt , justicia
Comentarios destacados:                        
#15 Que en la administración de justicia se usa la IA no es ningún invento. De la propia web del Ministerio de Justicia.

El Ministerio de Justicia ofrece tecnología basada en inteligencia artificial para mejorar sus servicios
www.mjusticia.gob.es/es/institucional/gabinete-comunicacion/noticias-m

ADIA es una aplicación impulsada por inteligencia artificial, diseñada para optimizar el procesamiento de documentos. Ofrece las siguientes funcionalidades:
www.administraciondejusticia.gob.es/-/adia-anonimizado-de-documentos

Ahora bien, el artículo de reddit huele a generalización (he visto que uno lo hace, digo que lo hacen todos) y a propaganda anti funcionarios.
Lo que más me indigna es que la culpa es 100% de la desidia de los jueces. Están cobrando sueldos públicos altísimos por tutelar nuestros derechos, pero han decidido que es más cómodo externalizar su cerebro a una máquina.

Los ciudadanos confían en que hay un humano detrás valorando su caso con justicia, pero lo que hay es un funcionario vago que usa una IA que "alucina" leyes y que firma cualquier cosa con tal de quitarse el papel de encima.
Este no será como el que trabajaba en Uber Eats?
Los jueces siempre han hecho copy-paste en sus sentencias, como buenos loros que cantan temas, lo que pasa es que hoy en día es mas cantoso.

#1 como?
#2 mira los dos primeros envíos de este enlace

www.meneame.net/search?q=Uber+eats
#4 En la segunda noticia salió como un periodista fue tirando del hilo hasta desenmascarar al autor del post original en reddit.

Bastaba conque el otro no le hubiera contestado para que ahí hubiera terminado todo y no se hubiera podido demostrar nada. Aquí bastará conque el supuesto "abogado de un bufete familiar" haga lo mismo para que no se pueda demostrar nada.

Y supongo que, si es medianamente inteligente, no contestará ni entrará al trapo de ninguna pregunta que le hagan, so pena de que le denuncien desde la judicatura por calumnias.

Pero lo que ha escrito quedará
#52 La verdad es que son aportar una sola prueba para mí es un invent, si al menos facilitará enlaces a algunas sentencias de esas
#57 Ya ha puesto una parte en el hilo de reddit (que si, que ya se que en meneame está mal lo de leer las noticias antes de comentar :troll: )

Pero si pone un párrafo cortado de una sentencia original siempre se puede decir que lo ha generado en el momento.
Y si pone la sentencia entera se llega rápido al bufete que participaba en el juicio.

Así que quedará todo igual. Publicado, pero sin investigación posterior que lo corrobore o desmienta
#1 #5 #9 #29 #57 #52 Si @PasaPollo (#64) no niega en rotundidad la posibilidad (y peligro) de que los responsables no revisen lo escrito, sometidos a los errores de la IA, el post podrá ser inventado o no, ni idea, pero el riesgo está presente.
#67 Coño, me citas doblemente :troll:
#70 Buff, ni idea.

Me he liado xD

Disculpas
#67 Yo puedo decir que dios existe o que no existe pero si no aporto pruebas no soy más que otro tonto por internet y eso no merece portada en meneame y es irrelevante para mí por lo que voto negativo el envío para que vuele, si mañana sube alguien otro post de reddit o de X con fuentes a sentencias donde se ve claramente mierda copiada de chatgpt sobre leyes inventadas me lo creo sin lugar a dudas pero no es el caso
#1 Si. Lo es.

Se ha publicado desde una cuenta que se creo hace 2 semanas y que no tiene mas envíos ni comentarios fuera del tema.

Además la noticia que pone tiene rastros de haberse hecho con Chat GPT.

De hecho en Reddit han bloqueado los comentarios. Yo lo pondría en la nevera.

cc #2 #5 #7
#9 bueno, yo si fuese a saltarme un DNA o publicar algo que me pudiese afectar tambien haria una cuenta de 0, desde un portatil de segunda mano comprado en efectivo en una ciudad diferente a la mia.
#16 Esto es España no USA. Si eso fuera cierto lo primero que harían los abogados es hacerlo publico. Aquí no hay ninguna ley que obligue a callarse.

Por no hablar que aquí los juzgados no sacan una sentencia en 24 Horas ni usan todas las IA juntas a la vez.
#20 en españa tambien existen los contratos de confidencialidad, de hecho el otro dia puse en contacto a 2 empresas que la empresa contratada tenia que firmar uno.
#9 Parece ser que el autor del post original tiene pruebas de que se ha cruzado con sentencias basadas en legislación inventada:

«Por motivios obvios no voy a poner numeros de las sentencias por preservar mi anonimato pero te copio una parte:

TERCERO.-. Esta sala se acoge a la doctrina fijada en la STS 4829/2024 de 14 de mayo (Rec. 112/2024), que establece que "las dolencias de carácter degenerativo no son per se causa de incapacidad si no existe un colapso funcional documentado por la entidad gestora". Si buscas esta sentencia en el CENDOJ, no existe. El número de recurso y la fecha son una alucinación de la IA»
 media
#47 Siendo una sentencia inventada, ese número es un identificador único así que muy preservado el anonimato no está.
#53 Está reservado porque no es el identificador de la sentencia que emite el juez en el caso en el que participaría el supuesto bufete familiar del que forma parte el abogado de reddit.

Es el identificador de otra sentencia, que supuestamente se ha usado como justificación de que habría jurisprudencia en la sentencia de un caso en el que ellos participan.
#47 Puede que el autor tenga pruebas, pero nosotros nos tenemos que creer su palabra porqué no nos aporta ninguna prueba.
#2 de hecho el codigo penal esta hecho para eso para copiar y pegar, por lo menos lo citan en sus sentencias, no soy ningun experto en el tema , pero si todo el codigo penal esta recopilado por una IA, lo mas normal es que lo usen bien o mal
#10 Creo que los jueces son mas que meros automatas, pero quizas esté equivocado.
#13 Los jueces son más que meros autómotas, pero si pones una sentencia basándote en los artículos A, B y C, pues dichos artículos tendrás que citarlos tal cual, no te vas a poner a reescribirlos de forma creativa {0x1f605}
#13 Son más que meros autómatas, solo hay que ver la creatividad de sus sentencias como la del fiscal general o las del emérito.
#10 Eso es, la IA no es más que una herramienta que para estos casos ayuda muchisimo. Otra cosa es que le pidan directamente que escriba la sentencia y ni la revisen.
#87 Yo veo un potencial para facilitar mucho el trabajo. Pero puede ocurrir tambien que comprobar lo que te dice la IA te lleve tambien mucho
trabajo.

Por otro lado quien/que le dice a la IA que algo esta bien o mal, si ya lo creado por lo puramente humano (leyes, sentencias, etc) ya tiene muchos fallos.

#71 Yo no veo mal que se utilice la IA, pero hay que darle un visto bueno profesional y es muy tentador caer en darle todo a siguiente sin hacer un revision adecuadad. Pero al final el…   » ver todo el comentario
#2 Muy "cuñado" tu comentario. Lo que dices se llama jurisprudencia, y no es algo negativo. Salvando las distancias con las ciencias puras, es como si un científico en uno de sus artículos tuviera que reformular cómo está escrito el tercer principio de la termodinámica no vaya a ser que alguien piense que se ha copiado de Nernst.
#1 #11 No tenéis por qué creerme, pero aquí he dicho ya hace tiempo y en conversaciones aquí con un colega como @devilinside que este fenómeno lo estaba viendo. No he visto sentencias íntegramente hechas con ChatGPT, pero sí referencias a sentencias completamente inventadas.

Y a eso se suma la cita sin sentido de jurisprudencia que ni le da la razón al fallo, pero es un copiapega sin sentido. Por supuesto que como dice #59 citar jurisprudencia es positivo y necesario, pero algo de razón tiene #2 cuando ves que las citas a menudo no aplican al caso, o son una marabunta sin sentido, o como digo se quita la razón a sí mismo.
Venía a escribir que si esto pasa realmente seguramente más abogados se han dado cuenta. Veo que #64 confirma parcialmente la parte que yo creo que es más crítica, que es la de inventarse jurisprudencia. Por no decir lo peligroso de lanzar un prompt tipo "Genera una sentencia condenatoria / absolutoria ..." sin haber revisado absolutamente nada. Sería totalmente negligente.
#84 Yo no he visto ninguna sentencia que haya detectado que haya sido hecha íntegramente con un prompt, ojo. Pero sí he visto citas a sentencias inventadas y cierta prosodia en la parte jurídica que me ha remitido inmediatamente a ChatGPT.

Puede ser que algunos jueces "subcontraten" la parte más tediosa del copiapega. Pero esto es un círculo vicioso, porque si coges algo de otro tribunal y lo pones, y ese tribunal usó ChatGPT con sentencias falsas, también lo incorporas; y el que te cite a ti también, y así se propaga.
#1 #2 #5 #7 #19 #21 #29 #8 #11 Sinceramente, lo extraño sería que no lo hiciesen. Mucha gente está usando IA en ambientes profesionales para generar textos, resumir varios documentos, hacer consultas concretas (en este caso dicte leyes), ... y no es que lo tengan implementado en los juzgados, eso sí que es tecnológicamente complejo. Lo estarán haciendo jueces y abogados a título particular. De eso no dudaría.

Y una vez que tienes el texto generado por IA, es muy tentador copiarlo al…   » ver todo el comentario
#71 es un problema grave de vagancia.
Yo llevo meses usando IA pero reviso todo lo que firmo.
La ia esta muy bien para pedir 3 sentencias que digan X, te da una cierta y 2 que son mentira, compruebas las 3 , citas la buena y has tardado mucho menos que antes de la IA.
El problema es que hay gente tan vaga que que coge las 3 sin comprobar nada.

Y este escribe de jueces pero abogados haciendo eso mismo a patadas.

#23 ahora es peor pero citas de sentencias que no tienen nada que ver hubo siempre, incluso citas de sentencias que entrecomillan una cosa que conviene y luego la sentencia dice " no obstante..." y falla exactamente lo contrario.
#77 Efectivamente, o te citan una Sentencia que da la razón al Juez, pero en un asunto completamente distinto al objeto de juicio. Yo soy tan clásico que no tengo ni microondas
#77 "El problema es que hay gente tan vaga que que coge las 3 sin comprobar nada."

El mismo gobierno de los EEUU son una panda de vagos redomados.
Su informe MAHA es un ejemplo de su incompetencia e ignorancia:

El informe de RFK Jr. para "Hacer Estados Unidos sano" está hecho con ChatGPT y cita estudios que no existen
www.meneame.net/story/informe-rfk-jr-hacer-estados-unidos-sano-esta-he
#77 Sí, es que es eso, lo tienes ahí, parece bueno, p'a qué leer...
#77 Si humanos ya cometian esas practicas de citar cosas que no son ciertas, es posible que las IA hayan aprendido a hacer las cosas como los humanos y no sea un fallo de la propia IA.
Como se puede enseñar a un IA a no cometer los mismo errores de los humanos y del material con la que la entrenas?
Como puedes enseñar a hacer algo que no sabes muy bien como se hace?

#69 Uno de los trabajos de un piloto es no cansarse, no se lo aceptable que es ver peliculas, etc.
Pero los automatismos, te…   » ver todo el comentario
#1 podría ser, pero me parece interesante que alguien que tenga datos opine sobre el tema.
#1 no se, pero la semana pasada pusieron a un abogado en investigacion por hacer lo mismo, asi que dudo que los jueces lo hagan, tengo que preguntarle a una amiga que trabaja para un abogado, pero lo dudo. mira el enlace de #6
#7 Pues yo, que curro en el sector, te aseguro que los hay que lo hacen, y Letrados de la Administración de Justicia. Como soy un paranoico, desde siempre he revisado la jurisprudencia que me citan en las Sentencias (y en las demandas y contestaciones a demanda de los contrarios); ahora con más motivo
#1 y así sucesivamente
#1 Sin duda. No hay más que pasearse por un juzgado para ver qué lo más avanzado que usan a nivel tecnológico es la fotocopiadora y el WordPerfect 5.1.
#1 justo vengo de los comentarios de la demostración del bulo de Uber Eats y al ver que la fuente de este artículo es Reddit...no me fío nada.
#1 Es que es muy tentador eso de coger un testimonio anónimo de Reddit, pero vuelve a ser una cuenta registrada hace 17 días que solo ha publicado sobre esto sin recopilar demasiadas evidencias. Se sabe que pasa en justicia, pero si quiere ir en serio tendría que juntar unas 20 o 30 sentencias disparatadas hechas con ChatGPT y denunciarlo, no ir a Reddit.
Que en la administración de justicia se usa la IA no es ningún invento. De la propia web del Ministerio de Justicia.

El Ministerio de Justicia ofrece tecnología basada en inteligencia artificial para mejorar sus servicios
www.mjusticia.gob.es/es/institucional/gabinete-comunicacion/noticias-m

ADIA es una aplicación impulsada por inteligencia artificial, diseñada para optimizar el procesamiento de documentos. Ofrece las siguientes funcionalidades:…   » ver todo el comentario
#15 Hay otra noticia pero en este caso de un abogado. Te la paso
www.lavozdeasturias.es/noticia/actualidad/2026/01/05/investigan-abogad
#27 La justicia tiene mucho de leer textos, resumirlos, buscar sentencias parecidas, buscar en la legislación y hacer relaciones. Comparar, buscar, y relacionar textos.

Quien piense que la IA no se acabará usando de forma masiva en la justicia, pues es un iluso.

Por supuesto, eso no quita que abogados, fiscales y jueces no deban revisar bien lo que presentan. Pero vamos, que usar IAgen, se está usando. Y se seguirán usando.
#31 El problema no es usar la IA para relacionar textos legislativos y sentencias. Es usar la IA para inventarse sentencias que no existen y textos falsos que cumplen con las formas, pero se inventan el contenido e ignoran las pruebas presentadas, que ni siquiera llegan a ser evaluadas por el tribunal.
#15 efectivamente parece exagerado, pero si no ocurre ahora con la magnitud que dice, sin duda va a acabar pasando en el futuro, pues los jueces que se quitan el trabajo de encima ya existían antes de ChatGPT y, obviamente, no van a desaparecer ahora. La herramienta les va a facilitar mucho su trabajo. Más bien, no hacer su trabajo es lo que les va a facilitar.
#15 A mí no me parece una generalización. Si la IA falla es evidente que le falla a todos sus usuarios, no sólo a uno.

De hecho ni siquiera sé de dónde te sacas lo de ”he visto uno que lo hace”. El testimonio no dice nada parecido. No es que él esté generalizando, eres tú el que intenta particularizar sin ninguna base.
Las afirmaciones extraordinarias exigen pruebas extraordinarias... no un post de reddit de un usuario recién creado con un único post.

La justicia española ya tiene problemas suficientes y los jueces son de bastante mala calidad como para tenerse que inventar nada.
#11 Si hubiera puesto al menos algún dato de referencia para buscar en el CENDOJ las sentencias que dice... Pero así, sin respaldo ninguno...
#11 Tienes razón en que se necesitan pruebas, pero la afirmación no es tan extraordinaria...

Aquí por ejemplo están recopilando casos en los que los tribunales han detectado alucinaciones en los escritos presentados por alguna de las partes:

www.damiencharlotin.com/hallucinations/

Si en España las sentencias son públicas en general, deberían de poderse encontrar algunas directamente con esas alucinaciones, lo que que proporcionar pruebas debería de ser fácil.
Poco creíble; Una sentencia es recurrible y a poco que las partes estén atentas, meter datos
falsos o inexactos desmontaría la propia sentencia.
#12 un detalle: en el ámbito contencioso-administrativo no son recurribles las sentencias en procedimientos de cuantía inferior a 30.000 euros. Además, cuando el asunto ha llegado al juzgado, como normalmente existe un procedimiento administrativo previo en el que se ha discutido la controversia, el letrado de la Administración y el juzgado tienen ya una postura jurídicamente argumentada (mejor o peor). En estas circunstancias me he encontrado con sentencias que son una auténtica basura,…   » ver todo el comentario
#37 si esta copiando y pegando argumentos que ya dio la administración esta argumentando, el juez no tiene por que inventar otros distintos.
#78 el juez en la práctica puede hacer lo que le dé la gana si no cabe recurso.
El futuro era "Brazil". :-S
Es el tiempo de la desinformación...¬¬
A ver, yo he usado IA para informes jurídicos y una cosa que le exijo es la url real de la sentencias y leyes en las que se basa como referencia, se comprueban que existan y digan lo que dice el texto, y luego pasan a los jurídicos que siempre sacan alguna idea para el informe final, la IA no hace el informe, sólo da ideas, lo que no es poco sea dicho de paso.
Gente, hay que asumirlo de una vez. La gente ha sustituido el buscar en Google por preguntar a chatGPT. La IAgen se está usando en todos los ámbitos y donde aún no se usa, se acabará usando. Si hablamos de campos en donde haya que resumir textos, buscar documentación y generar escritos, la IAgen YA se está usando, con casi cualquier seguridad.

La gente cada vez tiene mas carga de trabajo en trabajos que no les entusiasman. Si pueden tirar de una herramienta para acelerar procesos y tardar menos tiempo en sacar faena adelante, lo hará.

"Pero angelito, yo no la uso". Genial. Pues dependerá de tu trabajo, pero si es un trabajo "de oficina", asume que estás, o acabarás estando, en un grupo minoritario
#17

La gente cada vez tiene mas carga de trabajo en trabajos que no les entusiasman. Si pueden tirar de una herramienta para acelerar procesos y tardar menos tiempo en sacar faena adelante, lo hará.


Es el centauro inverso www.meneame.net/m/Fragmentos/centauro-inverso-cory-doctorow

"es lo que Dan Davies llama un «sumidero de responsabilidad». El trabajo del radiólogo no es realmente supervisar el trabajo de la IA, es asumir la culpa por los errores de la IA"

A mi me parece muy bien que esos jueces o quien sea use la IA. Pero si luego tienen consecuencias legales para ti por sus cagadas agarrate los machos.
#24 Pero eso ya ha pasado en mayor o menor medida en otras ocasiones, ¿no?

Se me ocurren los pilotos de avión y los maquinistas. El otro día leí en un grupo de aviación de Reddit que aunque está prohibido los pilotos se pasan casi todo el vuelo, sobre todo si es largo, mirando películas y series. Los maquinistas, por lo que sé de mi familia que muchos han trabajado en el sector, están más bien para emergencias y para casos excepcionales, el tren más o menos suele "ir solo".
#69 La diferencia importante es que esos sistemas están diseñados especificamente para su cometido y se mejoran con cada accidente y problema que van encontrando, no son sistemas aleatorios que generan respuestas impredecibles y no comprobadas, testeadas mil veces y certificadas por agentes externos.
#17 Usado como sustituto de busquedas en internet las IA son armas de manipulación masiva.

Que no nos pase nada...:palm:
#34 Como si buscar en Google y quedarse con el primer resultado (que es lo que hace/hacía la mayoría de la gente) fuera algo que no generase errores.
#36 Por lo pronto tenias varios resultados. Y tenias que leerlos porque no "eran la respuesta", si no que "podría ser que tuvieran la respuesta".

Y si, habia manipulación. Pero esto ya es grado "pro".

O nos educamos o nos vamos a la mierda definitivamente
#34 La búsqueda en internet ya estaba así antes de la IA. ¿Qué resultados salen en Google? Desde luego no los que podrían ser los mejores para ti.
#40 Muchos. Muchísimos.

La manipulación posible era muchos grados menor
Este comentario va para todos los que apoyan en este caso el uso de la IA. LA IA SE EQUIVOCA , MIENTE Y ENGAÑA. No es lo normal , pero pasa muchísimas veces. Estos fallos no se pueden aceptar en ciertos sectores , como sanidad , justicia ... y precisamente por eso no están implementados protocolariamente.

Hasta los cojones de los Bros de la IA.
#44 La IA ni se equivoca, ni miente, ni engaña.

Ejecuta su algoritmo que da lugar a un resultado y lo presenta.

Y ya.
#55 Un algoritmo que le hace equivocarse , mentir y engañar. Mejor así?
#58 No. Un algoritmo no hace "equivocarse" y mucho menos "mentir y engañar".

Un algoritmo se ejecuta y produce resultados. Punto.

El algoritmo puede no ser adecuado o que sean los que tienen su control los que mienten y engañan. No "la IA".
#62 Vamos que no tienes ni puta idea y lo único que quieres es blanquear. Al rincón de pensar que vas.
#58 es estadística y cientos de filtros súper complejos, pero estadística.

Cuando falla y cuando acierta el proceso es el mismo, elegir el texto que probablemente sea más correcto.

Por eso la puedes usar para programar si sabes programar y no eres un vago.

Para sentencias judiciales vendría a ser lo mismo.
#55 El funcionamiento de las IA es el normal. Efectivamente, ejecutan su algoritmo y lo hacen como deben. Los resultados que presentan incluyen datos inventados e información falsa.

Las "alucinaciones" ocurren al menos un 30% de las veces.

No es posible corregir esto, ya que hacen lo que deben hacer. Seguirá habiendo alucinaciones mientras haya LLMs.
#44 Pero es que si no lo saben ya es por dejadez o interés.
Para comprobarlo basta con preguntar sobre algún tema que controles y dejes que la magia fluya...enseguida notas cosas raras y si le confrontar enseguida recula y te cuenta mas y mas mierdas.

Lo cual es normal, toma info de tantos sitios con bulos o que pasan opiniones por datos que no puede ser una fuente fiable.
#56 Es que básicamente , funciona en base a la cantidad de información que le inyectas y así decide lo que es verídico. Si tiene 30 artículos que dicen que Israel mola y 1 que son unos genocidas, Israel mola y punto.
#60 Correcto.
Y además, me da que no tiene baremo de la calidad de la fuente. Igual si esas 30 fuentes estuvieran categorizadas de alguna manera como no fiables las fuentes fiables tendrían mas peso que las otras...
Evidentemente esto es totalmente denunciable.

No el acudir a IA, sino que el juez acuda a legislación inventada.

Usar la IA, se puede usar, pero claro el responsable final es el que acude a ella sin cerciorarse de que la información es correcta.
Pues el día que la IA deje de inventarse cosas (lo cual está cerca)... Los jueces serán innecesarios.
#48 No se puede arreglar lo de las alucinaciones. Las IA están ya ahora funcionando correctamente. Siempre habrá alucinaciones.
La IA es un marichulo de extremísima derecha (cuando no gusten las sentencias)
A eso hay que añadir el consumo de estupefacientes, alcohol y antidepresivos. Sinceramente no entiendo como no se ejerce un control más duro y un sistema de castigos más severo para los que practican la judicatura en determinadas circunstancias.
Por temas laborales me ha tocado leer sentencias judiciales y los jueces son los reyes del copiar y pegar, una sentencia que podría estar bastante resumida, sólo citando las referencias, leyes, otras sentencias, ... pues no, te copian y pegan los textos completos que le sirven para su sentencia.

La IA es una herramienta, bien usada puede ser de mucha ayuda, pero lo contrario también puede ser desastroso.

Hace bastantes años, vi un reportaje sobre un abogado de EE.UU. que usaba una aplicación…   » ver todo el comentario
Los ciudadanos confían en que hay un humano detrás valorando su caso con justicia, pero lo que hay es un funcionario vago que usa una IA que "alucina" leyes y que firma cualquier cosa con tal de quitarse el papel de encima.

Estaba pensando que aquí habría más de uno que preferiría que la instrucción de Begoña Gomez la llevara una IA en lugar del juez Peinado, que chatGPT haría una labor más justa e imparcial {0x1f605}
Cuidado que esto no sea la n-esima entrega de lo de que el estado dwmocratico no sirve, mejor confiar en un poder supremo que nos cuide a todos y que no va a usar IA.
Reddit como fuente de algo tan grave?
#_89 ??

Tomate un tranquimazín, anda
Bienvenidos a la era de la mediocridad.
Solo un inciso, lo de redactar una sentencia donde no se menciona ni una palabra del peritaje de una de las partes me ha pasado a mí antes de que existiera la IA. Hay jueces que ya la tienen redactada, al menos en su cabeza, antes de comenzar el juicio.
Menuda chorrada. Si un juez en su sentencia se inventa leyes que no existen, puedes reclamar a una instancia superior.
#96 Los jueces se protegen entre sí. Funciona como la mafia.
El problema es que tras usar la IA no comprueban si es correcto el resultado. Solo hay que buscar las sentencias a las que hace referencia.
No es algo raro, en cualquier tema legal es de lo más habitual que inventen jurisprudencia.
Pues a algún abogado también le han tirado de las orejas por escribir los recursos con IA, con los mismos errores de sentencias y leyes inventadas.
Edito
La IA es como un becario que busca en google por ti. Te ahorra tiempo, es útil, pero no puedes fusilar las respuestas que te da, tienes que revisarlas y adecuarlas al texto que quieres producir. Siempre habrá gente poco profesional que las fusile tal cual, en la judicatura y en todas partes.
Si lo que dice el post es verdad, sería algo gravísimo. Creo que todavía no estamos preparados para asumir la IA en algunos campos.
Es igual, si no usan la IA usan los protocolos.
El derecho tiene más trabajo.
Pues es el futuro (o presente, si la noticia no es bulo).

Pero claro por poder tu puedes ayudarte con un elefante que use un lápiz con la trompa, que al final lo que acabe saliendo con tu nombre será bajo tu responsabilidad. Como poco, has de supervisar que el resultado sea bueno, solo falta que ahora se use el "la IA se comió y maldefecó mi trabajo"

Y veo que ya lo han comentado por aquí.
#28 totalmente de acuerdo. Parece un poco exagerado lo que cuenta el usuario, pues no aporta pruebas concretas, pero esto va a ocurrir seguro en un futuro muy cercano. Crea incentivos perversos y vas a obtener acciones perversas también.
Esto de que lo jueces no se enteran de nada de lo que sucede en el jucio, exactamente igual que si no hubieran estado ahí, es una queja muy anterior a lo de la IA.
La IA sin control tiene mucho peligro. Y hay mucha gente que lo desconoce o le da igual.
«12

menéame