Envío erróneo o controvertido, por favor lee los comentarios.
Escribo esto porque lo que estoy viendo en el día a día de nuestro despacho es para denunciarlo en el Tribunal Constitucional o en Estrasburgo. Trabajo en el despacho de mi familia, somos un equipo pequeño y llevamos "un poco de todo": civil, laboral, penal, divorcios... lo que sea. Siempre hemos tenido respeto por la judicatura, pero lo que está pasando últimamente es una estafa procesal absoluta liderada por jueces que han decidido dejar de trabajar
|
etiquetas: chatgpt , justicia
El Ministerio de Justicia ofrece tecnología basada en inteligencia artificial para mejorar sus servicios
www.mjusticia.gob.es/es/institucional/gabinete-comunicacion/noticias-m
ADIA es una aplicación impulsada por inteligencia artificial, diseñada para optimizar el procesamiento de documentos. Ofrece las siguientes funcionalidades:
www.administraciondejusticia.gob.es/-/adia-anonimizado-de-documentos
Ahora bien, el artículo de reddit huele a generalización (he visto que uno lo hace, digo que lo hacen todos) y a propaganda anti funcionarios.
Lo que más me indigna es que la culpa es 100% de la desidia de los jueces. Están cobrando sueldos públicos altísimos por tutelar nuestros derechos, pero han decidido que es más cómodo externalizar su cerebro a una máquina.
Los ciudadanos confían en que hay un humano detrás valorando su caso con justicia, pero lo que hay es un funcionario vago que usa una IA que "alucina" leyes y que firma cualquier cosa con tal de quitarse el papel de encima.
#1 como?
www.meneame.net/search?q=Uber+eats
Bastaba conque el otro no le hubiera contestado para que ahí hubiera terminado todo y no se hubiera podido demostrar nada. Aquí bastará conque el supuesto "abogado de un bufete familiar" haga lo mismo para que no se pueda demostrar nada.
Y supongo que, si es medianamente inteligente, no contestará ni entrará al trapo de ninguna pregunta que le hagan, so pena de que le denuncien desde la judicatura por calumnias.
Pero lo que ha escrito quedará
Pero si pone un párrafo cortado de una sentencia original siempre se puede decir que lo ha generado en el momento.
Y si pone la sentencia entera se llega rápido al bufete que participaba en el juicio.
Así que quedará todo igual. Publicado, pero sin investigación posterior que lo corrobore o desmienta
Me he liado
Disculpas
Se ha publicado desde una cuenta que se creo hace 2 semanas y que no tiene mas envíos ni comentarios fuera del tema.
Además la noticia que pone tiene rastros de haberse hecho con Chat GPT.
De hecho en Reddit han bloqueado los comentarios. Yo lo pondría en la nevera.
cc #2 #5 #7
Por no hablar que aquí los juzgados no sacan una sentencia en 24 Horas ni usan todas las IA juntas a la vez.
«Por motivios obvios no voy a poner numeros de las sentencias por preservar mi anonimato pero te copio una parte:
TERCERO.-. Esta sala se acoge a la doctrina fijada en la STS 4829/2024 de 14 de mayo (Rec. 112/2024), que establece que "las dolencias de carácter degenerativo no son per se causa de incapacidad si no existe un colapso funcional documentado por la entidad gestora". Si buscas esta sentencia en el CENDOJ, no existe. El número de recurso y la fecha son una alucinación de la IA»
Es el identificador de otra sentencia, que supuestamente se ha usado como justificación de que habría jurisprudencia en la sentencia de un caso en el que ellos participan.
trabajo.
Por otro lado quien/que le dice a la IA que algo esta bien o mal, si ya lo creado por lo puramente humano (leyes, sentencias, etc) ya tiene muchos fallos.
#71 Yo no veo mal que se utilice la IA, pero hay que darle un visto bueno profesional y es muy tentador caer en darle todo a siguiente sin hacer un revision adecuadad. Pero al final el… » ver todo el comentario
Y a eso se suma la cita sin sentido de jurisprudencia que ni le da la razón al fallo, pero es un copiapega sin sentido. Por supuesto que como dice #59 citar jurisprudencia es positivo y necesario, pero algo de razón tiene #2 cuando ves que las citas a menudo no aplican al caso, o son una marabunta sin sentido, o como digo se quita la razón a sí mismo.
Puede ser que algunos jueces "subcontraten" la parte más tediosa del copiapega. Pero esto es un círculo vicioso, porque si coges algo de otro tribunal y lo pones, y ese tribunal usó ChatGPT con sentencias falsas, también lo incorporas; y el que te cite a ti también, y así se propaga.
Y una vez que tienes el texto generado por IA, es muy tentador copiarlo al… » ver todo el comentario
Yo llevo meses usando IA pero reviso todo lo que firmo.
La ia esta muy bien para pedir 3 sentencias que digan X, te da una cierta y 2 que son mentira, compruebas las 3 , citas la buena y has tardado mucho menos que antes de la IA.
El problema es que hay gente tan vaga que que coge las 3 sin comprobar nada.
Y este escribe de jueces pero abogados haciendo eso mismo a patadas.
#23 ahora es peor pero citas de sentencias que no tienen nada que ver hubo siempre, incluso citas de sentencias que entrecomillan una cosa que conviene y luego la sentencia dice " no obstante..." y falla exactamente lo contrario.
El mismo gobierno de los EEUU son una panda de vagos redomados.
Su informe MAHA es un ejemplo de su incompetencia e ignorancia:
El informe de RFK Jr. para "Hacer Estados Unidos sano" está hecho con ChatGPT y cita estudios que no existen
www.meneame.net/story/informe-rfk-jr-hacer-estados-unidos-sano-esta-he
Como se puede enseñar a un IA a no cometer los mismo errores de los humanos y del material con la que la entrenas?
Como puedes enseñar a hacer algo que no sabes muy bien como se hace?
#69 Uno de los trabajos de un piloto es no cansarse, no se lo aceptable que es ver peliculas, etc.
Pero los automatismos, te… » ver todo el comentario
El Ministerio de Justicia ofrece tecnología basada en inteligencia artificial para mejorar sus servicios
www.mjusticia.gob.es/es/institucional/gabinete-comunicacion/noticias-m
ADIA es una aplicación impulsada por inteligencia artificial, diseñada para optimizar el procesamiento de documentos. Ofrece las siguientes funcionalidades:… » ver todo el comentario
www.lavozdeasturias.es/noticia/actualidad/2026/01/05/investigan-abogad
Quien piense que la IA no se acabará usando de forma masiva en la justicia, pues es un iluso.
Por supuesto, eso no quita que abogados, fiscales y jueces no deban revisar bien lo que presentan. Pero vamos, que usar IAgen, se está usando. Y se seguirán usando.
De hecho ni siquiera sé de dónde te sacas lo de ”he visto uno que lo hace”. El testimonio no dice nada parecido. No es que él esté generalizando, eres tú el que intenta particularizar sin ninguna base.
La justicia española ya tiene problemas suficientes y los jueces son de bastante mala calidad como para tenerse que inventar nada.
Aquí por ejemplo están recopilando casos en los que los tribunales han detectado alucinaciones en los escritos presentados por alguna de las partes:
www.damiencharlotin.com/hallucinations/
Si en España las sentencias son públicas en general, deberían de poderse encontrar algunas directamente con esas alucinaciones, lo que que proporcionar pruebas debería de ser fácil.
falsos o inexactos desmontaría la propia sentencia.
La gente cada vez tiene mas carga de trabajo en trabajos que no les entusiasman. Si pueden tirar de una herramienta para acelerar procesos y tardar menos tiempo en sacar faena adelante, lo hará.
"Pero angelito, yo no la uso". Genial. Pues dependerá de tu trabajo, pero si es un trabajo "de oficina", asume que estás, o acabarás estando, en un grupo minoritario
La gente cada vez tiene mas carga de trabajo en trabajos que no les entusiasman. Si pueden tirar de una herramienta para acelerar procesos y tardar menos tiempo en sacar faena adelante, lo hará.
Es el centauro inverso www.meneame.net/m/Fragmentos/centauro-inverso-cory-doctorow
"es lo que Dan Davies llama un «sumidero de responsabilidad». El trabajo del radiólogo no es realmente supervisar el trabajo de la IA, es asumir la culpa por los errores de la IA"
A mi me parece muy bien que esos jueces o quien sea use la IA. Pero si luego tienen consecuencias legales para ti por sus cagadas agarrate los machos.
Se me ocurren los pilotos de avión y los maquinistas. El otro día leí en un grupo de aviación de Reddit que aunque está prohibido los pilotos se pasan casi todo el vuelo, sobre todo si es largo, mirando películas y series. Los maquinistas, por lo que sé de mi familia que muchos han trabajado en el sector, están más bien para emergencias y para casos excepcionales, el tren más o menos suele "ir solo".
Que no nos pase nada...
Y si, habia manipulación. Pero esto ya es grado "pro".
O nos educamos o nos vamos a la mierda definitivamente
La manipulación posible era muchos grados menor
Hasta los cojones de los Bros de la IA.
Ejecuta su algoritmo que da lugar a un resultado y lo presenta.
Y ya.
Un algoritmo se ejecuta y produce resultados. Punto.
El algoritmo puede no ser adecuado o que sean los que tienen su control los que mienten y engañan. No "la IA".
Cuando falla y cuando acierta el proceso es el mismo, elegir el texto que probablemente sea más correcto.
Por eso la puedes usar para programar si sabes programar y no eres un vago.
Para sentencias judiciales vendría a ser lo mismo.
Las "alucinaciones" ocurren al menos un 30% de las veces.
No es posible corregir esto, ya que hacen lo que deben hacer. Seguirá habiendo alucinaciones mientras haya LLMs.
Para comprobarlo basta con preguntar sobre algún tema que controles y dejes que la magia fluya...enseguida notas cosas raras y si le confrontar enseguida recula y te cuenta mas y mas mierdas.
Lo cual es normal, toma info de tantos sitios con bulos o que pasan opiniones por datos que no puede ser una fuente fiable.
Y además, me da que no tiene baremo de la calidad de la fuente. Igual si esas 30 fuentes estuvieran categorizadas de alguna manera como no fiables las fuentes fiables tendrían mas peso que las otras...
No el acudir a IA, sino que el juez acuda a legislación inventada.
Usar la IA, se puede usar, pero claro el responsable final es el que acude a ella sin cerciorarse de que la información es correcta.
La IA es una herramienta, bien usada puede ser de mucha ayuda, pero lo contrario también puede ser desastroso.
Hace bastantes años, vi un reportaje sobre un abogado de EE.UU. que usaba una aplicación… » ver todo el comentario
Estaba pensando que aquí habría más de uno que preferiría que la instrucción de Begoña Gomez la llevara una IA en lugar del juez Peinado, que chatGPT haría una labor más justa e imparcial
Reddit como fuente de algo tan grave?
Tomate un tranquimazín, anda
El derecho tiene más trabajo.
Pero claro por poder tu puedes ayudarte con un elefante que use un lápiz con la trompa, que al final lo que acabe saliendo con tu nombre será bajo tu responsabilidad. Como poco, has de supervisar que el resultado sea bueno, solo falta que ahora se use el "la IA se comió y maldefecó mi trabajo"
Y veo que ya lo han comentado por aquí.