El magistrado Vicente Magro sostiene en Confilegal que la inteligencia artificial no debe emplearse para dictar sentencias, pues aunque puede agilizar la obtención de información, no puede sustituir la función jurisdiccional ni la motivación humana en las decisiones judiciales. Argumenta que delegar funciones decisorias en algoritmos socava principios jurídicos fundamentales y aboga por limitar el uso de la IA a apoyo informativo y no a resolución directa de conflictos.
|
etiquetas: confilegal , inteligenciaartificial , justicia , derecho
Quizás sea de lo más efectivo para agilizar la justicia española que está más que atascada.
Se supone que los jueces solo hacen cumplir las leyes, no son parte... ¿O sí?
La de políticos y amigos que iban a acabar en la cárcel que de otra forma por errores judiciales, alargamiento de juicios, etc se han ido de rositas.
Para el resto de la gente peor no nos puede ir.
Fuera de la justicia mafiosos!
El algoritmo se puede corregir, la mafia no.
Este es uno de los grandes peligros de esas automatizaciones, ya sean IA u otras.
Lo sé, soy un soñador.......
Para meter los datos sobra con un administrativo. Nos ahorramos una pastita.
Mejor que cada uno haga su trabajo.
Y sino mirad a Grok cuando se trata de comerle la polla a Elon Musk, pero eso es un comportamiento programado a conciencia.
En algunos casos como matemáticas, pues sencillo. Metes el mogollón de exámenes en una especie de escanner y en un rato los corrige (ahora el profe tiene que corregirlos durante horas, a veces en su casa los fines de semana). Pero también es capaz de analizar exámenes de literatura o filosofía. ¿Lo hará bien o mal? No se sabe, pero siempre se tiene derecho a revisión y el profesorado lo va a… » ver todo el comentario
¿Político objetivamente corrupto? Al trullo. A la IA nadie la ha nombrado a dedo ni le ha pagado unas vacaciones o un puesto de notario al hijo tonto.
confilegal.com/20251212-marchena-quien-responde-por-una-auditoria-erro
En un desarrollo complementario, el magistrado Manuel Marchena advierte en otra pieza del mismo medio que, incluso en auditorías apoyadas en IA, la responsabilidad última de cualquier error recae en profesionales humanos y no puede eludirse alegando “confianza en el algoritmo”. Este enfoque refuerza la idea de que la IA debe limitarse a funciones auxiliares y no a decisiones con impacto jurídico o profesional pleno.
El primero en sobrar es el inútil y corrupto del Marchena
"sustituir la función jurisdiccional ni la motivación humana"
¿Que coño significa eso? ¿Me tiene que bendecir un enchufado premium para saber que significa esa cosa?