Hace 1 año | Por KevinCarter a abc.es
Publicado hace 1 año por KevinCarter a abc.es

La 'app' de Do Not Pay asesorará a un usuario en tiempo real para defenderse de la acusación, de acuerdo con 'New Sciencist'.

Comentarios

D

#1 """Quizás tendriamos una justicia más justa."""

No, simplemente diríamos que no funciona.

Igual que cuando ChatGPT sacó a relucir todas las incoherencias del feminismo español, y simplemente los usuarios de Menéame tiraron la noticia. (Mientras subían chorradas a favor o en contra de Irene Montero de mucha menos calidad.)

La IA no puede superarnos en nada donde quienes tengamos que evaluar su desempeño seamos los humanos.

c

#5 Denis, de verdad que discernir si tus alegaciones acerca de una multa de tráfico son admisibles o no, necesitamos que un tipo estudie un grado de derecho y oposiciones a juez? Creo que te coges la ley y la aplicas, si se ajusta o no, no creo que sea tan difícil. Vamos que tú y yo no somos superdotados y seriamos capaces de hacer esa labor. Al menos en ese tipo de juicios del que estamos hablando.
Y por cierto, ChatGPT, lo estoy probando y te puedo asegurar que es para conversar y tratar textos, en el momento que usas como base de datos falla. Hasta yo le supero, y no me considero precisamente especial.

D

#7 Pues habrá de todo, no siempre las cosas son blancas o negras.

m

#8 se llama jurisprudencia.

PasaPollo

#7 Depende de qué clase de multa y de sus circunstancias. Lo de "te coges la ley y la aplicas" es parecido a un "Calcular la tensegridad de un puente es sencillo. Te coges la fórmula y la aplicas. No necesitamos ingenieros de estructuras".

Fernando_x

#5 lol

que obsesión

N

#5 Ostia puta, hay tantas absolutas gilipolleces en lo que estas diciendo que se verdad me has desmontado hasta las ganas de rebatirte, es que no hay un sitio por donde coger semejante despropósito, felicidades creo que es difícil hacerlo peor

D

#31 Pues siento mucho que pienses así. Supongo que es culpa mía por comentar varios asuntos relacionados y polémicos.

PasaPollo

#5 ¿Qué incoherencias del feminismo? ChatGPT te puede poner a Rafa Nadal como defensor del nacionalismo gallego y argumentártelo, como puso aquí un meneante. El catedrático Jacobo Dopico compartió cómo le preguntó a ChatGPT por un delito inexistente y la IA le respondió con una parrafada muy convincente.

¿Y ChatGPT es tu argumento de autoridad?

toche

#5 #41 A ver, que ayer mismo ChatGPT me hizo la sinopsis de un capítulo de los pitufos en el que viajaban a una Gotham alternativa en la que Bruce Waine era un detective pacifista sin traumas infantiles... No sé yo...

D

#42 Mmm... Supongo que quieres decir que como se inventa cosas, en ese caso que mencioné igual no estuvo muy acertado. Pero en realidad sí lo estuvo, y cualquiera puede comprobarlo.
Lo que no entiendo es por qué mi comentario ha cosechado tantos votos negativos. Realmente hay mucha obsesión con Irene Montero en esta página, y eso hace que envíos de poca calidad relacionados con ella obtengan una difusión exagerada. ¿A quién puede molestarle que se hable de ello?

toche

#46 A ver si estuvo acertado porque acarició dulcemente tu precioso sesgo de confirmación...

D

#57 No soy de esos.

D

#41 """¿Qué incoherencias del feminismo?"""

¿No leíste el artículo/entrevista? Era bueno.

"""¿Y ChatGPT es tu argumento de autoridad?"""

No hay argumento de autoridad, porque no estoy diciendo que el artículo fuese bueno por haberlo redactado ChatGPT.

p

#1 te recomiendo leer todo el asunto de algoritmos judiciales de Propublica: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

L

#6 de hace casi 7 añazos... Al ritmo que se desarrolla ésto, es como leer un libro de medicina de hace 70 años.

p

#18 es un tema, no solo es esa entrada. Se corta en 2018 en Propublica ya que en ese momento se funda https://themarkup.org/ por el grupo de investigación de Propublica pero ahí ya cambia bastante la postura de investigación.

Por cosas como esa investigación salen leyes como ésta: https://diariolaley.laleynext.es/Content/DocumentoRelacionado.aspx?params=H4sIAAAAAAAEAC1Ny27CMBD8GvZSqdoYEPSwl0APlRBCEPW-cZbEUmq39jqQv69bOIxGM5rHT5Y4N3JXWuILLzLitQoJ0uyDn7-oiVlAuU2Ei42tCgyw1czjPlhabf-Em6ThlgyE2EmsZ0LQoDyeJVFltitIQ7gdeXI9qwu-5viYdV1Hx3dENNUbms0aJompBOjT9eJVYHD9cCjQRz4JRzucuBf68M668Mrp-_6066xaqq36y78GOxbes8qOR_Hd8_QXAxtVSO8AAAA=WKE

p

#30 el que compra el algoritmo manda y el que más recursos tiene manda más. Ver #6 y #32.

Jesuo

#35 sobre el sesgo de la máquina hay que dejar claro que la máquina, el algoritmo no puede estar sesgado, esos algoritmos tendrían que ser de código abierto, para que los demás puedan comprobar la integridad con testeos. Si la máquina está sesgada es por que o la han sesgado con el corpus que sería una copia de la sociedad o el sesgo que haya introducido el programador creando un modelo de lenguaje moldeado al gusto, en el caso que se cita #6 no es la IA la que está sesgada, esta solo confirma que es la sociedad quien lo está contra los negros.

No se puede patentar algoritmos que estén relacionados con la vida o la supervivencia de la vida, con la sociedad o sus integrantes, no es permisible de manera alguna. Como las leyes nos atañen a todos y es de dominio público es lógico que se prohíba el ánimo de lucro ya que es poner precio a una de las herramientas necesarias para los ciudadanos y la sociedad.

l

#37 Si es una red neuronal entrenda en realidad no hay algoritmo y es una caja negra casi imposible de descrifrar.
Tambien son dificiles de testear, hay un Algo de ordenacion que es por IA, a funcionado en todos los casos, pero no se sabe si funcionara siempre, porque no se puede comprobar matematicamente como los pasos de un algoritmo.

La IA tambien se equivocan, identifican como mujer un señor con delantal en una cocina o una pareja de negros con cesped detras como gorilas o monos.

#40 Las mejoras de productividad no te sirven para tener más tiempo sino para que te metan más trabajo. Terminamos echando más extras que antes, pero eso no es el tema.
En otros casos cuando has conseguido reducir el trabajo por el que te pagaban, te echaban, en meneame se muestran muchos ejemplos.

Yo creo que las maquinas tambien pueden desarrollar la etica, pero hay que entrenarla, por otra parte es debatible y no todo el mundo piensa lo mismo. En muchas ocasiones tienes que decidir entre dos soluciones malas y nunca te van a satisfacer.

Una maquina o nuevo sistema va a cometer nuevos errores que antes no se cometian, pero a veces lo compensa con lo errores que corrige.

Por ejemplo, un coche autonomo puede fallar en cosas que un humano no y no fallar en las que un humano si.

Por otra parte, la empresa a usado esa productividad para producir mas cantidad. Tambien se podria usar el tiempo libre de los casos rutinarios para dedicarlos a los que necesitaban tiempo no automatizado o una mezcla de ambos.

Hay una ley que no recuerdo, referido a la energia, pero viene para tu anecdota.
Que cuando aumenta la eficiencia, no se reduce el consumo, sino que aumenta los usos y se acaba gastando mas.

p

#43 En principio se está creando una caja de arena para testear inteligencias artificiales para el uso de la UE: https://data.consilium.europa.eu/doc/document/ST-15698-2022-INIT/es/pdf
No hay nada propiamente técnico si te ibas a animar a leer el documento buscando eso, sólo 30 millones de multa por incumplir esas normas que apuntan esta propuesta.

Jesuo

#43 #48 Es que decir que no puedes testear si la IA toma decisiones correctas porque si un orden matemático desconocido que si tal que si cual ¿te lo has inventado o que? tienes una respuesta por lo tanto con ingeniería inversa se pueden conseguir todos los tensores y datos conectados con sólo preguntas conectadas a la respuesta dada, una tarea que sólo otra IA o software dedicado puede hacer, esto en el caso de que quieras conocer cómo funciona por dentro, si sólo quieres comprobar que los resultados son correctos ya tienes las propias respuestas de la IA para testearlo.

La máquina no comete errores, es el humano el que los comete, la máquina es una herramienta.

Aokromes

#1 juraria que una amiga abogada me conto hace muchos años que ya los habia visto funcionar en un juicio......

https://i.imgur.com/PTdCNBB.png

http://www.larepublica.co/software-de-jpmorgan-reduce-segundos-360000-horas-de-abogados_477636

Jesulisto

#1 El día que una IA sepa manejar los embustes necesarios para ganar un juicio, más vale que nos busqemos un refugio en la montaña.

j

#1 Pues sí. Así lo están demostrando las máquinas. Son parciales, reconoce las leyes sin equívocos. E igualmente las sentencias según las leyes establecidas. El error sería mínimo. Serían parciales y objetivos.

#27 Quieres decir Imparciales. Si fueran parciales, elegirían en favor de un bando u otro.

j

#28 Supongo que sí. En mi mente era parcialmente neutros o parciales a las leyes.

Jesuo

#1 Si la IA "comprende" las leyes, ten claro que se verían todas las cloacas legales y que no habría juicio que perdiese, pero lo mejor está en que se vería la intención de los que han creado que leyes, cuando y porqué, que suelen camuflar con excusas y sobornos, a una IA no la puedes comprar o atemorizar, no puede mentir, y un modelo de lenguaje creado con el código civil y el código penal sería un primer paso para conseguirlo.

c

#1 Depende de quien lo programe. Si es el mismo que hizo el Windows Vista (judicial) estamos jodidos.

K

#40 Me ha gustado la batallita me ha parecido interesante.
Pero solo decir que si era un sistema más justo. Antes os dejabais influir por las circunstancias con el nuevo sistema solo importaban los hechos es decir los números.
Se dice que la justicia debe ser ciega.

PasaPollo

#44 Hm, pues yo no estoy de acuerdo. La equidad es un fundamento de la justicia, al igual que los principios generales del derecho. Lo justo es también, en mi opinión, tratar de forma desigual a quienes no son iguales.

¿Crees que es lo mismo robar para comer que robar para lucrarse?

l

#40 Hace tiempo hoy de un wiki para desarrollar estrategis de defensa, etc. En derecho no solo hay que saberse las leyes tambien esta como se expone el trabajo. En un wiki colaborativo hay muchas cabezas que pueden aportar ideas y casos parecidos que se pueden reutilizar argumentos.

Ahora se le podria pedir a un GPT, igual que un escritor para tener ideas, pero ya seria un buena ahorro de tiempo que solo haya que supervisar y corregir un texto generado a que ademas haya que escribirlo.

Tambien para hacer resumens de casos de miles paginas, no se como se leen eso o si se lo leen todo.

Hay gente que es capaz de leer paginas en segundos, pero no creo que sean muchos entre los jueces.

c

#40 Me ha gustado que hayas comentado todo lo que se monto con un Macro de Word. Sí, conozco abogados que tienen trozos de texto preparados y simplemente copian pegan.
Además en un juicio europeo es repetir articulos, agregar documentos, alegar por qué si o no y el juez se lo estudia.
Cuando haces un pliego de descargo por una multa de tráfico, creo que tienes un margen muy pequeño.
PasaPollo, no creo que puedas alegar que tengas leucemia, violencia domestica, etc. Tienes un argumento para justificar que no te apliquen la ley se seg.vial o no.
Mira hay un juez americano muy mayor, que sale continuamente reelegido, que de vez en cuando sale en internet porque hace sentencias poco comunes o absuelve. Creo que está el caso de un señor de 80 años que llevó a su hijo a quimio y se pasó un Stop. Finalmente le absolvió. Dudo que esto pueda suceder aquí. Una vez que tengas el boletin de la denuncia, estás perdido.
Aquí no estamos hablando de politización de la justicia ni nada. No sé si el sistema de elección de jueces de primera instancia nos vendría bien aquí.
Por otro lado, si todos los jueces son iguales, no hay motivo para acudir a una siguiente instancia. Porque siempre van a fallar de misma manera, no? Ese es el problema que yo pretendo evitar. Si es un bot, no hay ni amiguismos, ni mejores o peores jueces.

PasaPollo

#51 Tienes un argumento para justificar que no te apliquen la ley se seg.vial o no.

Pero la ley es un sistema amplio y que se retroalimenta. No encontrarás en la ley de tráfico referencias a la fuerza mayor, al miedo insuperable, a defectos de fabricantes que sí aparecen en otras normas y que pueden tener relevancia. La ley no te dirá qué pruebas pueden ser relevantes o no. Tampoco te informará de cómo presentar mejor el caso. La ley no te hablará de si el día que te pasaste de velocidad venías del funeral de tu padre. Quienes creen que la ley es un mero silogismo de que a conducta A le toca sanción B creo que no entienden bien ni la ley ni al ser humano.

S

#40 Se olvida que esas programas son herramientas... por ejemplo, en el caso de la IA que ganó un concurso de arte, se olvida que esa IA tiene un trabajo de entrenamiento, y que luego un humano tenía que ejecutarla muchas veces con distintos parámetros para generar el resultado ganador.

Así como decía en #55 es fácil una IA también tenga sesgos, a veces desconocidos, y ya ha pasado muchas veces. Destaca mucho cuando una IA se vuelve racista, pero nunca sabes si tu IA termina "odiando" a los que se llaman Antonio han nacido en 1973 solo por motivos de inferencia estadística...

En todo caso, creo que lo que dices es otro problema, y es cuando un programa se convierte en la norma. He visto muchas aplicaciones de la administración que terminan siendo mucho más restrictivas que el procedimiento que informatizan, a veces simplemente porque el informático de turno decidió que una casilla era obligatoria... y ahora es inamovible que sea obligatoria siempre y para todos.

c

#1 En la serie de abogados The Goog Fight sale en varios episidios empresa montada por dos jóvenes que alimenta un algoritmo con sentencias antiguas de jueces y predice que fallará en juicios futuros. Eso les permite estimar el riesgo que se corre al prestar dinero para su defensa a encausados y las posibilidades de tener una sentencia a su favor. Tiene pinta de que algo asi funcionará o está funcionando ya.

De hecho ahora mismo cuando un juez español emite una sentencia "polémica" y buscas su nombre en Internet ves que apuntaba maneras en sentencias anteriores.

S

#1 Por desgracia, las IA también son susceptibles a sesgos, quizás con el problema añadido que los sesgos sean mucho más rebuscados e incomprensibles que los de un humano. Una de las ventajas que tienen, por ejemplo en medicina, es que el sesgo suele ser reproducible. Ahí no importa tanto que una IA esté más o menos sesgadas para delimitar un tumor en una imagen médica, importa más que su criterio sea "reproducible".

#3 aquí tenemos apasapollopasapollo

m

Espero que no lo acusen de Delito de Transbordo, aunque en Menéame conseguimos crearlo.

r

El abogado que tengo aquí colgado.

ronko

#4 Éste lo tendrá USB.



El pendrive .

s

#4 El abogado que tengo aquí enchufado

ChanVader

Todo lo que no sea empezar con un «Ebrios patanes del jurado» será una absoluta decepción

kampanita

Me imagino al próximo abogado en ChatGPT, con toda las bbdd de jurisprudencia en su conocimiento ... además del código penal, código civil, etc. - Va a ser más divertido que ver a DeepBlue ganando a Kasparov.

Imag0

- Y tú que haces aquí?
- Mi abogado la cagó y me metieron 5 años.. cómo has dicho que te llamas?
- Jonny Dedos, mi abogado se reinició y ahora me pasaré 12 años a la sombra.

D

Primero las Real Dolls y luego los abogados, algo tendrán en común

Battlestar

No durará nada. Sus sentimientos y empatía la pondrán en desventaja con respecto a los abogados humanos

hombreimaginario

Me llamo C3-PObogado y el usb lo tengo aquí colgado.

chemari

A ver para cuando un traductor texto legal - humano. Ese lo petaría.

devilinside

#20 En ese caso los textos legales se publicarían a mano con letra de médico. Leí una vez, puede que fuera en un libro de Tomas Szaz, que los médicos tenían buena letra cuando hacían recetas en latín, para que no les entendieran los pacientes. Cuando les obligaron a hacerla en una lengua viva, empezaron sorprendentemente a tener la peor letraja del mundo

Para esos casos viene bien un infiltrado en la sala con un jammer que le corte la señal a la app. Ganas los juicios por incomparecencia del abogado defensor.

El_perro_verde

#_5 ¿pero qué inventas?

D

No veo mucha trascendencia, hace años que podían haber debutado, el supermaestro online, que es algo mucho mas fácil y aceptable por todos y nunca se ha producido, un poco de humo

d

Me parece perfecto.
Los abogados "reales" no se como pueden dormir defendiendo a asesinos, violadores, terroristas, y demás yerbas, buscando defectos pavos en las acusasiones para que éstos salgan libres.

Y a la noche van a su casa y saludan a sus hijos y a su mujer diciendoles "te quiero".

b

... y si debuta contra el primer fiscal robot?, que debatan por USB... esto es absurdo

j

A cualquier cosa le llaman robot. Se tratará de un programa, un algoritmo que identificarà ciertas palabras y realizará una búsqueda filtrada en una base de datos, aportando unos textos resultado, que concatenará según unas normas gramáticas y una cierta lógica establecida. De esto a ser "inteligente" y suplir a los profesionales hay un mundo. No se avanza tan rápido en IA como muchos medios quieren hacer creer.

Marticia

¿Nadie se ha preguntado que va a ser de todas esas personas que van a ser sustituidas por la IA? Porque las máquinas no cotizan.