Hace 2 años | Por lectorcritico a rtve.es
Publicado hace 2 años por lectorcritico a rtve.es

Documentos TV analiza junto a juristas, filósofos y expertos si sería recomendable la utilización de la inteligencia artificial en la justicia.

Comentarios

D

Madre mia la que se nos viene... tremendo desproposito
Inteligencia artificial como una via para obtener una justicia no politizada y mas neutra?
Pero quienes creen que crearian los algoritmos, y entrenarian los modelos ?

KuroBulled

#3 Skynet

comunerodecastilla

#3 El clásico "la culpa, del informático" llevada al extremo.

e

#3 Ya lo contó la revista 1984 en los primeros años ochenta: "El extraño jucio a Roy Ely". (Dibujo Juan Gimenez y guión Emilio Balcarce)
El juez robot estaba programado para fallar a favor de la multinacional.
https://www.zonanegativa.com/el-extrano-juicio-a-roy-ely-y-otros-comics-de-ciencia-ficcion/

D

podría ahorrar millones de euros ...Sí, sería recomendable

s

Las redes neuronales artificiales aprenden de los humanos y la info de estos y adquieren los mismos sesgos como un crio aprendiendo de sus padres. Un crio con mucha memoria pero con los sesgos y formas de sus padres ¿es eso lo que se desea que juzgue a la gente?

KuroBulled

#4 Yo quiero que me juzgue un señor robot. Con su tranquilidad, con su parsimonia, con sus cálculos complejos, con sus otras CPUs resolviendo problemas de ajedrez o renderizando porno.

Y que si tiene que desalojar la sala lo hagan dos clones suyos a collejas metálicas entre los presentes.

sevier

#7 ostras, leyendo tu comentario me ha venido a la mente esta canción. No sé si la conoces.

s

#7 probablemente serán TPUs o chips neuromórficos tipo loihi , redes neuronales de aprendizaje profundo educadas (con sesgos) por humanos... No un sistema experto necesariamente escrito el prolog. Aunque un sistema de razonamiento con prolog y reglas de sistema experto tal vez podría añadirse como otra capa de proceso

KuroBulled

#13 Los sesgos deberían ir reajustándose a base de granularizar en n parámetros potenciales cuando se encuentre una diferenciación significativa en una comparación cualitativa de dos variables. Especialmente para reajustar los sesgos derivados de correlaciones estadísticas, y para redefinir los parámetros culturales que se apliquen, que son más subjetivos de medir.

Ejemplo, imaginemos que establecemos una pena de 50 latigazos para todo aquel que se ponga calcetines llevando chanclas. El sistema llega a la conclusión de que "si eres blanco" es mucho más probable que cometas ese crimen que "si eres negro".

Lo primero sería añadir el resto de parámetros que falten: ejemplo, asiáticos, y repetir la comparación. Después, añadir granularizaciones:

-1°. Reajuste de parámetros. Elegimos un parámetro que pueda ser cercano cualitativamente hablando respecto al anterior, por ejemplo, procedencia geográfica: Pasa lo mismo entre cualquier blanco comparado con cualquier negro, o resulta que si contabilizamos solo los blancos de Alaska entonces el resultado cambia drásticamente?

-2°. Reajuste de conjuntos: Si la procedencia europea influye de forma más significativa que la de Alaska, ¿es la procedencia europea un factor significativo de agrupación? ¿Qué pasa si comparamos un europeo blanco con uno negro? ¿Hay diferencia significativa entre ellos? ¿Y si comparamos a un europeo con un chino?

-3°. Iésimo ajuste de parámetros: Viendo que el modelo de entrenamiento tenía un alto sesgo tras compararlo con un conjunto ampliado de datos (con una distribución uniforme sobre el parámetro geográfico), se rejusta el la función de coste para añadir el parámetro geográfico y darle más valor al mismo.
Comparando a europeos vs no europeos (vamos a imaginar para este caso de ejemplo que los chinos no cometen semejante pecado) vemos que obtenemos un modelo más fiable, así que volvemos a buscar si hay sesgo al ampliar los parámetros.
Como esta vez posiblemente no hay un único parámetro "cualitativamente cercano" sino varios a la vez, añadimos varios:
* Nivel de renta
* Nivel educativo
* Religión
* Ideología política

-4°. Granularización. El resultado del reajuste de parámetros no nos ha proporcionado correlaciones significativas entre los distintos subconjuntos. Contando la procedencia geográfica (europea) como parámetro de mayor valor sobre todo el universo de datos, granularizamos:
*Procedencia dividida en unas pocas zonas relativamente homogéneas entre sí (ese cálculo de "posible homogeneidad" requeriría de su propio entrenamiento)
*Procedencia por países.

-5°. Reajuste de conjuntos. Viendo que los europeos del norte tienden más a cometer ese crimen que los del sur, reajustaríamos la comparación entre zonas primero, y por países después.

-6° En caso de que en una prueba aleatoria con una muestra suficientemente grande obtuviesemos una predicción "perfecta", podríamos dar temporalmente por concluido el proceso de ajuste.
En caso contrario, repetiríamos la iteración desde el punto 1°.

Finalmente la juezIA concluiría que ese delito lo cometen principalmente los guiris ingleses y alemanes. También concluiría que, no obstante, hay una incidencia estadística significativa en europeos de otros lugares: gallegos, italianos. Se podrá completar la conclusión con que es un comportamiento con peso de valor w1 sobre el parámetro cultural (mucha gente allí lo hace y tiende a repetirse el comportamiento entre cercanos) y, por ejemplo, con un peso de valor w2 sobre el parámetro "higiénico" (comodidad, evitar sudoración de pies, etc).

KuroBulled

#14 --> #15

s

#15 ¿los de una re neuronal que no van por variables sino por pesos en neuronas y luego relaciones de pesos en los tensores activados?

¿estás seguro que hablas de la misma cosa? Los sesgos se reajustan como se reajustan los sesgos humanos si acaso (constraste con más cosas y una capa de razonamiento si acaso para contrastar cosas entre sí)

>

Los sesgos son básicamente por razonamientos de probabilidad de casos a valorar sobre casos que se creen conocidos y esas cosas. Son sesgos..

Creo que estás razonando sobre tu propio modelo del asunto

>
Normalmente es al revés, las I.A. tienden a creer que es más probable si eres negro que serás menos eficiente si eres mujer si se le han dado los arrestos y partes de los policías o la contratación histórica y valoración de una empresa puesto que la I.A. aprende de lo que se le da y sesga según lo que ha aprendido.

Si en las contrataciones se discrimina más a las mujeres y a los negros, la I.A. está viendo esa discriminación en la info que le dan para que aprenda como ha de hacer o valorar o juzgar las cosas o la realidad y lo hace segadamente

Cuando haya de aplicar una regla para juzgar a alguien en el mismo juicio sesgará lo que haya de podido suceder en la realidad para luego aplicar la regla. El mismo tipo de sesgo que ha aprendido de los humanos

Y de hecho es lo que ha ido ocurriendo, o sea que ha ocurrido ya esto.

No valen tus "reajustes" que veo que te has currado a partir de tus ideas. Porque la I.A. tiene mal ajustados los pesos de las neuronas y eso es incontrolable, no es posible ajustarlos manualmente, es una caja negra total sino que se ajustan con enseñanza y educación como a un animal o según las capacidades como a una persona con sesgos.


Lo que dices como reajustes en realidad se ha de hacer a la información que se le de para educar a la I.A. antes de enseñarla e ir corrigiendo su educación

porque se trata de educar cuando tienes una I.A. basada en redes neuronales de aprendizaje profundo

>
No. Eso es válido para los pesos relacionados con ese conjunto de tensores de neuronas, no para el resto

KuroBulled

#17 Parece que hayas escrito el mensaje en danés y luego me lo hayas pasado en google translator.

Vuelve a leer mi comentario (y a entenderlo bien, que no lo has entendido, y una IA no tiene por qué basarse únicamente en una red neuronal, ni su entrenamiento basarse únicamente en un humano) y luego respóndeme en castellano.

s

#18 he nombrado diferentes niveles de procesamiento. Pero evidentemente una buena parte se va a basar en redes neuronales y además he hablado de otra capa de procesamiento a base de prolog, razonamiento lógico y sistema experto. Pero necesitas de la red neuronal si realmente quieras que sea potente, se entere de las cosas y si el paciente tiene manchas rojas encima de la superfície por todo el cuerpo no deduzca que el automóvil tiene sarampión.
Sí lo he entendido. No hablo en otro idioma

Simplemente fuerzas una concepción de como ha de ser una I.A. y propones correcciones para la misma para TU I.A. no para la I.A. que realmente es la que te terminaría juzgando. Aparte que un acierto al azar no significa que esté todo OK o lo suficientemente OK y cosas así

> No he dicho que la haya de entrenar un humano sino que la van a entrenar y educar humanos. Con los propios sesgos de estos como ya ha ocurrido en I.A. para predecir delincuencia que predicen más en personas de color negro en las mismas circunstancias, para contratar con sesgos machistas al aprender del histórico de contratos. Etc

KuroBulled

#20 Digo que no lo has entendido porque he partido como caso de ejemplo del delito de llevar calcetines con las chanclas (propio de guiris), y tú has respondido en genérico sobre mujeres y negros. Partimos entonces de que no has leido con atención mi comentario.

La IA que propongo evidentemente se autocorrige y reentrena con un cuestionamiento continuo de sus resultados a base de analizar predicciones lo más aleatorias posibles en una muestra lo más representativa posible.

Esa autocorrección implicaría la búsqueda de nuevas características mediante aprendizaje no dirigido y reentreno comparativo con esas nuevas características.

"Aparte que un acierto al azar no significa que esté todo OK o lo suficientemente OK y cosas así"

Ves como no has leido con atención mi comentario?

En ningún momento se quedaría con un "todo OK". Simplemente que cuando el nivel de aciertos sea suficientemente amplio sobre una muestra que debería ir ampliando y cortigiendo de forma continua, su esfuerzo de corrección puede reducirse temporalmente. Ojo, temporalmente. Hasta cuándo? Hasta que ese nivel de aciertos disminuya respecto al porcentaje de seguridad (como si quieres poner el 100%).

Los sesgos humanos podrían afectarle inicialmente, pero no después.

s

#21 Que sí que lo he leído pero apenas le encuentro sentido. Porque necesariamente habrá una red neuronal de aprendizaje profundo por huevos detrás de tu juez y no veo la relación determinante de tus propuestas con el funcionamiento y sesgos de esta

Y después. A menos que la dotes de consciencia. ¡Cómo que no? Si el resultado óptimo también ha de ser decidido por humanos con sus sesgos

Aciertos que sean considerados como aciertos por HUMANOS llevados por sus sesgos donde estos puedan ser muy determinantes para decidir que se han de considerar aciertos



Dirigido por la persona o personas que digan que esa ha sido la decisión correcta o la incorrecta

KuroBulled

#22 "y no veo la relación determinante de tus propuestas con el funcionamiento y sesgos de esta"

Vuelve a leerlo y dime qué parte no entiendes.

". ¡Cómo que no? Si el resultado óptimo también ha de ser decidido por humanos con sus sesgos"

Tampoco. Ves cómo no has leido mis comentarios? No, no lo va a decidir un humano. Lo decidirá la IA en base al número de aciertos en proporción al porcentaje de seguridad sobre la población total y con reajuste continuo ante cualquier fallo.


"Aciertos que sean considerados como aciertos por HUMANOS"

Tampoco. Vuelve a leerlo. Acierto será que ante un caso nuevo siempre se cumpla la premisa. Ejemplo, siempre que encuentre un cisne será blanco. Si cojo un ejemplar y es blanco, es un acierto. Si no, no lo será. Todo cisne es blanco? Eso es lo que debe reajustarse incluso aun teniendo siempre aciertos, a menos que encuentre una causa inapelable (biológica, por ejemplo), y aun así siempre intentaría reajustarse.


"Dirigido por la persona o personas que digan que esa ha sido la decisión correcta o la incorrecta"

Tampoco. He dicho NO dirigido. El que se usa para buscar nuevas características y patrones. Ves cómo no lees?

s

#23 LO he leído. Lo he entendido. Tu no entiendes mi respuesta. Lo siento. Pero partes de una idea falsa de la realidad y me acusas a mi de no ceñirme a la misma

Que sí, que volando agitando las manos. No se puede, lo siento. Alguien decide lo que es una buena o mala decisión de la I.A. necesariamente o se decide mediante reglas o lo que sea decididas por humanos y estas la van a educar o estos

partes de una idea idílica de lo correcto o incorrecto que no se ajusta a la realidad para una red neuronal que ha de tener por huevos humanos detrás para que decidan cual es una buena decisión o no

Tu mismo has puesto un juicio que haga gente. Lo que ocurre es que no has puesto las reglas para TU jucio o para lo que es para ti que decida correctamente la I.A. ¿qué es una decisión correcta y que no?

Que cargas sobre mi no lo que no haya yo entendido sino lo que tu das por hecho sobre la realidad y yo no acepto y no puede ir como piensas como no se puede volar agitando los brazos

Las entiendo todas, tu no entiendes mis respuestas porque no entran en la concepción de las cosas que manejas


Equivocas. Sí lo va a hacer. No los vas a poder eludir. Sino sería magia



Lo he leído y es que sí. Dices que no y simplemente con las "propuestas" lo obvias y aparentas negar pero sigue ahí igualmente pero oculto pero está ahí


¿ves como no entiendes? INcluso no dirigido implica indicar unas reglas que las indica ALGUIEN y las decide alguien. Sino sería magia o bien le das consciencia,. motivaciones y las capacidades de un humano y entonces es cuando tendrás razón hasta cierto punto. No del todo

En fin

KuroBulled

#24 " Que sí, que volando agitando las manos. No se puede, lo siento."

Si no sabes ni lo que es el aprendizaje NO dirigido (no supervisado) para la búsqueda de nuevas características, mal vamos.

El aprendizaje dirigido parte de unas características dadas. Esas características se las puede proporcionar un humano o partir de la búsqueda anterior.

https://en.m.wikipedia.org/wiki/Unsupervised_learning
https://en.m.wikipedia.org/wiki/Clustering
https://www.guru99.com/unsupervised-machine-learning.html

Para ello usaría una muestra aleatoria de la población que el propio algoritmo iría ampliando y perfeccionando a base de poner a prueba su distribución uniforme.

El reajuste en bucle lo haría el propio algoritmo. Podría partir de un entrenamiento inicial sesgado, que incluso así llegaría a una función de coste con sesgo mínimo. El propio concepto de función de coste del aprendizaje de la NN ya comienza con un error que puede ser grande y va corrigiendo mediante la corrección de pesos según los deltas.

En este caso tendríamos un aprendizaje que engloba todos los subprocesos de aprendizaje que aplicaría en los juicios, por lo que la función de coste del "proceso madre" no es la de acertar en el juicio, sino maximizar los aciertos de cada subproceso mediante el cuestionamiento continuo con la muestra total.

No hay magia, créeme.

s

#25 Si tu no tienes ni puta idea que necesitas primero al menos poner las reglas del juego o algo para sobre que esto aprendan de forma no dirígida (por ejemplo las reglas del ajedrez y cuando se gana y cuando se pierde) es que no te enteras de nada

Y si tu no sabes que estás reglas del juego las ha ideado alguien y que las que tenemos para juzgar los humanos tienen sesgos todas ellas es que no te enteras de nada

Estás que no aceptas o no quieres entender lo que te dicen y en lugar de reconocer eso cargas falsamente contra mi y que yo no me he de enterar porque no admites que tu te puedas dejar algo para considerar. Pero la realidad es que realmente no tienes razón y te dejas lo más importante



¿Y YO QUE MIERDA TE HE DICHO EN EL COMENTARIO QUE RESPONDES?

¿ES QUE NI LEER SABES?

No son características. PESADO. Son REGLAS,. Las reglas del juego o de aprendizaje si se ha de aprender ajedrez las del juego y cuando se gana y cuando se pierde


Las de juzgar personas las que ha de utilizar para valorar las cosas y juzgar a las personas. Y esas reglas para juzgar son las putas reglas humanas que están sesgadas de entrada

¿que es lo justo o injusto? ¿quien lo decide?

¿quien decide a qué nivel adquisitivo del infractor se puede considerar que una multa es una sanción o el precio para comenter el delito o lo que vale delinquir y por tanto no lo puede ver como sanción el infractor como la persona que tiene menos dinero y se ha de pasar a penas de restricción de libertad en lugar de sanción económica?

¿ENTIEDES?

Joder que tipo ¿De verdad crees que no me he enterado de todo y que tu entiendes perfectamente lo que he dicho yo?

Pues es al revés. Quien no se ha enterado de la argumentación contraria has sido tu

no estamos hablando de un algoritmo en sí sino de un proceso de red neuronal con o sin algoritmo. POr más que quieras un algoritmo a medida tenemos que tener una red neuronal y pueden ser procesadores neuromórficos o lo que deseas es un sistema experto y no da la talla para lo que pides


Y este ha aparecido por arte de magia sin sesgos y el ajuste "correcto" se decide por magia sin sesgos por tus huevos sin que entiendas que se ha de seguir reglas y normas decididas por humanos por narices

>
¿Y quien decide lo que es o no un acierto?
Es que no te entras. Eso es la supervisión humana y con los sesgos de esos humanos

¿quien decide o que reglas ideadas por alguien y decididas por alguien o que persona directamente cuando acierta o no?

Que algo sea un acierto o fallo lo ha de decidir o bien unas reglas de juego (que alguien ha decidido con sus sesgos) o bien decidirlo una persona en cada caso

Pero pasa por el juicio a priori o a posteriori de ALGUIEN
Sino es magia


Tu estás defendiendo que NADA así que apelas que sea algo mágico para no darme la razón a mi. Y a la vez algo que ha de ser mágico para que yo no pueda tener razón. Porque si no es mágico tengo la puta razón

¿Qué haga un acto de fe en ti que no te enteras casi de nada?
Anda y

KuroBulled

#17 PD: Variables -> Características

l

#7 Y no tendria hambre
https://www.clarin.com/sociedad/estudio-jueces-indulgentes-despues-comer_0_BkNMIJETvQx.html

Se podria alimentar con os datos que se quiera, reincidencia, mejora de la conducion.
No solo serviria para el juicio en sino como prevencion al detectar la probabilidad de cometar un crimen.

cocolisto

El Juez Dredd vuelve.

J

Habría que apañar el sistema para que pueda favorecer siempre al PP, si no será vetado.

D

No sé como juzgaría una IA a un cómico o los delitos morales...

RoyBatty66

El programa es buenísimo, tratando el tema de la IA desde los fundamentos de lo que realmente es el ser humano. Hay una idea que expone uno de los filósofos que es determinante; la cuestión no puede tratarse de forma maniquea, no es IA/algoritmo o ser humano, la decisión final la debe tomar el ser humano porque la IA no puede aprehender la parte humana del contexto, con el apoyo de la tecnología.
Esta muy relacionado con el nuevo libro de Byung-Chul Han, Infocracia: La digitalización y la crisis de la democracia,