Hace 14 días | Por Andaui a theconversation.com
Publicado hace 14 días por Andaui a theconversation.com

A diferencia de los humanos, los modelos de IA no evolucionan con los cambios en los valores y normas sociales. Sus acciones son un reflejo directo de las instrucciones que les proporcionamos y son tan buenos como los datos con los que se entrenan. Si los datos contienen sesgos, los modelos inevitablemente reproducirán esos sesgos. Esto subraya la necesidad urgente de prácticas responsables en IA.

Comentarios

ACEC

Los humanos no somos muy distintos. Entrena a un humano poniéndole cada mañana la Cope, leyendo el ABC en el almuerzo y luego viendo elToroTV en la cena y hazle presidente de comunidad autónoma. Tomara decisiones trágicas.

sleep_timer

#4 Puede llegar a votar a mascotas de Marquesas y todo.

d

Los que crearon el sistema de Amazon para contratar no entendían lo que estaban haciendo; en vez de evaluar qué trabajadores tenían buen rendimiento y entrenar la IA para detectarlos, asumieron que el equipo de contratación anterior era capaz de predecir el buen rendimiento y crearon algo que los emulaba. Como resultado tenían un algoritmo que maximizaba la probabilidad de que un candidato hubiera sido contratado por el antiguo equipo de recursos humanos.

Respecto a la conducción autónoma, ¿cómo esperan conseguir muchos datos de entrenamiento de situaciones poco frecuentes si son... poco frecuentes?

Barbol_Pelao

#2 Exacto. El problema que están teniendo gente como Tesla con el software de conducción autónoma es el tema de los "eventos finales" (eventos de conducción muy poco comunes pero críticos, que por ser raros están subrepresentados en sus datos de entrenamiento).

El tema es que por mucho que los entrenes con una calidad de datos elevada siempre habrá fenómenos y eventos dinámicos no predecibles y críticos que quedarían fuera del entrenamiento. Por eso la IA es peligrosa para aplicaciones críticas en que un error es intolerable; y es aceptable para chorradas, determinadas fases de la productividad y procesos en que los errores son tolerables (sin contar deepfakes, bullying, desinformación y demás).

sleep_timer

¿Una IA creada por los seres humanos la caga tanto o mas como los seres humanos?
Me pinchas y no sangro.

E

Porque no piensa, no deduce.
Solo une datos que estadisticamente son coherentes.

Robus

los modelos de IA no evolucionan con los cambios en los valores y normas sociales.

Los modelos de IA justo lo que hacen es evolucionar... si los entrenas periódicamente con nuevos valores.

Están pensados para ello y, de hecho, es parte de las buenas prácticas, actualizar las fuentes de datos con los nuevos eventos cada cierto periodo de tiempo.

Una IA que predice cualquier suceso cambiante (el precio de la vivienda, la renta media de una zona, la demanda de electricidad, el tráfico...) debe ir actualizandose.

Si los cambios en los valores y normas sociales se ven reflejados en los datos, las IA evolucionarán para integrarlos.

Es, por defecto, el ciclo de vida de una IA, evolucionar.

#1 Justo por eso! no piensa, no deduce... se adapta a los datos, si los datos cambian porque cambian los valores sociales, la IA cambia, si los cambios en los valores no cambian los datos, entonces o los datos se han tomado mal (que ese es otro problema) o los cambios en los valores no cambian realmente nada en la práctica.

Robus

#7 He estado pensando un poco y me ha venido una cosa a la memoria que contradice, en cierto aspecto, lo que he dicho en el anterior comentario:

Recuerdo un caso muy sonado de que una IA que predecía la evolución del precio de la vivienda con mucha exactitud en una ciudad dejó de hacerlo al usarse en otra ciudad, a pesar de estar entrenada con los datos de esa ciudad, de la misma forma que funcionaba correctamente en otras ciudades... resultó que uno de los indices muy importantes era la zona que identificaban con un código postal, que funcionaba bien para identificar los barrios más caros y los más baratos... pero en una ciudad en concreto, los códigos postales incluían unas zonas muy amplias suburbanas que recogian partes urbanizadas de lujo y muy caras y partes sin urbanizar muy baratas... pero quien había hecho la IA no lo había tenido en cuenta porque esa IA se había pensado para otra ciudad que no tenía ese problema.

Así que, ciertamente, una IA puede no adaptarse por si misma a pesar de darle nuevos datos si esos datos contradicen la situación para la que fue creada esa IA. Me auto-corrijo pues, ya que yo no soy una IA! lol