Hace 5 meses | Por RaulUrdaci a noticiasdenavarra.com
Publicado hace 5 meses por RaulUrdaci a noticiasdenavarra.com

Borja Adsuara ha observado que las “múltiples dudas” y problemas de propiedad intelectual que genera esta tecnología se tendrán todavía que abordar en una norma específica sobre propiedad intelectual. Y en cuanto a la “vigilancia biométrica” y otros usos peligrosos que la IA puede tener para los derechos fundamentales de los ciudadanos, Adsuara ha manifestado que lo importante no es sólo la lista de excepciones “sino, sobre todo, saber quién va a vigilar a los que nos vigilan”.

Comentarios

Gry

La línea es muy fina entre ahogar a las empresas con regulaciones o dejarles que hagan lo que quieran.

M

Aspectos importantes:

"Valencia señaló, en relación con las aplicaciones de técnicas de reconocimiento biométrico, que se hacen excepciones para temas policiales “que hacen difícil saber dónde acabará el uso de estas tecnologías en la práctica”"

Een la provincia de Barcelona estoy viendo más cámaras de vigilancia que nunca y no tengo claro es lo que pueda suceder con la predicción, que la IA se piense que uno por hacer algún gesto con la cara le convierta en un predelincuente (como el "precrimen" de Minority Report). Además, el reconocimiento de emociones podría ser totalmente opuesto a los Derechos Humanos. Relacionada: "Peligroso y discriminatorio": Los gobiernos de la UE aceleran la presión para permitir la vigilancia policial mediante inteligencia artificial

Hace 5 meses | Por Sawyer76 a elperiodicodearagon.com


"descripción detallada de su funcionamiento o describir todas las fuentes de datos usadas para su entrenamiento", "“muy difíciles o imposibles en los nuevos sistemas de IA”"

Importante para trazar los orígenes de un resultado. Esta medida no debería ser "imposible". Si no se logra, la IA no está "preparada" o no da el servicio que debiera.

"“Dado que no existe ni la iniciativa, ni el presupuesto, ni la unidad de acción, ni la tecnología para crear esos sistemas, parece que la aplicación de las medidas propuestas dejará definitivamente a Europa fuera del desarrollo de los grandes modelos de IA”"

Insisto en que lo más sensato es la aportación de dinero público para proyectos 100% abiertos, así como pasa con el caso de los sistemas operativos y otras aplicaciones (como de ofimática o gestión remota) en las administraciones públicas. Se ha demostrado su mayor eficiencia, transparencia e incluso seguridad. Todavía no somos conscientes de lo que supone la entrada de la IA en nuestros hogares si, en el entorno laboral, los propios trabajadores temen que esto pueda perjudicarles en sus relaciones, así como en su propia continuación laboral. Europa no puede ni debe quedar fuera.

Respecto al hecho de que el modelo IA deba anunciar que se está comunicando con "una máquina", creo insuficiente esta medida. La persona podría darle igual que se trate de una máquina si esta le acaba respondiendo como un humano y, como el mismo artículo advierte, pudiera "reconocer las emociones" (no sólo en entorno laboral o académico).

Por el lado de la regulación en sí, pienso que es más necesaria que nada en todos sus aspectos. Esto puede resultar (por no decir en que efectivamente resultará) en un cambio drástico entre las relaciones humanas, porque incluso podría llegar el momento en que dejemos de relacionarnos directamente si no es a través de este formato llamado "inteligencia artificial", basado en cálculos y más cálculos de datos que albergan unas cuantas máquinas por medio de una cantidad enorme de algoritmos.

Disiento

Las leyes están redactadas para que unos pocos puedan saltárselas.
Los demás a pringar.

M

#2 En el caso de utilizar este tipo de automatismos no veo clara la revisión humana donde se pudieran aplicar sanciones discriminatorias (robagallinas) o dejarlas pasar (familiar o conocido político).

Disiento

#5 me refería a los constructores y diseñadores

M

Los derechos de autor deben ser para la persona que “dirige” a la IA para obtener un resultado.