Hace 6 meses | Por Ben_Really a genbeta.com
Publicado hace 6 meses por Ben_Really a genbeta.com

En un momento en que la inteligencia artificial es uno de los grandes temas de debate global, destacados expertos y ganadores del Premio Turing como Yoshua Bengio, Geoffrey Hinton y Andrew Yao, junto a otros 21 especialistas, han instado a las principales compañías de IA a destinar al menos un tercio de sus presupuestos de I+D a la seguridad.

Comentarios

Ovlak

La soplapollez de artículo del día que, aún por encima, lo han redactado planteando la premisa a ChatGPT.
Si una IA alcanza el nivel de potencia, autoconsciencia y hostilidad de Skynet, de lo primero que hará será reescribir su propio código y lo hará ilegible para el ser humano. Así que la IA será de código abierto hasta que la IA quiera dejar de serlo.

Dragstat

Todas estas cosas son ideas humanas introducidas en las IAs por humanos. Las inteligencias artificiales no tienen instinto de supervivencia y les tendría que dar igual todo porque no se rigen por una biología con instintos o sentimientos. Vamos que no veo que vayan a generar ese "propósito en la vida" de dominar el mundo porque no la tienen a no ser que se la pongamos o llegue a creer que la tiene, pero en ese caso sería tan tonta como los propios humanos.

C

Y seguramente esos especialistas querrán estar con mega sueldazos y bonificaciones siendo los guardianes contra las temibles IA. Lisa Simpson vendiendo la piedra contra osos.

Pero si coló lo de especialistas de estudios de género y reciben inventes cantidades de dinero y solo produciendo estudios clichés... Lo de la IA malvada seguro que cuela.

rojo_separatista

Decir que el problema de seguridad de la IA se arregla liberando el código con el que funciona es no tener ni idea de en qué consisten las redes neuronales cuyos pesos después del aprendizaje son imposibles de interpretar por los propios diseñadores de la arquitectura de la red.