La inteligencia artificial (IA) supone un “riesgo de extinción” para la humanidad, al igual que catástrofes como una guerra nuclear o una pandemia. Esas son las conclusiones de un grupo de 350 ejecutivos, investigadores e ingenieros expertos en esta tecnología en una carta abierta de tan solo 22 palabras publicada este martes por el Centro para la Seguridad de la IA, una organización sin fines de lucro. “Mitigar el riesgo de extinción [para la humanidad] de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como la
Comentarios
Es el equivalente a las potencias nucleares impidiendo que otros países desarrollen sus propias armas, hasta usan la misma excusa de que es para evitar la destrucción del planeta.
A por la Yihad Butleriana!
Vamos a ver, la aparición de la inteligencia, la humana, no ha supuesto ningún problema de extinciones... oh! wait!
Pero si ya hay millones de alarmistas en el mundo por una infinidad de temas diferentes, ¿de verdad hacía falta un nuevo tipo de alarmismo?
Si, ahora, ahora, naaaaa
Los creadores de XXXXX alertan sobre el peligro de extinción que supone esta tecnología para la humanidad
Poned ahi lo que queráis:
Electricidad, tractor, motor de combustión, el coche, los ordenadores, las vacunas, los medicamentos....
#2 La tortilla con cebolla.
#6 Con cebolla siempre, sé un valiente
#6 que li decida la IA
Disculpen, señores creadores de la IA, no necesitamos una IA para extinguirnos. Ya somos capaces de arrasar el planeta nosotros solitos y fulminar nuestro futuro a medio-largo plazo. Gracias por nada, supongo.
El mayor peligro que yo veo a la IA es que pueda ser utilizada para desarrollar tecnología armamentística a niveles que hasta ahora han estado reservados a las grandes potencias. Imaginemos que Chiquitistán usa una IA para desarrollar un arma biológica devastadora, o una forma de iniciar una explosión termonuclear sin material fisible.