Hace 10 meses | Por Chitauri a nytimes.com
Publicado hace 10 meses por Chitauri a nytimes.com

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, se lee en una declaración publicada por el Centro para la Seguridad de la IA, una organización sin fines de lucro. La carta abierta ha sido firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en IA. Los firmantes incluyeron altos ejecutivos de tres de las principales empresas de IA: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, director ejecutivo de Goog

Comentarios

Gry

Piden regulación para expulsar del mercado a los desarrolladores de software libre.

rojo_separatista

Con el Covid quedó claro lo miope que es el ser humano. Cuantos ejpertos había por menéame diciendo que el ébola era peor porque mataba más. Pues imaginad ahora que los peligros de la IA son mucho más sutiles y requieren se mayor amplitud de miras para identificar.

rojo_separatista

#8, la máquina que crea textos es una herramienta, no un fin en si mismo. En las manos equivocadas, puede ser capaz desde crear códigos maliciosos hasta recetas sobre cómo crear una arma biológica superefectiva. No las versiones actuales, sino las que sean 100 o 1000 veces más inteligentes que las actuales.

manzitor

Igual es que le han preguntado a la AI sobre los principales problemas de la humanidad, y en la lista han salido algunos de esos ejecutivos firmantes.

Chitauri

Aquí el comunicado con el nombre de los firmantes:

https://www.safe.ai/statement-on-ai-risk

Y en este hilo de twitter lo desmenuzan:

rojo_separatista

#2, los dos primeros firmantes son posiblemente los dos investigadores más destacados en el campo de la IA con permiso de Yan Lecun. Ya verás como no tardarán en aparecer cuñaos diciendo que no hay para tanto, que es cosa de flipados por la ciencia ficción.

d

#3 Si tú le ves algún pelligro a una máquina que crea textos, pues me gustaría que lo desarrollases un poco.

gregoriosamsa

Vamos a acabar antes por la destrucción del medio ambiente. Pero eso no tiene tanto marketing

Disiento

Yo, hasta que no haya un Panel de Expertos de Naciones Unidas Contra la Estupidez, que nos ha llevado a la humanidad a peligros atómicos, pandemias, crisis bancarias, guerras mundiales, ... no pienso preocuparme por la inteligencia sea natural, sintética, ni artificial ni artificiol.