El Departamento de Defensa de Estados Unidos le dio hasta el viernes a la empresa californiana Anthropic para que acepte el uso militar sin restricciones de su inteligencia artificial por parte del Pentágono. El director ejecutivo de Anthropic, Dario Amodei, se reunió el martes con el secretario de Defensa, Pete Hegseth, en el Pentágono. En el centro del conflicto está la negativa de Anthropic a permitir que sus modelos de IA se utilicen para la vigilancia masiva de ciudadanos estadounidenses o en sistemas armamentísticos totalmente autónomos.
|
etiquetas: seguridad , ejército , gobierno , inteligencia artificial , anthropic , claude
Los militares quieren usar esa IA tan potente en "sistemas armamentísticos totalmente autónomos".
Ahora sí que me acojono de verdad.
Si ya no me fío de un coche autónomo, ¡ lo que puede pasar con un sistema de armas de guerra totalmente autónomo !.
"La inteligencia artificial siempre será superada por la estupidez real"
Unos visionarios.
Si vas a usar IA, que sea en local y con modelos abiertos, para que al menos tus datos sigan siendo tuyos y no un regalo (que encima pagas tú de tu bolsillo) para los que trabajan activamente para jodernos la vida a todos.
El Departamento de Defensa y Anthropic tienen un contrato para usar Claude en entornos clasificados. Actualmente, Anthropic es la única empresa de IA cuyos modelos funcionan en contextos clasificados. El contrato vigente, firmado por ambas partes y vigente, prohíbe dos usos de los modelos de Anthropic por parte del ejército:
1. Vigilancia de los estadounidenses en los Estados Unidos (a diferencia de los estadounidenses en el extranjero).
2.
… » ver todo el comentario
www.computerworld.es/article/4131297/el-jefe-de-seguridad-de-anthropic