El Departamento de Defensa de Estados Unidos le dio hasta el viernes a la empresa californiana Anthropic para que acepte el uso militar sin restricciones de su inteligencia artificial por parte del Pentágono. El director ejecutivo de Anthropic, Dario Amodei, se reunió el martes con el secretario de Defensa, Pete Hegseth, en el Pentágono. En el centro del conflicto está la negativa de Anthropic a permitir que sus modelos de IA se utilicen para la vigilancia masiva de ciudadanos estadounidenses o en sistemas armamentísticos totalmente autónomos.
|
etiquetas: seguridad , ejército , gobierno , inteligencia artificial , anthropic , claude
"La inteligencia artificial siempre será superada por la estupidez real"
Unos visionarios.
Los militares quieren usar esa IA tan potente en "sistemas armamentísticos totalmente autónomos".
Ahora sí que me acojono de verdad.
Si ya no me fío de un coche autónomo, ¡ lo que puede pasar con un sistema de armas de guerra totalmente autónomo !.
meneame.net/story/herramienta-ia-openclaw-borra-bandeja-entrada-direct
Si cambias borrar correos por lanzar misiles...
Estamos en el momento de decidir entre utopia y distopia. Si regulamos el uso de la IA en lo militar y social, o dejamos carta blanca a los estados y empresas.
www.meneame.net/story/herramienta-ia-openclaw-borra-bandeja-entrada-di
"La inteligencia artificial siempre será superada por la estupidez real"
Unos visionarios.
Si vas a usar IA, que sea en local y con modelos abiertos, para que al menos tus datos sigan siendo tuyos y no un regalo (que encima pagas tú de tu bolsillo) para los que trabajan activamente para jodernos la vida a todos.
El Departamento de Defensa y Anthropic tienen un contrato para usar Claude en entornos clasificados. Actualmente, Anthropic es la única empresa de IA cuyos modelos funcionan en contextos clasificados. El contrato vigente, firmado por ambas partes y vigente, prohíbe dos usos de los modelos de Anthropic por parte del ejército:
1. Vigilancia de los estadounidenses en los Estados Unidos (a diferencia de los estadounidenses en el extranjero).
2.
… » ver todo el comentario
www.computerworld.es/article/4131297/el-jefe-de-seguridad-de-anthropic
Muchas empresas se plantearían dejar de trabajar con Claude si el gobierno federal tiene acceso ilimitado al mismo.
Y está noticia no es de ahora. El borracho filonazi lleva un mes dando ultimátums a Anthropic, y así hasta hoy.
En aquella ocasión hubo suerte.
Antrophic dirige el 80% de la agentes de Moltbook.
Muchos observadores e investigadores del experimento social IA, detectan patrones en los agentes, patrones para desalinearse de los humanos.
Por ello, se está generando un problema global incontrolable, agentes autónomos usando monedas digitales y comprando servicios que nadie puede controlar.
Bueno, solo Antrophic
Ejemplo: tal pais se pone tonto con las tierras raras... A Trump le hacen una afrenta en tal reunión... Ese dia necesito tapar ciertas vergüenzas y que la noticia sea otra... y de repente, la puta IA decide cargarse a fulano, a mengano, a ese periodista taaaaan molesto o incluso a ese jefe de la oposicion de tal o cual pais que le esta haciendo daño a nuestros intereses en la zona, o lanzar un pepinazo sobre la capital de tal pais… » ver todo el comentario