Anthropic ha roto con el Pentágono por querer poner dos condiciones para que las agencias de EEUU usaran Claud: que no se usara en armas autónomas y que no se usara para vigilar masivamente a estadounidenses. A partir de ahí Anthropic se ha beneficiado de una narrativa ética, pero no todo es lo que parece.
|
etiquetas: claude , anthropic , pentágono , márketing , ia , llm
Ahora mismo la IA que usan los americanos es anthropic, y seguramente fue la que escogió la escuela como objetivo