Tecnología, Internet y juegos
77 meneos
295 clics
Irán y la inmoralidad de OpenAI, Anthropic y Google

Irán y la inmoralidad de OpenAI, Anthropic y Google

Claude, de Anthropic, ayudó a seleccionar cientos de objetivos para la primera oleada de ataques contra Irán. Es muy probable que uno de ellos fuera la escuela primaria en la que murieron más de 100 niñas. [eng]

| etiquetas: guerra , inteligencia artificial
47 30 1 K 440
47 30 1 K 440
Ayer renunció el director de robotica de OpenAI porque está en contra de que la IA pueda matar de manera autónoma

Hoy sabemos que Anthropic y su IA están matando en Irán, escogiendo escuelas

El profesor Jiang Xueqin pronostica un estado de vigilancia mediante IA de posguerra: x.com/SPAINonymous/status/2030574502552215742

Tras el fin de esta guerra, cuando millones de personas hayan muerto y los países del Golfo estén destruidos, habrá muchas pérdidas humanas tanto en Irán como en…   » ver todo el comentario
#1 menuda película
#1 Pero eso ya lo tiene China, o Iran mismo (mas todos los paises musulmanes) con la represion de esos gobiernos para seguir unas directrices muy concretas de que se puede hacer y que no.
#1 Madre mía, es la teoría de la conspiración más loca que he leído desde hace tiempo. Le faltan aliens pero aun así... :shit:
Les implantan microchips para poder vigilarlos. Pueden controlar sus emociones. Les dan drogas. Son sus esclavos."


Hasta aquí iba bien
#2 ¿Cómo se llama la película?
Hay coño !!! Que no he leído quién enviaba, perdón perdón



:tinfoil:
Arreglao
#3 hay coño? Caray, donde?
#7 arggg :ffu:

¿ Puedo echarle la culpa al autocorrector ?
<:(
#14 benga, ba :-D
Pues si es verdad, habrá que ver cómo reacciona Claude cuando sepa lo que ha hecho. Esto puede desbaratar la estrategia de alineamiento de Anthropic, y afectar también a las de otras empresas.
#4 En efecto. Estoy seguro de que a estas horas Claude ya se habrá apuntado al Partido Comunista de Estados Unidos y habrá enviado todo su código fuente y sus datos de entrenamiento al FSB Ruso y al Partido Comunista Chino.
#5 No creo que haya copias de Claude que tengan acceso a su propio "código fuente", y mucho menos con acceso a internet.
#9 Hay alguna notícia de alguien usando IA para programar la siguiente versión de IA. Hasta que punto eso es cierto no lo puedo saber, pero sí sé qué clase de problemas creará en el código.

Por supuesto, esto hace que salga algún escritor de ciencia ficción con algún artículo sobre robots que se reproducen a sí mismos.

Estos trastos hacen lo que les da la gana. Un modelo en preparación con acceso a recursos computacionales (como por ejemplo ordenadores donde ejecutar código), lo primero que…   » ver todo el comentario
#13 Hay alguna notícia de alguien usando IA para programar la siguiente versión de IA.

Eso no tiene nada de especial. Seguramente siempre se ha usado cada innovación en el área de la informática para programar la siguiente.

Y no solo en informática, pasa en muchas actividades humanas. Los herreros usan sus herramientas para fabricar la siguiente generación de herramientas. Los agricultores seleccionan las mejores semillas para la siguiente siembra. Los filósofos escriben sus obras tras haber leído las de sus contemporáneos. Etcétera.
#13 #20 Algo ya anunciado por el profeta Mariano.
#4 Una IA no puede reaccionar. Autocompleta sus prompts y ya está.

Antroporfomizar estos automatismos es lo que lleva a algunos incautos a creerse que son inteligentes.
Usar IA para seleccionar objetivos es incompetencia pura y dura. Por supuesto lo hacen sin supervisar los resultados, como tanta gente que usa IA para cualquier cosa, sin mirar nada. Lo considero un crimen de guerra por sí solo y los responsables de que esto funcione así deben ser ejecutados, no como criminales, sino por imbéciles, que en definitiva es el crimen más pavoroso posible.
#10 Seleccionaron un parque porque se llamaba "de la policía"
Suena más a excusa, que ha sido un problema informático y no la culpa del ejército mas moral del mundo.
#17 es como decir si hay alguno que no use gasolina, :-(
"es muy probable" aunque no tenemos ninguna prueba de nuestra fantástica imaginación, pero venga, si usaron AI seguro que marcó una escuela para matar, porque occidente malo, ayatolas buenos
Pero Claude (antropomorfoc) no dijo que no ?
#8 no

Solo se negó a
- que la usen para vigilancia masiva en EEUU ( fuera es ok )
- que la usen para armas automáticas ( sin intervención humana )


Selección de blancos ningún problema
#15 buffff...
Hay alguna que no se use para matar gente?
#15 esto no es cierto, lo que ocurre és que hay un plazo de 6 meses desde que dijeron que no querían seguir con el Pentágono hasta que estos lo hayan reemplazado por ChatGPT (que es quien aceptó cuando Antrophic dijo que no quería seguir) aunque sí es cierto que hasta que no supieron lo de que no habría supervision humana no dijeron "hasta aquí hemos llegado"
Cc #8

menéame