Hace 25 días | Por injotec a theconversation.com
Publicado hace 25 días por injotec a theconversation.com

La campaña israelí en la Franja de Gaza es descrita por expertos como una de las más "implacables y mortíferas" de la historia reciente y que además está siendo coordinada en parte con la inteligencia artificial. Esta se está utilizando para cualquier acción en la guerra, desde identificar y priorizar objetivos hasta asignar las armas que se utilizarán contra esos objetivos.Los sistemas de IA que Israel emplea están entrenados para reconocer rasgos que se cree que caracterizan a las personas asociadas con el brazo militar de Hamás...

Comentarios

GuillermoBrown

#3 Es lo que hicieron los yanquis en Hiroshima y Nagasaki.
Sabían que eran civiles inocentes, niños, mujeres, ancianos y hombres civiles y soldados, y aún así los asesinaron.
246.000 seres humanos muertos. Más los innumerables heridos, con 2 bombas.
Sin IA.

Globo_chino

Porque no es una guerra, es un exterminio.

Diem_25

#2 Pero si le llamas exterminio /genocidio (lo que es) se les cae 👎 el relato y también la noticia 👎 (#0 estoy por votar errónea).

Y luego,... la nueva estrategia (o relato) es decir que: "la culpa fue del informático" (aka "A.I.")

injotec

como ser miembro del mismo grupo de WhatsApp que un militante conocido, si cambia de teléfono y de dirección cada pocos meses...
Los sistemas analizan los datos de todos los gazatíes, con lo que de esa forma los algoritmos permiten "predecir" la probabilidad de que una persona sea miembro de Hamás, de que un edificio albergue a esa persona, o de que esa persona haya entrado en su casa.


El sistema de decisiones de IA Lavender llegó a identificar a 37.000 personas como objetivos humanos potenciales. Según las FDI, la tasa de precisión de este sistema alcanzó el 90%, aunque los detalles de la verificación manual del sistema están clasificados.
Ese 10% de inexactitud es muy importante, ya que al final es un sistema que se utiliza para decidir si esos 37.000 objetivos viven o mueren, con lo que las consecuencias son potencialmente destructivas para los civiles.

t

#1 …ese era el plan de lo malos en la segunda de Capitán América. Que curiosamente eran nazis.

Catacroc

Anteriormente se disparaba indiscriminadamente a cualquiera, ahora con la IA se puede hacer lo mismo pero culpar de los errores a la maquina. De momento unos 37.000 errores. Menudo beta testing estan haciendo.

ipanies

Me parece inhumano todo lo que dice ese artículo, la forma que tiene ese algoritmo, que no IA, de seleccionar objetivos debe considerarse ilegal de inmediato por el bien ya no de los palestinos, si no de todas las personas del planeta.

woody_alien

Los sistemas de IA que Israel emplea están entrenados para reconocer rasgos que se cree que caracterizan a las personas asociadas con el brazo militar de Hamás

Los han entrenado para destruir gente con brazos, piernas y piel oscura pues así son los de Hamás.

GuillermoBrown

#9 ¿ Será que tienen 'cara de malo' ?
Es ridículo además de trágico.

P

De ahí dejarlos sin atencion medica, comida y agua , tanto la IA como los sionistas carecen de humanidad .

injotec

Me parece muy inhumana esta frase:
As one IDF officer told +927 magazine: “Because of the scope and magnitude, the protocol was that even if you don’t know for sure that the machine is right, you know that statistically it’s fine. So you go for it.”

Aunque no estén seguros de que la IA tenga razón, los matan y ya está.

l

#7 Es un campo de pruebas para las guerras del siglo XXI, como lo fue aquí la guerra civil.

ur_quan_master

#7 ojalá recibiesen empatía instantánea.