El ejército de Israel ha estado utilizando inteligencia artificial para ayudar a elegir sus objetivos de bombardeo en Gaza, sacrificando la precisión en favor de la velocidad y matando a miles de civiles en el proceso, según una investigación realizada por publicaciones con sede en Israel.+972 RevistayLlamada local.

El sistema, llamado Lavender, fue desarrollado después de los ataques de Hamás del 7 de octubre, afirma el informe.En su apogeo, Lavender marcó a 37.000 palestinos en Gaza como presuntos “militantes de Hamas” y autorizó sus asesinatos.

El ejército de Israel negó la existencia de tal lista de asesinatos en una declaración a+972yLlamada local.Un portavoz le dijo a CNNque la IA no se estaba utilizando para identificar a presuntos terroristas, pero no cuestionó la existencia del sistema Lavender, que el portavoz describió como "meras herramientas para los analistas en el proceso de identificación de objetivos". Los analistas "deben realizar exámenes independientes", en el que verifican que los objetivos identificados cumplen con las definiciones pertinentes de acuerdo con el derecho internacional y las restricciones adicionales estipuladas en las directivas de las FDI”, dijo el portavoz a CNN.Las Fuerzas de Defensa de Israel no respondieron de inmediato aEl bordeSolicitud de comentarios.

En entrevistas con+972yLlamada local, sin embargo, los oficiales de inteligencia israelíes dijeron que no estaban obligados a realizar exámenes independientes de los objetivos Lavender antes de bombardearlos, sino que en realidad sirvieron como "un" sello de goma "para las decisiones de la máquina".En algunos casos, el único papel de los agentes en el proceso era determinar si el objetivo era hombre. 

Elegir objetivos

Para construir el sistema Lavender, se introdujo información sobre agentes conocidos de Hamás y la Jihad Islámica Palestina en un conjunto de datos, pero, según una fuente que trabajó con el equipo de ciencia de datos que capacitó a Lavender, también se incluyeron datos sobre personas vagamente afiliadas a Hamás.como los empleados del Ministerio de Seguridad Interna de Gaza."Me molestó el hecho de que cuando Lavender fue entrenada, usaron el término 'operativo de Hamas' de manera vaga e incluyeron a personas que eran trabajadores de defensa civil en el conjunto de datos de capacitación", dijo la fuente.+972.A 

Lavender fue entrenada para identificar “características” asociadas con los agentes de Hamas, incluido estar en un grupo de WhatsApp con un militante conocido, cambiar de teléfono celular cada pocos meses o cambiar de dirección con frecuencia.Luego, esos datos se utilizaron para clasificar a otros palestinos en Gaza en una escala de 1 a 100 en función de su similitud con los agentes conocidos de Hamás en el conjunto de datos inicial.Las personas que alcanzaban un determinado umbral eran marcadas como objetivos de huelga.Ese umbral siempre estaba cambiando "porque depende de dónde se establezca el listón de lo que es un agente de Hamás", dijo una fuente militar.+972.

El sistema tenía una tasa de precisión del 90 por ciento, dijeron las fuentes, lo que significa que alrededor del 10 por ciento de las personas identificadas como agentes de Hamás no eran miembros del ala militar de Hamás en absoluto.Algunas de las personas que Lavender señaló como objetivos tenían nombres o apodos idénticos a los de agentes conocidos de Hamás;otros eran familiares de agentes de Hamás o personas que utilizaban teléfonos que alguna vez pertenecieron a un militante de Hamás. "Los errores se trataron estadísticamente", dijo una fuente que usó Lavender.+972.“Debido al alcance y la magnitud, el protocolo fue que incluso si no estás seguro de que la máquina está bien, sabes estadísticamente que está bien.Así que hazlo”.

Daño colateral

A los oficiales de inteligencia se les dio amplia libertad en lo que respecta a las víctimas civiles, dijeron las fuentes.+972.Durante las primeras semanas de la guerra, a los oficiales se les permitió matar hasta 15 o 20 civiles por cada agente de Hamás de nivel inferior atacado por Lavender;para los altos funcionarios de Hamás, el ejército autorizó “cientos” de víctimas civiles colaterales, afirma el informe. 

Los presuntos agentes de Hamas también fueron atacados en sus hogares utilizando un sistema llamado "¿Dónde está papá?", dijeron los oficiales.+972.Ese sistema ponía a los objetivos generados por Lavender bajo vigilancia continua, rastreándolos hasta que llegaban a sus hogares, momento en el cual eran bombardeados, a menudo junto con sus familias enteras, dijeron los oficiales.En ocasiones, sin embargo, los agentes bombardeaban casas sin verificar que los objetivos estuvieran dentro, aniquilando a decenas de civiles en el proceso."Me pasó muchas veces que atacamos una casa, pero la persona ni siquiera estaba en casa", dijo una fuente.+972."El resultado es que mataste a una familia sin ningún motivo".

Guerra impulsada por la IA

Mona Shtaya, miembro no residente del Instituto Tahrir para la Política de Oriente Medio, dijoEl bordeque el sistema Lavender es una extensión del uso de tecnologías de vigilancia por parte de Israel sobre los palestinos tanto en la Franja de Gaza como en Cisjordania. 

Shtaya, que reside en Cisjordania, dijoEl bordeque estas herramientas son particularmente preocupantes a la luz de los informes de que las nuevas empresas de defensa israelíes estánesperando exportarsu tecnología probada en batalla en el extranjero. 

Desde que comenzó la ofensiva terrestre de Israel en Gaza, el ejército israelí ha confiado y desarrollado una serie de tecnologías para identificar y atacar a presuntos agentes de Hamás.En marzo,El New York Timesreportadoque israeldesplegó un reconocimiento facial masivoprograma en la Franja de Gaza, creando una base de datos de palestinos sin su conocimiento o consentimiento, que el ejército luego utilizó para identificar a presuntos agentes de Hamas.En un caso, la herramienta de reconocimiento facial identificó al poeta palestino Mosab Abu Toha como un presunto agente de Hamás.Abu Toha estuvo detenido durante dos días en una prisión israelí, donde fue golpeado e interrogado antes de ser devuelto a Gaza.

Otro sistema de inteligencia artificial, llamado "El Evangelio", se utilizó para marcar edificios o estructuras desde donde se cree que opera Hamás.Según un+972yLlamada localinformeA partir de noviembre, El Evangelio también contribuyó a un gran número de víctimas civiles.âCuando una niña de 3 años es asesinada en una casa en Gaza, es porque alguien en el ejército decidió que no era gran cosa que la mataran, que era un precio que valía la pena.pagando para alcanzar [otro] objetivo”, dijo una fuente militar a las publicaciones en ese momento.

"Necesitamos considerar esto como una continuación de las políticas de castigo colectivo que se han utilizado como armas contra los palestinos durante décadas", dijo Shtaya."Necesitamos asegurarnos de que los tiempos de guerra no se utilicen para justificar la vigilancia masiva y el asesinato masivo de personas, especialmente civiles, en lugares como Gaza".