Publicado originalmente
en +972 Magazine
(es una
agencia de noticias israelí de izquierda fundada en 2010)
en colaboración con Local Call
el 3/4/2024
Versión al
español Zyanya Mariana
![]() |
| Humo se eleva tras los ataques aéreos israelíes en Beit Lahia, en el norte de la Franja de Gaza, el 28 de diciembre de 2023. (Yonatan Sindel/Flash90) |
«Lavanda (Lavender)»: La IA que dirige la oleada de bombardeos israelíes en Gaza.
[Subo esta nota exactamente un año después de haber sido publicada. Las razones son muchas, pero la más terrorífica es que anuncia el futuro de la represión. En América Latina sabemos que lo que se experimenta en Palestina y en los palestinos, se vende a los gobiernos autoritarios o democráticos para violentar o matar a los disidentes, a los críticos o a los defensores del Medio ambiente. ZM]
El ejército israelí ha señalado a decenas de miles de gazatíes como sospechosos de asesinato mediante un sistema de selección de objetivos basado en IA con escasa supervisión humana y una política permisiva respecto a las bajas, según revelan +972 y Local Call.
Yuval Abraham
En 2021, se publicó en inglés un libro titulado "El equipo humano-máquina: Cómo crear sinergia entre la inteligencia humana y artificial que revolucionará nuestro mundo", bajo el seudónimo de "General de Brigada Y.S." En él, el autor —quien, según confirmamos, es el actual comandante de la unidad de inteligencia israelí de élite 8200— defiende el diseño de una máquina especial capaz de procesar rápidamente cantidades masivas de datos para generar miles de posibles "objetivos" para ataques militares en plena guerra. Dicha tecnología, escribe, resolvería lo que describió como un "cuello de botella humano tanto para la localización de los nuevos objetivos como para la toma de decisiones para su aprobación".
Resulta que dicha máquina existe. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como "Lavender", presentado aquí por primera vez. Según seis oficiales de inteligencia israelíes —quienes sirvieron en el ejército durante la actual guerra en la Franja de Gaza y tuvieron experiencia directa con el uso de IA para generar objetivos de asesinato—, Lavender ha desempeñado un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares fue tal que, esencialmente, trataron los resultados de la IA como si se tratara de una decisión humana.
Formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos operativos de las facciones militares de Hamás y la Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como posibles objetivos de bombardeo. Las fuentes informaron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos como presuntos militantes —y sus hogares— para posibles ataques aéreos.
Durante las primeras etapas de la guerra, el ejército autorizó de forma generalizada a los oficiales a adoptar las listas de eliminación de Lavender, sin exigirles que verificaran exhaustivamente por qué la máquina tomaba esas decisiones ni que examinaran los datos de inteligencia en bruto en los que se basaban. Una fuente afirmó que el personal humano a menudo solo servía como "autorización" para las decisiones de la máquina, y añadió que, normalmente, dedicaban personalmente solo unos "20 segundos" a cada objetivo antes de autorizar un bombardeo, solo para asegurarse de que el objetivo marcado por Lavender fuera masculino. Esto ocurrió a pesar de saber que el sistema comete lo que se considera "errores" en aproximadamente el 10 % de los casos, y se sabe que ocasionalmente marca a individuos con una conexión vaga o nula con grupos militantes.
Además, el ejército israelí atacó sistemáticamente a los individuos seleccionados mientras se encontraban en sus hogares, generalmente de noche, con toda su familia presente, en lugar de durante la actividad militar. Según las fuentes, esto se debía a que, desde el punto de vista de la inteligencia, era más fácil localizar a los individuos en sus domicilios. Se utilizaron sistemas automatizados adicionales, incluido uno llamado "¿Dónde está papá?", también revelado aquí por primera vez, específicamente para rastrear a los individuos seleccionados y llevar a cabo atentados con bombas cuando ingresaban a las residencias de sus familias.
El resultado, según testificaron las fuentes, es que miles de palestinos —la mayoría mujeres, niños o personas que no participaron en los combates— fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.
“No nos interesaba matar a operativos [de Hamás] solo cuando se encontraban en un edificio militar o participaban en una actividad militar”, declaró A., oficial de inteligencia, a +972 y Local Call. “Al contrario, las FDI los bombardearon en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.
La máquina Lavender se une a otro sistema de IA, “The Gospel”, sobre el cual se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre ambos sistemas reside en la definición del objetivo: mientras que The Gospel marca edificios y estructuras desde los que, según el ejército, operan militantes, Lavender marca a personas y las incluye en una lista de objetivos a eliminar.
Además, según las fuentes, al atacar a presuntos militantes jóvenes marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, comúnmente conocidos como bombas "tontas" (en contraste con las bombas de precisión "inteligentes"), que pueden destruir edificios enteros sobre sus ocupantes y causar un número considerable de bajas. "No se debe desperdiciar bombas costosas en personas insignificantes; es muy costoso para el país y hay escasez de esas bombas", declaró C., uno de los oficiales de inteligencia. Otra fuente afirmó que habían autorizado personalmente el bombardeo de "cientos" de domicilios particulares de presuntos operativos jóvenes marcados por Lavender, y que muchos de estos ataques causaron la muerte de civiles y familias enteras como "daños colaterales".
En una medida sin precedentes, según dos de las fuentes, el ejército también decidió durante las primeras semanas de la guerra que, por cada operativo subalterno de Hamás marcado por Lavender, se permitía matar hasta 15 o 20 civiles; anteriormente, el ejército no autorizaba ningún "daño colateral" durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en caso de que el objetivo fuera un alto cargo de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.
La siguiente investigación se organiza según las seis etapas cronológicas de la producción de objetivos altamente automatizada por parte del ejército israelí durante las primeras semanas de la guerra de Gaza. En primer lugar, explicamos la máquina Lavender, que marcó a decenas de miles de palestinos mediante IA. En segundo lugar, revelamos el sistema "¿Dónde está papá?", que rastreaba a estos objetivos y avisaba al ejército cuando entraban en sus hogares. En tercer lugar, describimos cómo se eligieron las bombas "tontas" para atacar estas viviendas.
En cuarto lugar, explicamos cómo el ejército flexibilizó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, observamos cómo un software automatizado calculó incorrectamente la cantidad de no combatientes en cada hogar. Y en sexto lugar, mostramos cómo, en varias ocasiones, cuando se atacaba una vivienda, generalmente de noche, el objetivo individual a veces no se encontraba dentro, porque los oficiales militares no verificaban la información en tiempo real.
PASO 1: GENERACIÓN DE OBJETIVOS
“Una vez que se vuelve automático, la generación de objetivos se vuelve loca”
En el ejército israelí, el término “objetivo humano” se refería antiguamente a un alto mando militar que, según las normas del Departamento de Derecho Internacional del ejército, podía ser asesinado en su domicilio particular incluso en presencia de civiles. Fuentes de inteligencia informaron a +972 y Local Call que, durante las guerras anteriores de Israel, dado que esta era una forma “especialmente brutal” de matar a alguien —a menudo matando a una familia entera junto al objetivo—, estos objetivos humanos se marcaban con mucho cuidado y solo los altos mandos militares eran bombardeados en sus domicilios, para mantener el principio de proporcionalidad según el derecho internacional.
Pero después del 7 de octubre, cuando militantes liderados por Hamás lanzaron un ataque mortal contra comunidades del sur de Israel, matando a unas 1200 personas y secuestrando a 240, el ejército, según las fuentes, adoptó un enfoque radicalmente diferente. Bajo la "Operación Espadas de Hierro", el ejército decidió designar a todos los operativos del ala militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.
La nueva política también planteó un problema técnico para la inteligencia israelí. En guerras anteriores, para autorizar el asesinato de un solo objetivo humano, un oficial debía pasar por un complejo y largo proceso de "incriminación": verificar las pruebas de que la persona era efectivamente un miembro de alto rango del ala militar de Hamás, averiguar dónde vivía, su información de contacto y, finalmente, saber cuándo se encontraba en casa en tiempo real. Cuando la lista de objetivos incluía solo unas pocas docenas de operativos de alto rango, el personal de inteligencia podía encargarse individualmente de la labor de incriminarlos y localizarlos.
Sin embargo, una vez que la lista se amplió para incluir a decenas de miles de operativos de bajo rango, el ejército israelí consideró que debía recurrir a software automatizado e inteligencia artificial. El resultado, según las fuentes, fue que se dejó de lado el papel del personal humano en la incriminación de palestinos como operativos militares, y la IA realizó la mayor parte del trabajo. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender —desarrollado para crear objetivos humanos en la guerra actual— ha marcado a unos 37.000 palestinos como presuntos "militantes de Hamás", la mayoría de ellos de bajo rango, para su asesinato (el portavoz de las FDI negó la existencia de dicha lista en una declaración a +972 y Local Call).
"No sabíamos quiénes eran los operativos de bajo rango, porque Israel no los rastreaba rutinariamente [antes de la guerra]", explicó el oficial superior B. a +972 y Local Call, lo que explica el motivo del desarrollo de esta máquina de objetivos en particular para la guerra actual. Querían permitirnos atacar [a los operativos subalternos] automáticamente. Ese es el Santo Grial. Una vez que se vuelve automático, la generación de objetivos se vuelve loca.
Las fuentes afirmaron que la aprobación para adoptar automáticamente las listas de eliminación de Lavender, que anteriormente se habían utilizado solo como herramienta auxiliar, se otorgó unas dos semanas después del inicio de la guerra, después de que el personal de inteligencia verificara "manualmente" la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de inteligencia artificial. Cuando esa muestra determinó que los resultados de Lavender habían alcanzado un 90% de precisión en la identificación de la afiliación de un individuo a Hamás, el ejército autorizó el uso generalizado del sistema. A partir de ese momento, según las fuentes, si Lavender determinaba que un individuo era militante de Hamás, se les pedía que lo consideraran básicamente una orden, sin necesidad de verificar de forma independiente por qué la máquina tomó esa decisión ni de examinar los datos de inteligencia sin procesar en los que se basa.
“A las 5 de la mañana, [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado”, dijo B. “Eliminábamos a miles de personas. No las revisábamos una por una; lo automatizábamos todo, y en cuanto una de [las personas marcadas] llegaba a casa, se convertía inmediatamente en objetivo. Lo bombardeábamos a él y a su casa”.
“Me sorprendió mucho que nos pidieran bombardear una casa para matar a un soldado de infantería, cuya importancia en el combate era tan baja”, dijo una fuente sobre el uso de IA para marcar a presuntos militantes de bajo rango. “Apodé a esos objetivos 'objetivos basura'. Aun así, los consideraba más éticos que los objetivos que bombardeábamos sólo por 'disuasión': rascacielos que se evacuan y derriban solo para causar destrucción”.
Los resultados letales de esta flexibilización de las restricciones en la primera etapa de la guerra fueron asombrosos. Según datos del Ministerio de Salud palestino en Gaza, del que ha dependido casi exclusivamente el ejército israelí desde el comienzo de la guerra, Israel mató a unos 15.000 palestinos —casi la mitad del número de muertos hasta ahora— en las primeras seis semanas de la guerra, hasta que se acordó un alto el fuego de una semana el 24 de noviembre.
![]() |
| Se observa una destrucción masiva en el popular distrito de Al-Rimal, en la ciudad de Gaza, tras ser blanco de ataques aéreos israelíes, el 10 de octubre de 2023. (Mohammed Zaanoun/Activestills) |
Cuanta más información y variedad, mejor.
El software Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza mediante un sistema de vigilancia masiva. Posteriormente, evalúa y clasifica la probabilidad de que cada persona pertenezca al ala militar de Hamás o la Yihad Islámica Palestina. Según fuentes, la máquina califica a casi todas las personas de Gaza del 1 al 100, indicando la probabilidad de que sean militantes.
Lavender aprende a identificar las características de operativos conocidos de Hamás y la Yihad Islámica Palestina, cuya información se introdujo en la máquina como datos de entrenamiento, y luego a localizar estas mismas características —también llamadas "rasgos"— entre la población general, explicaron las fuentes. Un individuo que presente varias características incriminatorias diferentes alcanzará una calificación alta y, por lo tanto, se convierte automáticamente en un objetivo potencial de asesinato.
En "El Equipo Hombre-Máquina", el libro mencionado al principio de este artículo, el actual comandante de la Unidad 8200 aboga por un sistema de este tipo sin mencionar a Lavender por su nombre. (El comandante tampoco es nombrado, pero cinco fuentes en 8200 confirmaron que es el autor, como también informó Haaretz). Al describir al personal humano como un "cuello de botella" que limita la capacidad del ejército durante una operación militar, el comandante lamenta: "Nosotros [los humanos] no podemos procesar tanta información. No importa cuántas personas se les asigne para producir objetivos durante la guerra; aún no se pueden producir suficientes objetivos por día".
La solución a este problema, afirma, es la inteligencia artificial. El libro ofrece una breve guía para construir una "máquina de objetivos", similar en descripción a Lavender, basada en IA y algoritmos de aprendizaje automático. Esta guía incluye varios ejemplos de los "cientos de miles" de características que pueden aumentar la calificación de un individuo, como estar en un grupo de WhatsApp con un militante conocido, cambiar de celular cada pocos meses y cambiar de dirección con frecuencia.
"Cuanta más información y más variedad, mejor", escribe el comandante. "Información visual, información del celular, conexiones en redes sociales, información del campo de batalla, contactos telefónicos, fotos". Si bien los humanos seleccionan estas características al principio, continúa el comandante, con el tiempo la máquina las identificará por sí sola. Esto, afirma, puede permitir a los militares crear "decenas de miles de objetivos", mientras que la decisión real de atacarlos o no seguirá siendo humana.
El libro no es la única vez que un alto comandante israelí insinúa la existencia de máquinas de objetivos humanos como Lavender. +972 y Local Call obtuvieron imágenes de una conferencia privada impartida por el comandante del centro secreto de Ciencia de Datos e IA de la Unidad 8200, el coronel Yoav, en la semana de IA de la Universidad de Tel Aviv en 2023, de la que informaron entonces los medios israelíes.
En la conferencia, el comandante habla sobre una nueva y sofisticada máquina de objetivos utilizada por el ejército israelí que detecta a personas peligrosas basándose en su similitud con listas existentes de militantes conocidos con los que fue entrenada. "Usando el sistema, logramos identificar a los comandantes del escuadrón de misiles de Hamás", declaró el coronel Yoav en la conferencia, refiriéndose a la operación militar israelí de mayo de 2021 en Gaza, cuando se utilizó la máquina por primera vez.
![]() |
Las diapositivas de la presentación, también obtenidas por +972 y Local Call, ilustran el funcionamiento de la máquina: se alimenta con datos sobre los operativos de Hamás, aprende a reconocer sus características y luego clasifica a otros palestinos según su similitud con los militantes.
“Clasificamos los resultados y determinamos el umbral [para atacar un objetivo]”, declaró el coronel Yoav en la conferencia, enfatizando que “finalmente, las decisiones las toman personas de carne y hueso. En el ámbito de la defensa, éticamente hablando, damos mucha importancia a esto. Estas herramientas están diseñadas para ayudar [a los oficiales de inteligencia] a romper sus barreras”.
En la práctica, sin embargo, fuentes que han utilizado Lavender en los últimos meses afirman que la acción humana y la precisión fueron sustituidas por la creación masiva de objetivos y la letalidad.
No existía una política de "cero errores"
B., un oficial superior que utilizaba Lavender, reiteró a +972 y Local Call que, en la guerra actual, los oficiales no estaban obligados a revisar de forma independiente las evaluaciones del sistema de IA para ahorrar tiempo y permitir la producción masiva de objetivos humanos sin obstáculos.
"Todo era estadístico, todo estaba ordenado; era muy árido", dijo B. Señaló que esta falta de supervisión se permitió a pesar de que las comprobaciones internas demostraban que los cálculos de Lavender solo se consideraban precisos el 90 % de las veces; en otras palabras, se sabía de antemano que el 10 % de los objetivos humanos designados para ser asesinados no pertenecían en absoluto al ala militar de Hamás.
Por ejemplo, algunas fuentes explicaron que la máquina Lavender a veces marcaba erróneamente a personas con patrones de comunicación similares a los de operativos conocidos de Hamás o la Yihad Islámica Palestina, incluyendo policías y personal de defensa civil, familiares de militantes, residentes con nombre y apodo idénticos a los de un operativo, y gazatíes que usaban un dispositivo que perteneció a un operativo de Hamás.
"¿Qué tan cercana debe ser una persona a Hamás para que una máquina de IA la considere afiliada a la organización?", preguntó una fuente crítica sobre la inexactitud de Lavender. "Es un límite vago. ¿Es un operativo de Hamás una persona que no recibe un salario de Hamás, pero que le ayuda con todo tipo de cosas? ¿Es un operativo de Hamás alguien que estuvo en Hamás en el pasado, pero ya no está? Cada una de estas características —características que una máquina marcaría como sospechosas— es inexacta".
![]() |
| Palestinos en el lugar de un ataque aéreo israelí en Rafah, en el sur de la Franja de Gaza, el 24 de febrero de 2024. (Abed Rahim Khatib/Flash90) |
Existen problemas similares con la capacidad de las máquinas de reconocimiento para evaluar el teléfono usado por un individuo marcado para ser asesinado. "En la guerra, los palestinos cambian de teléfono constantemente", dijo la fuente. "La gente pierde contacto con sus familias, le da su teléfono a un amigo o a su esposa, e incluso puede perderlo. No hay forma de confiar al 100% en el mecanismo automático que determina a quién pertenece cada número de teléfono".
Según las fuentes, el ejército sabía que la mínima supervisión humana implementada no descubriría estas fallas. "No existía una política de 'cero errores'. Los errores se trataban estadísticamente", dijo una fuente que utilizó Lavender. "Debido al alcance y la magnitud, el protocolo era que, incluso si no se sabe con certeza si la máquina funciona correctamente, se sabe que estadísticamente funciona bien. Así que se intenta".
"Ha demostrado su eficacia", dijo B., la fuente principal. "Hay algo en el enfoque estadístico que te establece una cierta norma y estándar. Ha habido una cantidad ilógica de atentados en esta operación". Esto no tiene parangón, según recuerdo. Y confío mucho más en un mecanismo estadístico que un soldado que perdió a un amigo hace dos días. Todos allí, incluyéndome a mí, sufrimos pérdidas el 7 de octubre. La máquina lo hizo con frialdad. Y eso lo facilitó.
Otra fuente de inteligencia, que defendió la confianza en las listas de asesinatos de sospechosos palestinos generadas por Lavender, argumentó que valía la pena invertir el tiempo de un oficial de inteligencia solo para verificar la información si el objetivo era un alto mando de Hamás. "Pero cuando se trata de un militante joven, no conviene invertir personal ni tiempo en ello", dijo. "En la guerra, no hay tiempo para incriminar a todos los objetivos. Así que uno está dispuesto a asumir el margen de error que supone usar inteligencia artificial, arriesgarse a daños colaterales y a la muerte de civiles, y arriesgarse a atacar por error, y aceptarlo".
B. explicó que el motivo de esta automatización era la presión constante para generar más objetivos para asesinar. "En un día sin objetivos [cuya calificación de características fuera suficiente para autorizar un ataque], atacamos con un umbral más bajo. Nos presionaban constantemente: '¡Tráigannos más objetivos!'. Nos gritaban con vehemencia. Acabamos de [matar] a nuestros objetivos muy rápidamente". Explicó que al reducir el umbral de calificación de Lavender, se marcarían más personas como objetivos para los ataques. "En su punto máximo, el sistema logró generar 37.000 personas como posibles objetivos humanos", dijo B. "Pero las cifras cambiaban constantemente, porque depende de cómo se establezca el estándar de lo que es un agente de Hamás. Hubo momentos en que un agente de Hamás se definió de forma más amplia, y luego la máquina empezó a traernos todo tipo de personal de defensa civil, policías, contra quienes sería una pena desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados".
![]() |
| Palestinos
en el lugar donde se destruyó un edificio durante un ataque aéreo
israelí en Rafah, en el sur de la Franja de Gaza, el 18 de marzo de
2024. (Abed Rahim Khatib/Flash90) |
Una fuente que trabajó con el equipo de ciencia de datos militares que entrenó a Lavender afirmó que los datos recopilados de empleados del Ministerio de Seguridad Interna, controlado por Hamás, a quienes no considera militantes, también se incorporaron al sistema. "Me molestó que, durante el entrenamiento de Lavender, usaran el término 'operativo de Hamás' con ligereza e incluyeran a personas que eran trabajadores de la defensa civil en el conjunto de datos de entrenamiento", declaró.
La fuente añadió que, incluso si se cree que estas personas merecen ser asesinadas, entrenar el sistema basándose en sus perfiles de comunicación aumentaba la probabilidad de que Lavender seleccionara a civiles por error al aplicar sus algoritmos a la población general. "Al ser un sistema automático que no es operado manualmente por humanos, el significado de esta decisión es drástico: significa que se incluyen como objetivos potenciales a muchas personas con un perfil de comunicación civil".
“Solo comprobamos que el objetivo era un hombre”
El ejército israelí rechaza rotundamente estas afirmaciones. En una declaración a +972 y Local Call, el portavoz de las FDI negó el uso de inteligencia artificial para incriminar objetivos, afirmando que se trata simplemente de “herramientas auxiliares que asisten a los oficiales en el proceso de incriminación”. La declaración prosiguió: “En cualquier caso, se requiere un examen independiente por parte de un analista [de inteligencia] que verifique que los objetivos identificados sean objetivos legítimos para un ataque, de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional”.Sin embargo, fuentes indicaron que el único protocolo de supervisión humana vigente antes de bombardear las casas de presuntos militantes “jóvenes” marcados por Lavender consistía en realizar una única comprobación: asegurar que el objetivo seleccionado por la IA fuera un hombre y no una mujer. En el ejército se asumía que si el objetivo era una mujer, la máquina probablemente había cometido un error, ya que no hay mujeres en las filas de las facciones militares de Hamás y la Yihad Islámica Palestina.
“Una persona tenía que verificar al objetivo durante unos segundos”, dijo B., explicando que esto se convirtió en el protocolo tras darse cuenta de que el sistema Lavender funcionaba correctamente la mayor parte del tiempo. “Al principio, hacíamos comprobaciones para asegurarnos de que la máquina no se confundiera. Pero en un momento dado, recurrimos al sistema automático y solo comprobamos que el objetivo fuera un hombre; con eso fue suficiente. No se tarda mucho en distinguir si alguien tiene voz masculina o femenina”.
Para realizar la verificación de hombres y mujeres, B. afirmó que, en la guerra actual, «invertiría 20 segundos en cada objetivo en esta etapa y realizaría docenas de ellos cada día. Mi valor añadido como humano era nulo, salvo el de ser un sello de aprobación. Ahorraba mucho tiempo. Si [el agente] aparecía en el mecanismo automatizado y yo comprobaba que era un hombre, tendría permiso para bombardearlo, sujeto a un examen de daños colaterales».
![]() |
| Palestinos
emergen de los escombros de casas destruidas por los ataques aéreos
israelíes en la ciudad de Rafah, al sur de la Franja de Gaza, el 20 de
noviembre de 2023. (Abed Rahim Khatib/Flash90) |
En la práctica, según las fuentes, esto significaba que, en el caso de los civiles marcados por error por Lavender, no existía un mecanismo de supervisión para detectar el error. Según B., un error común ocurría "si el objetivo [de Hamás] le daba [su teléfono] a su hijo, a su hermano mayor o simplemente a un hombre cualquiera. Esa persona era bombardeada en su casa con su familia. Esto ocurría con frecuencia. Estos eran la mayoría de los errores causados por Lavender", dijo B.
PASO 2: VINCULAR OBJETIVOS CON HOGARES FAMILIARES
“La mayoría de las personas que mataron eran mujeres y niños”
La siguiente etapa en el proceso de asesinato del ejército israelí es identificar dónde atacar los objetivos que genera Lavender. En una declaración a +972 y Local Call, el portavoz de las FDI afirmó en respuesta a este artículo que “Hamás sitúa a sus operativos y recursos militares en el corazón de la población civil, los utiliza sistemáticamente como escudos humanos y lleva a cabo combates desde el interior de estructuras civiles, incluyendo lugares sensibles como hospitales, mezquitas, escuelas e instalaciones de la ONU. Las FDI están sujetas al derecho internacional y actúan conforme a él, dirigiendo sus ataques únicamente contra objetivos y operativos militares”.
Las seis fuentes con las que hablamos coincidieron en cierta medida, afirmando que el extenso sistema de túneles de Hamás pasa deliberadamente por debajo de hospitales y escuelas; que sus militantes utilizan ambulancias para desplazarse; y que innumerables recursos militares se han situado cerca de edificios civiles. Las fuentes argumentaron que muchos ataques israelíes matan a civiles como resultado de estas tácticas de Hamás, una caracterización que, según advierten grupos de derechos humanos, elude la responsabilidad de Israel por causar las bajas.
Sin embargo, en contraste con las declaraciones oficiales del ejército israelí, las fuentes explicaron que una de las principales razones del número sin precedentes de muertos por los bombardeos actuales de Israel es que el ejército ha atacado sistemáticamente objetivos en sus domicilios particulares, junto a sus familias, en parte porque, desde el punto de vista de la inteligencia, resultaba más fácil marcar las casas de las familias mediante sistemas automatizados.
De hecho, varias fuentes enfatizaron que, a diferencia de los numerosos casos de operativos de Hamás que participaron en actividades militares desde zonas civiles, en el caso de los asesinatos sistemáticos, el ejército optó rutinariamente por bombardear a presuntos militantes cuando se encontraban en viviendas civiles desde las que no se realizaba ninguna actividad militar. Esta decisión, afirmaron, reflejaba el diseño del sistema israelí de vigilancia masiva en Gaza.
Las fuentes informaron a +972 y Local Call que, dado que todos en Gaza tenían una casa particular con la que podían ser asociados, los sistemas de vigilancia del ejército podían vincular fácil y automáticamente a las personas con sus casas. Para identificar en tiempo real el momento en que los agentes entran en sus casas, se han desarrollado varios programas automatizados adicionales. Estos programas rastrean a miles de personas simultáneamente, identifican cuándo están en casa y envían una alerta automática al oficial encargado de la localización, quien posteriormente marca la casa para bombardearla. Uno de estos programas de rastreo, revelado aquí por primera vez, se llama "¿Dónde está papá?".
"Se introducen cientos de objetivos en el sistema y se espera a ver a quién se puede eliminar", dijo una fuente conocedora del sistema. "Se llama caza amplia: se copia y pega información de las listas que genera el sistema de objetivos".
La evidencia de esta política también se desprende de los datos: durante el primer mes de la guerra, más de la mitad de las víctimas mortales (6.120 personas) pertenecían a 1.340 familias, muchas de las cuales fueron completamente aniquiladas en sus hogares, según cifras de la ONU. La proporción de familias enteras bombardeadas en sus hogares durante la guerra actual es mucho mayor que en la operación israelí de 2014 en Gaza (anteriormente la guerra más mortífera de Israel en la Franja), lo que sugiere aún más la importancia de esta política.
Otra fuente afirmó que, cada vez que disminuía el ritmo de asesinatos, se añadían más objetivos a sistemas como "¿Dónde está Papá?" para localizar a personas que entraban en sus casas y, por lo tanto, podían ser bombardeadas. Añadió que la decisión de incluir a quién en los sistemas de rastreo podía ser tomada por oficiales de rango relativamente bajo en la jerarquía militar.
"Un día, por iniciativa propia, añadí unos 1200 nuevos objetivos al sistema [de rastreo], porque el número de ataques [que estábamos llevando a cabo] disminuyó", declaró la fuente. "Me pareció lógico. En retrospectiva, parece una decisión seria. Y este tipo de decisiones no se tomaron a altos niveles".
Las fuentes indicaron que, en las dos primeras semanas de la guerra, se incorporaron inicialmente "varios miles" de objetivos a programas de localización como "¿Dónde está Papá?". Estos incluían a todos los miembros de la unidad de élite de las fuerzas especiales de Hamás, la Nukhba, a todos los agentes antitanque de Hamás y a cualquiera que entrara en Israel el 7 de octubre. Pero poco después, la lista de objetivos a eliminar se amplió drásticamente. “Al final, todos [los marcados por Lavender]”, explicó una fuente. “Decenas de miles. Esto ocurrió unas semanas después, cuando las brigadas [israelíes] entraron en Gaza, y ya había menos civiles no involucrados en las zonas del norte”. Según esta fuente, incluso algunos menores fueron marcados por Lavender como objetivos para los bombardeos. “Normalmente, los operativos son mayores de 17 años, pero esa no era una condición”.
![]() |
| Palestinos heridos son atendidos en el suelo debido al hacinamiento en el Hospital Al-Shifa, Ciudad de Gaza, Franja de Gaza central, 18 de octubre de 2023. (Mohammed Zaanoun/Activestills) |
Lavender y sistemas como "¿Dónde está papá?" se combinaron con efectos letales, matando a familias enteras, según las fuentes. Al añadir un nombre de las listas generadas por Lavender al sistema de rastreo domiciliario "¿Dónde está papá?", explicó A., la persona marcada quedaría bajo vigilancia constante y podría ser atacada en cuanto entrara en su casa, derrumbándola sobre todos los que estuvieran dentro.
"Supongamos que calculas que hay un agente de Hamás y 10 civiles en la casa", dijo A. "Normalmente, estos 10 serían mujeres y niños. Así que, absurdamente, resulta que la mayoría de las personas que mataste eran mujeres y niños".
PASO 3: ELECCIÓN DEL ARMA
“Normalmente, los ataques se realizaban con bombas tontas””
Una vez que Lavender ha marcado un objetivo para su asesinato, el personal del ejército ha verificado que es hombre y el software de rastreo lo ha localizado en su domicilio, el siguiente paso es elegir la munición con la que bombardearlo. En diciembre de 2023, la CNN informó que, según estimaciones de la inteligencia estadounidense, alrededor del 45 % de las municiones utilizadas por la fuerza aérea israelí en Gaza eran bombas tontas, conocidas por causar más daños colaterales que las bombas guiadas. En respuesta al informe de la CNN, un portavoz del ejército citado en el artículo declaró: “Como ejército comprometido con el derecho internacional y un código moral de conducta, estamos dedicando vastos recursos a minimizar el daño a los civiles que Hamás ha obligado a actuar como escudos humanos. Nuestra guerra es contra Hamás, no contra el pueblo de Gaza”.
Sin embargo, tres fuentes de inteligencia informaron a +972 y Local Call que los agentes subalternos marcados por Lavender fueron asesinados únicamente con bombas silenciosas, con el fin de ahorrar armamento más costoso. Esto implicaba, según explicó una fuente, que el ejército no atacaría a un objetivo subalterno si vivía en un edificio alto, porque no quería gastar una "bomba de piso" más precisa y costosa (con efectos colaterales más limitados) para matarlo. Pero si un objetivo subalterno vivía en un edificio de pocas plantas, el ejército estaba autorizado a matarlo a él y a todos los que estuvieran en el edificio con una bomba silenciosa.
![]() |
| Palestinos
en el lugar donde se destruyó un edificio durante un ataque aéreo israelí en Rafah, en el sur de la Franja de Gaza, el 18 de marzo de 2024. (Abed Rahim Khatib/Flash90) |
“Pasaba lo mismo con todos los objetivos secundarios”, testificó C., quien utilizó varios programas automatizados en la guerra actual. “La única pregunta era: ¿es posible atacar el edificio en términos de daños colaterales? Porque normalmente llevábamos a cabo los ataques con bombas tontas, lo que significaba literalmente destruir toda la casa sobre sus ocupantes. Pero incluso si se evitaba un ataque, no te importaba; inmediatamente pasabas al siguiente objetivo. Gracias al sistema, los objetivos nunca terminan. Tienes otros 36.000 esperando”.
PASO 4: AUTORIZACIÓN DE BAJAS CIVILES
“Atacamos prácticamente sin considerar los daños colaterales”
Una fuente afirmó que, al atacar a operativos subalternos, incluyendo aquellos marcados por sistemas de IA como Lavender, el número de civiles que se les permitía matar junto a cada objetivo se fijó en hasta 20 durante las primeras semanas de la guerra. Otra fuente afirmó que el número fijo era de hasta 15. Estos “niveles de daños colaterales”, como los denomina el ejército, se aplicaron ampliamente a todos los presuntos militantes subalternos, según las fuentes, independientemente de su rango, importancia militar y edad, y sin un análisis caso por caso para sopesar la ventaja militar de asesinarlos frente al daño previsible a los civiles.
Según A., quien fue oficial en una sala de operaciones de objetivos durante la guerra actual, el departamento de derecho internacional del ejército nunca antes había dado una “aprobación tan amplia” para un grado de daños colaterales tan alto. “No se trata solo de que se pueda matar a cualquier persona que sea soldado de Hamás, lo cual está claramente permitido y es legítimo en términos del derecho internacional”, afirmó A. Pero te dicen directamente: "Puedes matarlos junto con muchos civiles".
"Cada persona que vistió el uniforme de Hamás en el último año o dos podía ser bombardeada, con 20 civiles muertos como daño colateral, incluso sin un permiso especial", continuó A. "En la práctica, el principio de proporcionalidad no existía".
Según A., esta fue la política durante la mayor parte de su servicio. Solo más tarde, el ejército redujo el grado de daños colaterales. "En este cálculo, también podrían ser 20 niños para un agente subalterno... Realmente no era así antes", explicó A. Al preguntársele sobre la justificación de seguridad de esta política, A. respondió: "Letalidad".
El grado de daño colateral predeterminado y fijo ayudó a acelerar la creación masiva de objetivos con la máquina Lavender, según las fuentes, ya que ahorraba tiempo. B. afirmó que el número de civiles que se les permitía matar durante la primera semana de la guerra por cada presunto militante joven marcado por la IA era de quince, pero que esta cifra fluctuaba con el tiempo.
“Al principio atacamos casi sin tener en cuenta los daños colaterales”, dijo B. sobre la primera semana después del 7 de octubre. “En la práctica, no se contabilizaban las personas [en cada casa bombardeada], porque era imposible saber si estaban en casa o no. Después de una semana, se implementaron restricciones sobre los daños colaterales. El número se redujo [de 15] a cinco, lo que nos dificultó mucho atacar, porque si toda la familia estaba en casa, no podíamos bombardearla. Luego volvieron a aumentar la cifra”.
Sabíamos que mataríamos a más de 100 civiles.
Fuentes informaron a +972 y Local Call que, en parte debido a la presión estadounidense, el ejército israelí ya no genera en masa blancos humanos jóvenes para bombardear viviendas civiles. El hecho de que la mayoría de las viviendas en la Franja de Gaza ya estuvieran destruidas o dañadas, y que casi toda la población estuviera desplazada, también afectó la capacidad del ejército para confiar en bases de datos de inteligencia y programas automatizados de localización de viviendas.E. afirmó que el bombardeo masivo de militantes jóvenes tuvo lugar solo en la primera o segunda semana de la guerra, y que luego se detuvo principalmente para no desperdiciar bombas. "Hay una economía de municiones", dijo E. "Siempre temieron que hubiera [una guerra] en el norte [con Hezbolá en el Líbano]. Ya no atacan a este tipo de personas [jóvenes] en absoluto".
Sin embargo, los ataques aéreos contra altos mandos de Hamás continúan, y fuentes afirmaron que, para estos ataques, el ejército autoriza la muerte de "cientos" de civiles por objetivo, una política oficial sin precedentes históricos en Israel, ni siquiera en operaciones militares recientes de Estados Unidos.
"En el bombardeo del comandante del Batallón Shuja'iya, sabíamos que mataríamos a más de 100 civiles", recordó B. sobre un atentado del 2 de diciembre que, según el portavoz de las FDI, tenía como objetivo asesinar a Wisam Farhat. "Para mí, psicológicamente, fue inusual. Más de 100 civiles... es un límite".
![]() |
| Una bola de fuego y humo se eleva durante los ataques aéreos israelíes en la Franja de Gaza, el 9 de octubre de 2023. (Atia Mohammed/Flash90) |
Amjad Al-Sheikh, un joven palestino de Gaza, contó que muchos de sus familiares murieron en ese bombardeo. Residente de Shuja'iya, al este de la ciudad de Gaza, se encontraba ese día en un supermercado local cuando escuchó cinco explosiones que destrozaron los cristales de las ventanas.
“Corrí a casa de mi familia, pero ya no había edificios”, declaró Al-Sheikh a +972 y Local Call. “La calle se llenó de gritos y humo. Bloques residenciales enteros se convirtieron en montañas de escombros y pozos profundos. La gente empezó a buscar en el cemento, con las manos, y yo también, buscando rastros de la casa de mi familia”.
La esposa y la pequeña hija de Al-Sheikh sobrevivieron, protegidas de los escombros por un armario que les cayó encima, pero él encontró a otros 11 miembros de su familia, entre ellos sus hermanas, hermanos y sus hijos pequeños, muertos bajo los escombros. Según el grupo de derechos humanos B’Tselem, el bombardeo de ese día destruyó docenas de edificios, mató a docenas de personas y enterró a cientos bajo las ruinas de sus casas.
Familias enteras fueron asesinadas.
Fuentes de inteligencia informaron a +972 y Local Call que participaron en ataques aún más mortíferos. Para asesinar a Ayman Nofal, comandante de la Brigada Central de Gaza de Hamás, una fuente afirmó que el ejército autorizó la muerte de aproximadamente 300 civiles, destruyendo varios edificios en ataques aéreos contra el campo de refugiados de Al-Bureij el 17 de octubre, basándose en una localización imprecisa de Nofal. Imágenes satelitales y videos del lugar muestran la destrucción de varios grandes edificios de apartamentos de varias plantas."Entre 16 y 18 casas fueron destruidas en el ataque", declaró Amro Al-Khatib, residente del campo, a +972 y Local Call. "No pudimos distinguir un apartamento del otro; todos quedaron revueltos entre los escombros, y encontramos restos humanos por todas partes".
Tras el incidente, Al-Khatib recordó que se sacaron unos 50 cadáveres de entre los escombros y que había unas 200 personas heridas, muchas de ellas de gravedad. Pero eso fue solo el primer día. Los residentes del campamento pasaron cinco días sacando a los muertos y heridos, dijo.
Nael Al-Bahisi, paramédico, fue uno de los primeros en llegar al lugar. Contó entre 50 y 70 bajas ese primer día. "En un momento dado, comprendimos que el objetivo del ataque era el comandante de Hamás, Ayman Nofal", declaró a +972 y Local Call. "Lo mataron, y también a mucha gente que desconocía su presencia. Familias enteras con niños murieron".
Otra fuente de inteligencia informó a +972 y Local Call que el ejército destruyó un rascacielos en Rafah a mediados de diciembre, matando a "decenas de civiles" para intentar matar a Mohammed Shabaneh, comandante de la Brigada de Rafah de Hamás (no está claro si murió en el ataque). A menudo, según la fuente, los altos mandos se esconden en túneles que pasan bajo edificios civiles, por lo que la decisión de asesinarlos con un ataque aéreo implica necesariamente la muerte de civiles. “La mayoría de los heridos eran niños”, dijo Wael Al-Sir, de 55 años, quien presenció el ataque a gran escala que algunos gazatíes creen que fue un intento de asesinato. Declaró a +972 y Local Call que el bombardeo del 20 de diciembre destruyó un bloque de viviendas entero y mató al menos a 10 niños.
“Había una política completamente permisiva con respecto a las bajas en los bombardeos, tan permisiva que, en mi opinión, tenía un componente de venganza”, afirmó D., una fuente de inteligencia. “El núcleo de esto fueron los asesinatos de altos mandos [de Hamás y la Yihad Islámica Palestina] por quienes estaban dispuestos a matar a cientos de civiles. Teníamos un cálculo: cuántos por un comandante de brigada, cuántos por un comandante de batallón, etcétera”.
“Había regulaciones, pero eran muy permisivas”, dijo E., otra fuente de inteligencia. “Hemos matado a personas con daños colaterales de al menos dos dígitos, o incluso de tres dígitos. Son cosas que no habían sucedido antes”.
Una tasa tan alta de "daños colaterales" es excepcional, no solo en comparación con lo que el ejército israelí consideraba aceptable anteriormente, sino también en comparación con las guerras libradas por Estados Unidos en Irak, Siria y Afganistán.
El general Peter Gersten, subcomandante de Operaciones e Inteligencia en la operación para combatir al ISIS en Irak y Siria, declaró a una revista de defensa estadounidense en 2021 que un ataque con daños colaterales de 15 civiles se desvió del procedimiento; para llevarlo a cabo, tuvo que obtener un permiso especial del jefe del Comando Central de EE. UU., el general Lloyd Austin, actual secretario de Defensa.
"Con Osama Bin Laden, se tenía un NCV [Valor de Bajas No Combatientes] de 30, pero con un comandante de bajo rango, su NCV era típicamente cero", dijo Gersten. "Nos mantuvimos en cero durante mucho tiempo".
Nos dijeron: “Bombardeen lo que puedan”.
Todas las fuentes entrevistadas para esta investigación afirmaron que las masacres de Hamás del 7 de octubre y el secuestro de rehenes influyeron enormemente en la política de fuego del ejército y en el grado de daños colaterales. “Al principio, el ambiente era doloroso y vengativo”, declaró B., quien fue reclutado inmediatamente después del 7 de octubre y sirvió en una sala de operaciones de blancos. “Las normas eran muy permisivas. Derribaron cuatro edificios cuando sabían que el objetivo estaba en uno de ellos. Fue una locura”.“Había una disonancia: por un lado, la gente de aquí estaba frustrada porque no atacábamos lo suficiente”, continuó B. “Por otro lado, al final del día, otros mil gazatíes han muerto, la mayoría civiles”.
“Había histeria en las filas profesionales”, declaró D., quien también fue reclutado inmediatamente después del 7 de octubre. “No tenían ni idea de cómo reaccionar”. Lo único que sabían hacer era empezar a bombardear como locos para intentar desmantelar las capacidades de Hamás”.
![]() |
| El
ministro de Defensa, Yoav Gallant, habla con soldados israelíes en una
zona de concentración cerca de la valla de Gaza, el 19 de octubre de
2023. (Chaim Goldberg/Flash90) |
D. enfatizó que no se les dijo explícitamente que el objetivo del ejército fuera la "venganza", pero expresó que "en cuanto todos los objetivos relacionados con Hamás se vuelvan legítimos, y con casi cualquier daño colateral aprobado, queda claro que miles de personas morirán. Incluso si oficialmente todos los objetivos están relacionados con Hamás, cuando la política es tan permisiva, pierde todo sentido".
A. también usó la palabra "venganza" para describir el ambiente dentro del ejército después del 7 de octubre. "Nadie pensó en qué hacer después, cuando la guerra terminara, ni en cómo sería posible vivir en Gaza ni qué harían con ella", dijo A. "Nos dijeron: ahora tenemos que joder a Hamás, cueste lo que cueste. Bombardeen todo lo que puedan".
B., la fuente principal de inteligencia, dijo que, en retrospectiva, cree que esta política "desproporcionada" de matar palestinos en Gaza también pone en peligro a los israelíes, y que esta fue una de las razones por las que decidió ser entrevistado.
A corto plazo, estamos más seguros porque perjudicamos a Hamás. Pero creo que a largo plazo estaremos menos seguros. Veo cómo todas las familias de Gaza en duelo —que son casi todos— aumentarán la motivación para unirse a Hamás dentro de 10 años. Y será mucho más fácil para Hamás reclutarlos.
En una declaración a +972 y Local Call, el ejército israelí negó gran parte de lo que nos dijeron las fuentes, afirmando que «cada objetivo se examina individualmente, mientras que se realiza una evaluación individual de la ventaja militar y los daños colaterales esperados del ataque... Las FDI no llevan a cabo ataques cuando los daños colaterales esperados del ataque son excesivos en relación con la ventaja militar».
PASO 5: CÁLCULO DE DAÑOS COLATERALES
“El modelo no se ajustaba a la realidad”
Según fuentes de inteligencia, el cálculo del ejército israelí del número de civiles que se preveía morir en cada casa junto a un objetivo —un procedimiento examinado en una investigación previa por +972 y Local Call— se realizó con la ayuda de herramientas automáticas e imprecisas. En guerras anteriores, el personal de inteligencia dedicaba mucho tiempo a verificar cuántas personas había en una casa que iba a ser bombardeada, y el número de civiles que podrían morir figuraba en un “archivo de objetivos”. Sin embargo, después del 7 de octubre, esta verificación exhaustiva se abandonó en gran medida en favor de la automatización.
En octubre, The New York Times informó sobre un sistema operado desde una base especial en el sur de Israel, que recopila información de teléfonos móviles en la Franja de Gaza y proporciona al ejército una estimación en tiempo real del número de palestinos que huyeron del norte de la Franja de Gaza hacia el sur. El Brig. El general Udi Ben Muha declaró al Times: «No es un sistema 100 % perfecto, pero proporciona la información necesaria para tomar una decisión». El sistema funciona con colores: el rojo marca las zonas con mucha gente, y el verde y el amarillo las zonas relativamente deshabitadas.
![]() |
| Palestinos
caminan por una calle principal tras huir de sus hogares en la ciudad de Gaza y encaminarse hacia el sur de Gaza, el 10 de noviembre de 2023. (Atia Mohammed/Flash90) |
Las fuentes que hablaron con +972 y Local Call describieron un sistema similar para calcular los daños colaterales, utilizado para decidir si se bombardeaba un edificio en Gaza. Indicaron que el software calculaba el número de civiles que residían en cada vivienda antes de la guerra —evaluando el tamaño del edificio y revisando su lista de residentes— y luego reducía esas cifras según la proporción de residentes que supuestamente habían evacuado el barrio.
Por ejemplo, si el ejército estimaba que la mitad de los residentes de un barrio se habían marchado, el programa contabilizaba una casa que normalmente tenía 10 residentes como una de cinco. Para ahorrar tiempo, según las fuentes, el ejército no inspeccionó las viviendas para comprobar cuántas personas vivían realmente allí, como sí hizo en operaciones anteriores, para comprobar si la estimación del programa era realmente precisa.
“Este modelo no se ajustaba a la realidad”, afirmó una fuente. “No había ninguna conexión entre quienes vivían en la vivienda ahora, durante la guerra, y quienes figuraban como residentes antes de la guerra”. [En una ocasión] bombardeamos una casa sin saber que había varias familias dentro, escondidas juntas.
La fuente afirmó que, aunque el ejército sabía que tales errores podían ocurrir, se adoptó este modelo impreciso por ser más rápido. Por ello, añadió, «el cálculo de daños colaterales fue completamente automático y estadístico», incluso generando cifras que no eran números enteros.
PASO 6: BOMBARDEO DE UNA CASA FAMILIAR
"Mataron a una familia sin motivo"
Las fuentes que hablaron con +972 y Local Call explicaron que, en ocasiones, había un lapso considerable entre el momento en que sistemas de rastreo como "¿Dónde está papá?" alertaban a un oficial de que un objetivo había entrado en su casa y el bombardeo, lo que provocaba la muerte de familias enteras incluso sin alcanzar el objetivo del ejército. "Me ha pasado muchas veces que atacamos una casa, pero la persona ni siquiera estaba allí", declaró una fuente. "El resultado es que mataste a una familia sin motivo". Tres fuentes de inteligencia informaron a +972 y Local Call que habían presenciado un incidente en el que el ejército israelí bombardeó la casa privada de una familia, y posteriormente se descubrió que el objetivo del asesinato ni siquiera estaba dentro de la casa, ya que no se realizó ninguna verificación en tiempo real.
![]() |
| Los
palestinos reciben los cuerpos de sus familiares fallecidos en ataques
aéreos israelíes. Hospital Al-Najjar, sur de la Franja de Gaza, 6 de noviembre de 2023. (Abed Rahim Khatib/Flash90) |
“A veces [el objetivo] estaba en casa antes, y luego por la noche se iba a dormir a otro sitio, por ejemplo, bajo tierra, sin que nadie se enterara”, dijo una de las fuentes. “Hay veces que se verifica la ubicación, y otras veces que simplemente se dice: ‘Bueno, estuvo en la casa en las últimas horas, así que pueden bombardear’”.
Otra fuente describió un incidente similar que lo afectó y le motivó a ser entrevistado para esta investigación. “Sabíamos que el objetivo estaba en casa a las 8 p. m. Al final, la fuerza aérea bombardeó la casa a las 3 a. m. Luego descubrimos que [en ese lapso] había logrado mudarse a otra casa con su familia. Había otras dos familias con niños en el edificio que bombardeamos”.
En guerras anteriores en Gaza, tras el asesinato de objetivos humanos, la inteligencia israelí realizaba procedimientos de evaluación de daños por bombas (EDA), una comprobación rutinaria posterior al ataque para determinar si el comandante superior había muerto y cuántos civiles murieron junto con él. Como se reveló en una investigación previa de +972 y Local Call, esto implicaba escuchar las llamadas telefónicas de familiares que habían perdido a sus seres queridos. Sin embargo, en la guerra actual, al menos en lo que respecta a los militantes jóvenes marcados mediante IA, las fuentes afirman que este procedimiento se abolió para ahorrar tiempo. Las fuentes afirmaron desconocer cuántos civiles murieron realmente en cada ataque, y en el caso de los presuntos operativos de bajo rango de Hamás y la Yihad Islámica Palestina marcados por IA, ni siquiera sabían si el objetivo mismo había muerto.
972M/
Yuval Abraham/ ‘Haz un pedido a Amazon’: cómo los gigantes tecnológicos
almacenan datos masivos para la guerra de Israel (agosto2024)

bc/status/186367659676710
https://x.com/swilkinbc/atus/1863676596768371016
htps://x.com
/swilkinsonbc/status/1863676596768371016
Todos somos Hussam
972M/
Yuval Abraham/ ‘Haz un pedido a Amazon’: cómo los gigantes tecnológicos
almacenan datos masivos para la guerra de Israel (agosto2024)

bc/status/186367659676710
https://x.com/swilkinbc/atus/1863676596768371016
htps://x.com
/swilkinsonbc/status/1863676596768371016
Todos somos Hussam
![]() |
bc/status/186367659676710
https://x.com/swilkinbc/atus/1863676596768371016
htps://x.com /swilkinsonbc/status/1863676596768371016
Todos somos Hussam
%2021.27.00.png)




















No hay comentarios:
Publicar un comentario