El rol de la IA en el bombardeo sobre Gaza
07.12.2023
Hoy nuestra principal fuente de financiamiento son nuestros socios. ¡ÚNETE a la Comunidad +CIPER!
07.12.2023
Una guerra es, entre otras cosas, un despliegue de técnicas de ataque. En la operación militar israelí en marcha contra la población palestina desempeña un papel el nuevo ‘Habsora’, un sistema de inteligencia artificial diseñado para generar rápidamente recomendaciones (objetivos) para las fuerzas aéreas, según describe esta columna para CIPER.
Con el inicio de diciembre, las Fuerzas de Defensa de Israel (FDI) reanudaron las operaciones militares en la Franja de Gaza, poniendo fin a una tregua de solo siete días. Como sabemos, la actual ofensiva en Gaza es una respuesta a los ataques del 7 de octubre perpetrados por Hamás contra objetivos militares y civiles en el sur de Israel, los cuales dejaron un saldo de 1200 muertos (en su gran mayoría, civiles) y alrededor de 240 rehenes. Los testimonios señalan la excepcional brutalidad de los combatientes de Hamás, quienes no solo asesinaron sino también torturaron y violaron a mujeres y a niñas.
La severidad de la respuesta de Israel recuerda al Dios del Antiguo Testamento y su despliegue de castigos y plagas contra los pecadores. Según varias estimaciones, incluido el Ministerio de Salud controlado por Hamás, más de 15.000 civiles han perdido la vida en Gaza debido a los intensivos bombardeos desde octubre, de los cuales más de 6.000 son niños. Entre las acciones retaliativas se encuentra el bombardeo de un convoy civil de refugiados que se desplazaba por una ruta designada como corredor humanitario por las propias FDI, además de múltiples redadas en el campo de refugiados llamado Jabalia. Las acciones de Israel han sido objeto de críticas por parte de organizaciones humanitarias internacionales, como Amnistía Internacional.
El reinicio de la ofensiva coincidió con la publicación de una investigación conjunta de +972 Magazine y Local Call, medios de comunicación independientes israelíes financiados, entre otros, por la Open Society Foundation y el Rockefeller Brothers Fund. Basándose en declaraciones anónimas y comunicados oficiales, el autor del informe, Yuval Abraham, esboza una nueva doctrina en las acciones militares de las FDI. Como resultado de lo que él llama una «fábrica de matanzas en masa», se ha producido un dramático número de víctimas civiles, sin precedentes recientes en el conflicto palestino-israelí. Uno de los aspectos de la nueva doctrina es el bombardeo de objetivos de baja importancia militar, principalmente edificios residenciales e instituciones civiles. Mientras que en escaladas anteriores del conflicto los ataques se dirigían principalmente a altos oficiales de Hamás, ahora los objetivos son los hogares de combatientes comunes y sus familias. Además, una conexión con Hamás a menudo sirve solo como pretexto para atacar a los llamados «objetivos de poder»; es decir, objetivos civiles cuya destrucción busca, principalmente, ejercer presión sobre la comunidad palestina.
La mayor propensión a los ataques contra objetivos de baja importancia no solo se debe al deseo de venganza, sino también a nuevas capacidades técnicas. La clave para esto es ‘Habsora’ (Las Buenas Noticias), un sistema de inteligencia artificial diseñado para generar rápidamente recomendaciones (objetivos) para las fuerzas aéreas. Esta información no sorprende. Después de la operación en Gaza en mayo de 2021, los medios israelíes la describieron como la primera en que se utilizaba la inteligencia artificial en tal medida. Ya en ese momento The Jerusalem Post informó sobre la existencia de ‘Habsora’. Naturalmente, las FDI no revelan muchos detalles sobre el funcionamiento del sistema, pero se puede obtener una imagen aproximada a partir de los informes mencionados. ‘Habsora’ analiza diversos datos de inteligencia, incluida la topografía del terreno, imágenes satelitales, registros de redes telefónicas, conversaciones y mensajes interceptados. Utilizando grandes capacidades de computación, el sistema presenta propuestas de objetivos (alrededor de cien al día, según un excomandante de las FDI), que luego son aprobadas por operadores humanos y transmitidas a las fuerzas aéreas.
Los sistemas de inteligencia artificial para identificar posibles objetivos de ataque no son nada nuevo. Se puede mencionar el sistema estadounidense RT-RG, que busca patrones irregulares de comportamiento en datos de teléfonos móviles y computadoras (incluidas conversaciones interceptadas), el cual fue utilizado por primera vez en combate en 2007 en Irak y, según algunos informes, se utilizó un año después en Afganistán y para monitorear la frontera entre Estados Unidos y México.
En el caso de los sistemas de inteligencia artificial, la pregunta fundamental siempre es sobre qué premisas se entrena el sistema antes de su uso. Para que el sistema pueda aprender a reconocer al «enemigo», primero se le deben mostrar ejemplos de lo que es ese «enemigo», de la misma manera que se lo enseñamos a un niño. En su comunicado oficial, las FDI afirmaron que el sistema busca lograr una «total concordancia entre las recomendaciones de la máquina y el reconocimiento hecho por una persona». Podemos interpretar esto de la siguiente manera: ‘Habsora’ está entrenada para imitar en sus recomendaciones a los analistas humanos. El principal cambio cualitativo radica en que el sistema realiza el mismo trabajo con una velocidad considerablemente más rápida.
Esto significa que las promesas de las FDI sobre la capacidad del sistema para reducir el número de víctimas civiles parecen estar débilmente fundamentadas, a menos que el punto de referencia sea un escenario hipotético en el que las FDI simplemente bombardearían cada edificio en Gaza. ¿Es entonces la IA responsable de las trágicas escenas en Gaza, como las imágenes de niños muertos sacados de los escombros?
‘Habsora’ no toma decisiones independientes. Finalmente, cada recomendación del sistema es aprobada por un operador. Con el gran número de recomendaciones, los operadores pueden desarrollar automatismos en sus acciones y aprender cierta ceguera a los detalles. Es difícil creer que los operadores puedan verificar bien cada recomendación de inteligencia artificial. E incluso si así fuese, personalmente tengo dudas sobre si la reducción de las víctimas civiles es una prioridad importante para ellos. Las imágenes que llegan desde Gaza parecen contradecirlo.