Israel está encargado de identificar objetivos para ataques aéreos en Gaza utilizando un sistema de inteligencia artificial, permitiendo así la masacre de varios civiles. El ejército israelí supuestamente utilizó una base de datos impulsada por inteligencia artificial llamada Lavender para crear una lista de 37.000 posibles objetivos con aparentes vínculos con Hamás, según una investigación reciente realizada por la revista +972 y Local Call, con sede en Israel.

Más de 33.000 palestinos han muerto en Gaza desde el 7 de octubre, y seis fuentes de inteligencia israelíes no identificadas que hablaron con +972 afirmaron que los comandantes militares israelíes utilizaron la lista de objetivos para aprobar ataques aéreos que resultaron en bajas civiles excepcionalmente altas.

Los estragos de la guerra y los sistemas militares de IA

Los sistemas militares impulsados ​​por inteligencia artificial (IA), como el software Lavender de Israel, han provocado una mayor devastación en lugares en conflicto como Gaza. Reconocida por su asombrosa capacidad para detectar personal de Hamás, la lavanda se ha convertido en un arma de doble filo que atraviesa comunidades civiles y destroza vidas a su paso. La tasa de precisión declarada del 90% oculta la terrible realidad de cómo esta tecnología, cuando se usa descuidadamente, puede matar a transeúntes inocentes atrapados en el fuego cruzado.

Una fuente le dijo a 972mag que,

"Se nos pide que busquemos edificios altos de medio piso que puedan atribuirse a Hamás".

Fuente: +972mag

Como es bien sabido, la inteligencia artificial opera sobre una variedad de factores, y la precisión de estos parámetros depende de su ajuste fino. Cambie los parámetros de datos y la computadora comenzará a presentarnos una variedad de funcionarios de policía y defensa civil contra quienes no sería apropiado usar bombas, dijo otra fuente.

Otro criterio dudoso fue si los teléfonos móviles se cambiaban periódicamente o no; la mayoría de los habitantes de Gaza se enfrentaron diariamente al caos social de la guerra. Cualquier persona que ayude a Hamás sin recibir pago o que haya sido miembro anterior también fue marcada como sospechosa por el algoritmo.

Como dijo la fuente de 971mag,

"Cada una de estas características es inexacta"

Fuente: +972mag

El rompecabezas ético de la automatización en el campo de batalla

Los problemas profundamente éticos relacionados con la guerra impulsada por la IA se están volviendo cada vez más apremiantes a medida que se disipa el humo de las zonas de batalla. Alguna vez aclamada como un freno a la automatización desenfrenada, la idea de “humanos en el circuito” se considera hoy como una delgada línea que separa los juicios algorítmicos de sus implicaciones prácticas. Los testimonios de comandantes israelíes que debaten las consecuencias morales de la violencia posibilitada por la inteligencia artificial ofrecen una visión reveladora del pensamiento de quienes tienen la tarea de supervisar las complejidades de la guerra moderna.

Desde que se hizo evidente cuán desastrosos pueden ser los conflictos impulsados ​​por la IA, una preocupación ha estado en la mente de la gente: ¿pueden los humanos realmente darse el lujo de darle a las máquinas la ventaja en asuntos de vida o muerte? La rendición de cuentas moral y la administración responsable son más cruciales que nunca mientras las naciones enfrentan las consecuencias morales de la automatización y el peligro real de la violencia habilitada por la IA. Los peligros de un crecimiento tecnológico desenfrenado quedan claramente ilustrados por las lecciones históricas en un mundo al borde de un nuevo y horrendo período de guerra.