Los robots asesinos ya están en el campo de batalla y están demostrando ser armas bastante destructivas. Deberíamos estar preocupados; de hecho, muy preocupados. Como han demostrado su potencial letal en las guerras en Gaza y Ucrania, las consecuencias podrían ser devastadoras si se manejan con negligencia. El 3 de abril, la revista +972, una publicación israelí, publicó un informe sobre el uso de IA por parte de Israel para identificar objetivos en Gaza.

El sistema de inteligencia artificial se llama Lavender y se dice que selecciona listas de asesinatos de personal sospechoso de Hamás, incluidos los que trabajan en rangos inferiores. No tenemos idea de qué tan correctas eran las listas, pero el hecho más preocupante es que se utilizó para atacar a los militantes incluso si estaban en sus casas con sus familias, sus hijos y muchos civiles alrededor. El siguiente cuadro muestra el número de víctimas y heridos hasta el 15 de abril.

Fuente: Statista. Los algoritmos dicen a quién apuntar

Como se desprende del elevado número de muertes civiles y la escala masiva de destrucción de infraestructura después de la invasión israelí de Gaza, el informe causó serias preocupaciones entre las sociedades humanitarias, los funcionarios gubernamentales y todas las personas sensatas en todo el mundo y en Estados Unidos. Antonio Guterres, secretario general de las Naciones Unidas, dijo que estaba "profundamente preocupado" y John Kirby, portavoz de la Casa Blanca, dijo que "Estados Unidos estaba revisando el informe de cerca".

Guterres mostró más preocupación por las víctimas y dijo:

"Ninguna parte de las decisiones de vida o muerte que afectan a familias enteras debe delegarse al frío cálculo de algoritmos".

Fuente: Worldpoliticsreview.

El informe fue publicado después del incidente en el que Israel atacó y mató a siete trabajadores humanitarios occidentales y algunos de ellos eran ex militares británicos. Por supuesto, esto incitó a jueces y abogados de Gran Bretaña a detener la venta de armas a Israel debido a sus crímenes de guerra y sus graves violaciones del derecho internacional.

Otra dimensión del pensamiento sobre los robots asesinos

Aljazeera visualiza escenas en Gaza en noviembre basándose en estadísticas de OCHA. Fuente: Aljazeera.

La Campaña Para Detener a los Robots Asesinos mostró su preocupación pero dijo que no es contra lo que luchan desde 2012, ya que según ellos se trata de un sistema de procesamiento de datos, y la decisión final de disparar sigue en manos humanas, pero una de sus declaraciones aporta otra dimensión pensar sobre. La declaración se produjo después de la publicación de la noticia, dijo,

"Falta de control humano significativo y de compromiso involucrado en las decisiones de atacar los objetivos recomendados".

Fuente: Worldpoliticsreview.

Esta declaración utiliza la palabra “falta de control humano significativo”, lo que añade otra capa de complejidad a la ya condenada inteligencia artificial y a los robots asesinos, y también proporciona a los activistas una nueva preocupación por la que defender.

Generalmente se describe a la inteligencia artificial como algo que algún día podría apoderarse del planeta y causar daños catastróficos, incluso la extinción humana. Pero un hecho más preocupante es que las fuerzas que los utilizan tendrán menos precaución al atacar, lo que los hará menos responsables, lo que resultará en que tomen decisiones poco éticas en las guerras, como ya hemos visto en Gaza. Entonces, al final del día, no se trata de robots que toman decisiones contra los humanos, sino de humanos que toman decisiones robóticas sin utilizar sus propias capacidades cognitivas al máximo en situaciones tan sensibles de vida o muerte. Como el informe menciona una fuente que dice:

"La máquina lo hizo en frío".

Fuente: +972mag.

También hay otro ángulo: esto puede corromper la capacidad de los programadores para comunicarse de manera efectiva con los sistemas de inteligencia artificial, lo que terminará en crímenes de guerra.

La noticia original se puede ver aquí.