Os robôs assassinos já estão no campo de batalha e estão provando ser armas bastante destrutivas. Deveríamos estar preocupados – na verdade, muito preocupados. Dado que provaram o seu potencial mortal nas guerras em Gaza e na Ucrânia, as consequências poderão ser devastadoras se forem tratadas com descuido. Em 3 de Abril, a revista +972, uma publicação israelita publicou um relatório sobre a utilização de IA por Israel para identificar alvos em Gaza.

O sistema de IA chama-se Lavender e diz-se que efectuou a curadoria de listas de mortes de suspeitos de serem membros do Hamas, incluindo os que trabalhavam em escalões inferiores. Não temos ideia de quão corretas eram as listas, mas o facto mais preocupante é que foram usadas para atingir os militantes, mesmo que estivessem nas suas casas com as suas famílias, filhos e muitos civis por perto. O gráfico abaixo mostra o número de vítimas e feridos até 15 de abril.

Fonte: Statista. Algoritmos estão dizendo quem atingir

Como é evidente pelo elevado número de mortes de civis e pela enorme escala de destruição de infra-estruturas após a invasão de Gaza por Israel, o relatório causou sérias preocupações nas sociedades humanitárias, nos funcionários governamentais e em todos os indivíduos sensatos em todo o mundo e nos EUA. Antonio Guterres, secretário-geral das Nações Unidas, disse que estava “profundamente perturbado” e John Kirby, porta-voz da Casa Branca, disse que “os EUA estavam a rever o relatório de perto”.

Guterres mostrou mais preocupação com as vítimas e disse:

“Nenhuma parte das decisões de vida ou morte que afetam famílias inteiras deve ser delegada ao cálculo frio de algoritmos.”

Fonte: Worldpoliticsreview.

O relatório foi publicado após o incidente em que Israel atacou e matou sete trabalhadores humanitários ocidentais, alguns deles ex-militares britânicos. É claro que isto incitou juízes e advogados de toda a Grã-Bretanha a impedirem a venda de armas a Israel devido aos seus crimes de guerra e graves violações do direito internacional.

Outra dimensão do pensamento sobre robôs assassinos

Aljazeera visualizando cenas em Gaza em novembro com base nas estatísticas do OCHA. Fonte: Aljazeera.

A Campanha para Acabar com os Robôs Assassinos mostrou a sua preocupação, mas disse que não é contra isso que fazem campanha desde 2012, pois segundo eles é um sistema de processamento de dados, e a decisão final de disparar permanece nas mãos humanas, mas uma das suas declarações fornece outra dimensão pensar sobre. A declaração veio após a publicação da notícia, dizia:

“Falta de controle humano significativo e envolvimento envolvido nas decisões de ataque aos alvos recomendados.”

Fonte: Worldpoliticsreview.

Esta declaração utiliza a palavra “falta de controlo humano significativo”, o que acrescenta outra camada de complexidade à já condenada inteligência artificial e aos robôs assassinos, e também proporciona aos ativistas uma nova preocupação a defender.

A inteligência artificial é geralmente retratada como algo que um dia poderá dominar o planeta e causar danos catastróficos, até mesmo a extinção humana. Mas um facto mais preocupante é que as forças que os utilizam usarão menos cautela ao apontarem alvos, o que os tornará menos responsáveis, o que resultará na tomada de decisões antiéticas em guerras, como já vimos em Gaza. Portanto, no final das contas, não se trata de robôs tomando decisões contra humanos, mas de humanos tomando decisões robóticas sem usar ao máximo suas próprias habilidades cognitivas em situações tão sensíveis de vida ou morte. Como o relatório menciona uma fonte dizendo:

“A máquina fez isso friamente.”

Fonte: +972mag.

Há também outro ângulo: isto pode corromper a capacidade dos programadores de comunicarem eficazmente com os sistemas de IA, o que acabará em crimes de guerra.

A notícia original pode ser vista aqui.