Israel está encarregado de identificar alvos para ataques aéreos em Gaza utilizando um sistema de inteligência artificial, permitindo assim o massacre de vários civis. Os militares israelenses supostamente utilizaram um banco de dados alimentado por IA chamado Lavender para criar uma lista de 37.000 alvos possíveis com aparentes ligações com o Hamas, de acordo com uma investigação recente da +972 Magazine and Local Call, com sede em Israel.

Mais de 33.000 palestinos morreram em Gaza desde 7 de outubro, e seis fontes não identificadas da inteligência israelense que conversaram com +972 afirmaram que os comandantes militares israelenses utilizaram a lista de alvos para aprovar ataques aéreos que resultaram em baixas civis excepcionalmente altas.

A devastação da guerra e dos sistemas militares de IA

Os sistemas militares baseados na inteligência artificial (IA), como o software Lavender de Israel, levaram a mais devastação em locais de conflito como Gaza. Famosa pela sua incrível capacidade de detectar pessoas do Hamas, a lavanda transformou-se numa arma de dois gumes que corta comunidades civis e despedaça vidas no seu caminho. A taxa de precisão declarada de 90% esconde a terrível realidade de como esta tecnologia, quando usada de forma descuidada, pode matar espectadores inocentes apanhados no fogo cruzado.

Uma fonte disse à 972mag que,

“Somos solicitados a procurar edifícios altos com meio andar que possam ser atribuídos ao Hamas”,

Fonte: +972mag

Como é bem sabido, a inteligência artificial opera com base em uma variedade de fatores, e a precisão desses parâmetros depende do seu ajuste fino. Altere os parâmetros dos dados e o computador começa a nos apresentar uma variedade de policiais e funcionários da defesa civil, contra os quais seria inapropriado usar bombas, disse outra fonte.

Outro critério duvidoso era se os celulares eram trocados regularmente ou não; a maioria dos habitantes de Gaza lidava diariamente com o caos social da guerra. Qualquer indivíduo que ajude o Hamas sem receber pagamento ou que tenha sido membro anterior também foi marcado como suspeito pelo algoritmo.

Como disse a fonte 971mag,

“Cada um desses recursos é impreciso”

Fonte: +972mag

O quebra-cabeça ético da automação no campo de batalha

Problemas profundamente éticos relacionados com a guerra impulsionada pela IA tornam-se cada vez mais prementes à medida que o fumo das zonas de batalha se dissipa. Outrora aclamada como um impedimento à automação desenfreada, a ideia de “humanos no circuito” é hoje vista como uma linha tênue que separa os julgamentos algorítmicos das suas implicações práticas. Um vislumbre perspicaz do pensamento daqueles encarregados de supervisionar as complexidades da guerra moderna é oferecido pelos testemunhos de comandantes israelitas que debatem as consequências morais da violência tornada possível pela inteligência artificial.

Desde que se tornou evidente quão desastrosos podem ser os conflitos provocados pela IA, uma preocupação tem estado na mente das pessoas: será que os humanos podem realmente dar-se ao luxo de dar às máquinas a vantagem em questões de vida ou morte? A responsabilização moral e a administração responsável são mais cruciais do que nunca, à medida que as nações enfrentam as consequências morais da automação e o perigo real da violência proporcionada pela IA. Os perigos do crescimento tecnológico desenfreado são claramente ilustrados pelas lições históricas num mundo à beira de um novo período horrível de guerra.