Israel wird vorgeworfen, Ziele für Luftangriffe in Gaza mithilfe eines künstlichen Intelligenzsystems identifiziert und so das Massaker an mehreren Zivilisten ermöglicht zu haben. Das israelische Militär soll eine KI-gestützte Datenbank namens Lavender verwendet haben, um eine Liste mit 37.000 möglichen Zielen mit offensichtlichen Verbindungen zur Hamas zu erstellen, wie aus einer aktuellen Untersuchung des in Israel ansässigen +972 Magazine und Local Call hervorgeht.

Seit dem 7. Oktober sind in Gaza über 33.000 Palästinenser gestorben und sechs nicht identifizierte israelische Geheimdienstquellen, die mit +972 sprachen, gaben an, dass die israelische Militärkommandeure die Liste der Ziele dazu nutzten, Luftangriffe zu genehmigen, die außergewöhnlich viele zivile Opfer forderten.

Die verheerenden Auswirkungen von Krieg und KI-Militärsystemen

Militärische Systeme, die auf künstlicher Intelligenz (KI) basieren, wie etwa Israels Lavender-Software, haben in Konfliktgebieten wie Gaza zu noch mehr Zerstörung geführt. Lavender ist für seine unheimliche Fähigkeit bekannt, Hamas-Gefahren aufzuspüren, und hat sich zu einer zweischneidigen Waffe entwickelt, die Zivilisten in Stücke reißt und Leben auf ihrem Weg zerstört. Die angegebene Trefferquote von 90 % verschleiert die schreckliche Realität, dass diese Technologie, wenn sie unachtsam eingesetzt wird, unschuldige Passanten im Kreuzfeuer töten kann.

Eine Quelle erzählte 972mag, dass

„Wir werden gebeten, nach Hochhäusern mit einem halben Stockwerk zu suchen, die der Hamas zuzuordnen sind“,

Quelle: +972mag

Wie man weiß, basiert künstliche Intelligenz auf einer Vielzahl von Faktoren, und die Genauigkeit dieser Parameter hängt von ihrer Feinabstimmung ab. „Ändert man die Datenparameter, dann präsentiert uns der Computer eine Vielzahl von Polizisten und Zivilschutzbeamten, gegen die der Einsatz von Bomben ungeeignet wäre“, sagte eine andere Quelle.

Ein weiteres fragwürdiges Kriterium war, ob die Handys regelmäßig ausgetauscht wurden. Die meisten Bewohner des Gazastreifens waren täglich mit dem sozialen Chaos des Krieges konfrontiert. Jeder, der die Hamas unterstützte, ohne dafür bezahlt zu werden, oder ein ehemaliges Mitglied war, wurde vom Algorithmus ebenfalls als verdächtig eingestuft.

Wie die Quelle von 971mag sagte:

„Jedes dieser Merkmale ist ungenau“

Quelle: +972mag

Das ethische Rätsel der Automatisierung auf dem Schlachtfeld

Die tiefgreifenden ethischen Probleme der KI-gesteuerten Kriegsführung werden immer dringlicher, wenn sich der Rauch aus den Kampfgebieten verzieht. Einst als Abschreckung gegen ungezügelte Automatisierung gepriesen, wird die Idee der „Einbindung des Menschen“ heute als schmale Grenze zwischen algorithmischen Urteilen und ihren praktischen Auswirkungen gesehen. Die Aussagen israelischer Kommandeure, die über die moralischen Konsequenzen der durch künstliche Intelligenz ermöglichten Gewalt debattieren, bieten aufschlussreiche Einblicke in die Denkweise derjenigen, die mit der Überwachung der Komplexität moderner Kriegsführung betraut sind.

Seitdem deutlich wurde, wie verheerend KI-gesteuerte Konflikte sein können, treibt die Menschen eine Sorge um: Können es sich Menschen wirklich leisten, Maschinen in Fragen von Leben und Tod die Oberhand zu überlassen? Moralische Verantwortung und verantwortungsvolles Handeln sind wichtiger denn je, da die Nationen mit den moralischen Konsequenzen der Automatisierung und der realen Gefahr von KI-gestützter Gewalt zu kämpfen haben. Die Gefahren ungezügelten technologischen Wachstums werden durch historische Lehren in einer Welt am Rande einer schrecklichen neuen Kriegsperiode eindringlich illustriert.