Die Killerroboter sind bereits auf dem Schlachtfeld und erweisen sich als ziemlich zerstörerische Waffen. Wir sollten besorgt sein – sogar sehr besorgt. Da sie ihr tödliches Potenzial in den Kriegen in Gaza und der Ukraine unter Beweis gestellt haben, könnten die Folgen verheerend sein, wenn man mit ihnen unvorsichtig umgeht. Am 3. April veröffentlichte das israelische Magazin +972 einen Bericht über Israels Einsatz von KI zur Identifizierung von Zielen in Gaza.

Das KI-System heißt Lavender und soll Todeslisten mutmaßlicher Hamas-Mitglieder erstellt haben, darunter auch solche in den unteren Rängen. Wir haben keine Ahnung, wie korrekt die Listen waren, aber das Beunruhigendste ist, dass es verwendet wurde, um die Militanten anzugreifen, selbst wenn sie zu Hause waren, mit ihren Familien und Kindern und vielen Zivilisten in der Nähe. Die folgende Tabelle zeigt die Zahl der Opfer und Verletzten bis zum 15. April.

Quelle: Statista. Algorithmen sagen, wen man ansprechen soll

Wie die hohe Zahl der zivilen Todesopfer und das massive Ausmaß der Zerstörung der Infrastruktur nach Israels Invasion in Gaza zeigen, löste der Bericht bei humanitären Organisationen, Regierungsvertretern und jedem vernünftigen Menschen auf der ganzen Welt und in den USA ernsthafte Besorgnis aus. Antonio Guterres, Generalsekretär der Vereinten Nationen, sagte, er sei „zutiefst beunruhigt“, und John Kirby, Sprecher des Weißen Hauses, sagte, dass „die USA den Bericht aufmerksam prüfen“.

Guterres zeigte sich besorgt über die Opfer und sagte:

„Entscheidungen über Leben und Tod, die ganze Familien betreffen, sollten nicht der kalten Berechnung von Algorithmen überlassen werden.“

Quelle: Worldpoliticsreview.

Der Bericht wurde nach dem Vorfall veröffentlicht, bei dem Israel sieben westliche Hilfsarbeiter gezielt angegriffen und getötet hatte, darunter einige ehemalige britische Militärangehörige. Dies veranlasste natürlich Richter und Anwälte in ganz Großbritannien, den Waffenverkauf an Israel aufgrund der Kriegsverbrechen und schwerwiegenden Verstöße gegen das Völkerrecht einzustellen.

Eine andere Dimension des Denkens über Killerroboter

Aljazeera visualisiert Szenen im Gazastreifen im November basierend auf OCHA-Statistiken. Quelle: Aljazeera.

Die Kampagne gegen Killerroboter äußerte ihre Bedenken, sagte aber, dass es nicht das sei, wogegen sie seit 2012 kämpfe, da es sich ihrer Meinung nach um ein Datenverarbeitungssystem handele und die endgültige Entscheidung über den Schuss in den Händen der Menschen liege. Eine ihrer Aussagen gibt jedoch eine andere Dimension zum Nachdenken. Die Erklärung kam nach der Veröffentlichung der Nachricht, hieß es:

„Es fehlt an sinnvoller menschlicher Kontrolle und Beteiligung bei der Entscheidung, empfohlene Ziele anzugreifen.“

Quelle: Worldpoliticsreview.

In dieser Aussage fällt die Formulierung „Mangel an sinnvoller menschlicher Kontrolle“, was die ohnehin schon verurteilte künstliche Intelligenz und Killerroboter noch komplizierter macht und den Aktivisten zudem ein neues Anliegen aufzeigt, für das sie sich einsetzen können.

Künstliche Intelligenz wird normalerweise so dargestellt, als könnte sie eines Tages den Planeten übernehmen und katastrophale Schäden oder sogar das Aussterben der Menschheit verursachen. Aber eine besorgniserregendere Tatsache ist, dass die Streitkräfte, die sie einsetzen, bei der Zielerfassung weniger vorsichtig sein werden. Sie werden weniger zur Rechenschaft gezogen, was dazu führen wird, dass sie in Kriegen unethische Entscheidungen treffen, wie wir bereits in Gaza gesehen haben. Letzten Endes geht es also nicht darum, dass Roboter Entscheidungen gegen Menschen treffen, sondern dass Menschen in solch sensiblen Situationen auf Leben und Tod Roboterentscheidungen treffen, ohne ihre eigenen kognitiven Fähigkeiten in vollem Umfang zu nutzen. Wie der Bericht eine Quelle zitiert, die sagt:

„Die Maschine hat es kaltblütig gemacht.“

Quelle: +972mag.

Und es gibt noch einen anderen Aspekt: ​​Dies kann die Fähigkeit der Programmierer beeinträchtigen, effektiv mit KI-Systemen zu kommunizieren, was zu Kriegsverbrechen führen kann.

Die Originalmeldung können Sie hier sehen.