Mehrere aktuelle und ehemalige Mitarbeiter von OpenAI und Google DeepMind warfen ihren Unternehmen vor, KI-Risiken zu verheimlichen, die möglicherweise das Aussterben der Menschheit auslösen könnten. In einem offenen Brief behaupteten die Mitarbeiter, dass KI-Unternehmen den Profit in den Vordergrund stellen und gleichzeitig eine „wirksame [staatliche] Aufsicht“ vermeiden.

Lesen Sie auch: OpenAI plant GPT-4-Nachfolger trotz Sicherheitsbedenken

Der offene Brief wurde von elf ehemaligen Mitarbeitern von OpenAI unterzeichnet, zwei von Google DeepMind, und vom „Pate der KI“, Geoffrey Hinton, ehemals bei Google, unterstützt. Darin heißt es, dass Profitmotive und Gesetzeslücken es Unternehmen ermöglichen, die Bedrohungen durch fortgeschrittene künstliche Intelligenz zu vertuschen.

KI könnte zum „Aussterben der Menschheit“ führen

Dem Brief zufolge haben KI-Unternehmen wie OpenAI und Google DeepMind, der Entwickler von Gemini, keine Informationen über die unzureichenden Sicherheitsvorkehrungen und Risikostufen ihrer Systeme öffentlich gemacht, da sie dazu nicht verpflichtet sind.

Ohne behördliche Aufsicht könnten die KI-Programme den Menschen großen Schaden zufügen. Die Mitarbeiter warnten:

„Diese Risiken reichen von der weiteren Verschärfung bestehender Ungleichheiten … bis hin zum Kontrollverlust über autonome KI-Systeme, was möglicherweise zum Aussterben der Menschheit führen könnte.“

Wie die Unterzeichner des Briefes anmerkten, haben KI-Unternehmen selbst diese Risiken anerkannt. Im Mai 2023 unterzeichneten die CEOs von OpenAI, Anthropic und Google DeepMind gemeinsam einen offenen Brief des Center for AI Safety. In dem Brief hieß es schlicht: „Die Eindämmung des Aussterberisikos durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen eine globale Priorität sein.“

KI-Unternehmen geraten zunehmend unter die Lupe, weil sie neuartige Produkte und Profit über Sicherheit und Schutz stellen. Der ChatGPT-Hersteller OpenAI nahm die im Brief geäußerten Bedenken zur Kenntnis und sagte, er arbeite an der Entwicklung einer sicheren künstlichen Intelligenz.

„Wir sind stolz auf unsere Erfolgsbilanz bei der Bereitstellung der leistungsfähigsten und sichersten KI-Systeme und glauben an unseren wissenschaftlichen Ansatz im Umgang mit Risiken“, sagte OpenAI-Sprecherin Lindsey Held der New York Times.

„Wir sind uns einig, dass angesichts der Bedeutung dieser Technologie eine gründliche Debatte von entscheidender Bedeutung ist, und wir werden weiterhin mit Regierungen, der Zivilgesellschaft und anderen Gemeinschaften auf der ganzen Welt zusammenarbeiten.“

Whistleblower fürchten Vergeltungsmaßnahmen

Die ehemaligen Mitarbeiter von OpenAI und Google sagten, sie würden die Aufsichtsfunktion gern übernehmen, während die Regulierungsbehörden Gesetze ausarbeiten, die KI-Entwickler dazu verpflichten, mehr Informationen über ihre Programme öffentlich zugänglich zu machen.

Allerdings halten Vertraulichkeitsvereinbarungen und die Möglichkeit von Vergeltungsmaßnahmen seitens der Arbeitgeber die Arbeitnehmer davon ab, ihre Bedenken öffentlich zu äußern. In dem Brief heißt es:

„Einige von uns befürchten berechtigterweise verschiedene Formen von Vergeltungsmaßnahmen, wenn man die Geschichte solcher Fälle in der gesamten Branche bedenkt. Wir sind nicht die Ersten, die mit diesen Problemen konfrontiert sind oder darüber sprechen.“

In den USA sind Whistleblower gesetzlich geschützt. Wer jedoch auf die Gefahren künstlicher Intelligenz aufmerksam macht, ist davon ausgenommen, da für diese Technologie noch keine Regulierung besteht.

Lesen Sie auch: ChatGPT verbreitet immer noch Unwahrheiten, sagt EU-Datenschutzbehörde

In dem Brief werden KI-Unternehmen aufgefordert, nachweislich anonymes Feedback zu ermöglichen, eine Kultur der offenen Kritik zu fördern und keine Vergeltungsmaßnahmen gegen Whistleblower zu ergreifen.

Laut dem KI-Forscher Lance B. Eliot gehen Firmen mit Kritik nach dem Zuckerbrot-und-Peitsche-Prinzip vor. Mitarbeiter, die Risiken nicht offen ansprechen, werden mit Beförderungen und Gehaltserhöhungen belohnt.

Auf der anderen Seite verlieren Whistleblower und Kritiker ihre Aktienoptionen und können aus dem Unternehmen gedrängt und von der KI-Führungsgemeinschaft stillschweigend auf die schwarze Liste gesetzt werden.

Cryptopolitan-Berichterstattung von Jeffrey Gogo