Demokraten im Senat und ein unabhängiger Abgeordneter haben dem CEO von OpenAI, Sam Altman, einen Brief zu den Sicherheitsstandards und Beschäftigungspraktiken des Unternehmens gegenüber Whistleblowern geschickt.

Der vielleicht bedeutsamste Teil des Briefes, der zuerst der Washington Post vorliegt, ist Punkt 9, der lautet: „Wird sich OpenAI dazu verpflichten, sein nächstes Basismodell den US-Behörden für Tests, Überprüfungen, Analysen und Bewertungen vor der Bereitstellung zur Verfügung zu stellen?“

In dem Brief wurden elf weitere Punkte genannt, die behandelt werden sollten. Dazu gehört auch die Zusage von OpenAI, 20 % seiner Rechenleistung für die Förderung von Sicherheitsforschung und -protokollen bereitzustellen, um zu verhindern, dass böswillige Akteure oder ausländische Gegner KI-Produkte von OpenAI stehlen.

Aufsichtsrechtliche Kontrolle

Obwohl behördliche Kontrollen für OpenAI und den gesamten künstlichen Intelligenzsektor nichts Neues sind, erfolgte der Brief der demokratischen Abgeordneten aufgrund von Whistleblower-Berichten über laxe Sicherheitsstandards für GPT-4 Omni, um sicherzustellen, dass die Markteinführung des Produkts nicht verzögert wird.

Verwandt: Synchron und ChatGPT helfen gelähmten Patienten, wieder zu chatten und Textnachrichten zu verschicken

Whistleblower von OpenAI behaupteten außerdem, dass Versuche, Sicherheitsbedenken an das Management weiterzugeben, mit Vergeltungsmaßnahmen und angeblich illegalen Geheimhaltungsvereinbarungen beantwortet wurden, was die Whistleblower dazu veranlasste, im Juni 2024 eine Beschwerde bei der Securities and Exchange Commission einzureichen.

Kurz darauf, im Juli, kündigten die Tech-Giganten Microsoft und Apple aufgrund verstärkter behördlicher Kontrollen ihre Mitgliedschaften im Vorstand von OpenAI. Die Entscheidung, keinen Sitz im Vorstand anzunehmen, fiel trotz der 13-Milliarden-Dollar-Investition von Microsoft in OpenAI im Jahr 2023.

Existenzängste bleiben bestehen

Der ehemalige OpenAI-Mitarbeiter William Saunders gab kürzlich bekannt, dass er das Unternehmen verlassen habe, weil er die laufende Forschung bei OpenAI für eine existenzielle Bedrohung für die Menschheit halte. Er verglich die mögliche Entwicklung von OpenAI mit dem berüchtigten Absturz der RMS Titanic im Jahr 1912.

Saunders stellte klar, dass er sich keine Sorgen um die aktuelle Iteration des großen Sprachmodells ChatGPT von OpenAI mache, sondern sich mehr um zukünftige Versionen von ChatGPT und die potenzielle Entwicklung einer fortgeschrittenen übermenschlichen Intelligenz mache.

Der Whistleblower argumentierte, dass Mitarbeiter, die im Bereich der künstlichen Intelligenz arbeiten, das Recht hätten, die Öffentlichkeit vor den potenziell gefährlichen Möglichkeiten zu warnen, die die rasante Entwicklung der synthetischen Intelligenz mit sich bringe.

Magazin: AI Eye: Ist KI eine Bedrohung auf Atomwaffenniveau? Warum alle KI-Felder gleichzeitig vorrücken, dumme Bildwortspiele