OpenAI trainiert ein neues KI-System als Nachfolger von GPT-4 und strebt damit einen Neustart für seinen guten Ruf an. Dem Modell wird ein Sicherheitsausschuss unter der Leitung von CEO Sam Altman und drei weiteren Vorstandsmitgliedern vorangehen.

Lesen Sie auch: ChatGPT verbreitet immer noch Unwahrheiten, sagt EU-Datenschutzbehörde

Das in San Francisco ansässige Unternehmen steht unter Druck, sein Engagement für Sicherheit unter Beweis zu stellen. Die kürzlich zurückgetretenen Risikoforscher Jan Leike und Gretchen Krueger haben die angeblich schlechte Sicherheitskultur von OpenAI auf X, ehemals Twitter, aufgedeckt.

OpenAI trainiert „Next Frontier Model“

In einem am Dienstag veröffentlichten Blogbeitrag erklärte das Unternehmen:

„OpenAI hat vor Kurzem mit dem Training seines nächsten Grenzmodells begonnen und wir erwarten, dass die daraus resultierenden Systeme uns auf die nächste Leistungsebene auf unserem Weg zur künstlichen allgemeinen Intelligenz (AGI) bringen werden.“

OpenAI hat nicht gesagt, wann der Nachfolger von GPT-4 erscheinen wird oder was er leisten könnte. Das Unternehmen, das mit 80 Milliarden Dollar bewertet wird, hat mit seinem äußerst beliebten KI-Chatbot ChatGPT einen Vorreiter-Ansatz verfolgt, zu einer Zeit, als Favoriten wie Google bei der Bewertung des Reputationsrisikos in den Hintergrund traten.

Obwohl OpenAI im Rennen um die generative künstliche Intelligenz, das von Anthropic, Google, Microsoft und anderen hart umkämpft ist, zu den Spitzenreitern zählt, hat das Unternehmen ethischen Prüfungen nicht immer standgehalten.

In einem Post, in dem er seinen Rücktritt von OpenAI on X bekannt gab, enthüllte Leike, dass „Sicherheitskultur und -prozesse in den vergangenen Jahren hinter glänzenden Produkten zurückgeblieben sind.“

Krueger schrieb, das Unternehmen müsse „mehr tun, um grundlegende Dinge wie Entscheidungsprozesse, Verantwortlichkeit, Transparenz, Durchsetzung von Richtlinien und die Sorgfalt, mit der wir unsere eigene Technologie nutzen, zu verbessern.“

Letzte Woche übte eine Task Force der Europäischen Union Kritik und berichtete, dass ChatGPT, das Flaggschiffprodukt des Unternehmens, seine Genauigkeitsstandards nicht erfülle.

Unternehmen wirbt für KI-Sicherheit als wichtigstes Verkaufsargument

Unterdessen löste das jüngste Update des GPT-4-Modells von OpenAI sofort einen Aufsehen erregenden Streit aus, bei dem die Schauspielerin Scarlett Johannson dem Unternehmen die unberechtigte Verwendung ihrer Stimme vorwarf.

Lesen Sie auch: OpenAI streicht ChatGPT Voice nach Scarlett Johansson-Kontroverse

Jetzt nutzt das Unternehmen seinen Vorsprung auch für den Waschsalon, indem es Sicherheit als Verkaufsargument für sein kommendes KI-Programm anpreist. Das Unternehmen möchte auch von den Aufsichtsbehörden als Entwickler verantwortungsvoller KI wahrgenommen werden. In seinem Blogbeitrag fügte OpenAI hinzu:

„Wir sind stolz darauf, Modelle zu bauen und auf den Markt zu bringen, die sowohl hinsichtlich ihrer Leistungsfähigkeit als auch ihrer Sicherheit branchenführend sind, begrüßen jedoch in diesem wichtigen Moment eine lebhafte Debatte.“

Der neue Sicherheitsausschuss wird von den Direktoren Altman, Bret Taylor (Vorsitzender), Adam D’Angelo und Nicole Seligman geleitet. Der Leiter der Vorbereitung, der Leiter der Sicherheitssysteme, der Leiter der Ausrichtungswissenschaft, der Leiter der Sicherheit und der Chefwissenschaftler des Unternehmens werden ebenfalls im Ausschuss vertreten sein.

OpenAI sagte, das Komitee werde in den nächsten drei Monaten „Prozesse und Sicherheitsvorkehrungen bewerten und weiterentwickeln“ und drei weiteren Direktoren Bericht erstatten.

Das Unternehmen löste sein Sicherheitsteam Anfang des Monats auf, nachdem der Teamleiter und OpenAI-Mitbegründer Ilya Sutskever das Unternehmen verlassen hatte.

Cryptopolitan-Berichterstattung von Jeffrey Gogo