TLDR

  • Der ehemalige OpenAI-Mitarbeiter William Saunders kündigte aufgrund von Bedenken hinsichtlich des Ansatzes des Unternehmens zur KI-Sicherheit.

  • Saunders verglich die Flugbahn von OpenAI mit jener der Titanic, wobei neuen Produkten Vorrang vor Sicherheitsmaßnahmen eingeräumt werde.

  • Er äußerte sich besorgt über den Fokus von OpenAI auf die Entwicklung künstlicher allgemeiner Intelligenz und die gleichzeitige Veröffentlichung kommerzieller Produkte.

  • Saunders war Teil des Superalignment-Teams von OpenAI, das später aufgelöst wurde.

  • Auch andere ehemalige OpenAI-Mitarbeiter haben das Unternehmen verlassen, um Unternehmen zu gründen, die sich auf KI-Sicherheit konzentrieren.

William Saunders, ein ehemaliges Mitglied des Superalignment-Teams von OpenAI, hat seine Entscheidung, das Unternehmen nach drei Jahren zu verlassen, öffentlich gemacht.

Saunders, der daran arbeitete, das Verhalten von KI-Sprachmodellen zu verstehen, gab an, er habe gekündigt, weil er das Gefühl gehabt habe, OpenAI lege Vorrang vor der Produktentwicklung gegenüber der Implementierung angemessener Sicherheitsmaßnahmen.

In jüngsten Interviews verglich Saunders die Flugbahn von OpenAI mit jener der Titanic und deutete an, dass das Unternehmen beeindruckende Technologien entwickle, ohne über ausreichende Sicherheitsvorkehrungen zu verfügen.

„Ich wollte wirklich nicht für die Titanic der KI arbeiten und deshalb habe ich gekündigt“, erklärte Saunders in einem Podcast-Interview.

Saunders äußerte sich besorgt über den doppelten Fokus von OpenAI, einerseits auf die Erzielung einer künstlichen allgemeinen Intelligenz (Artificial General Intelligence, AGI) – also den Punkt, an dem KI sich selbst etwas beibringen kann – und andererseits auf die Veröffentlichung kommerzieller Produkte.

Er glaubt, dass diese Kombination zu einer überstürzten Entwicklung und unzureichenden Sicherheitsvorkehrungen führen könnte.

„Sie sind auf dem Weg, die Welt zu verändern, und doch orientieren sich ihre Prioritäten bei der Veröffentlichung von Produkten eher an denen eines Produktunternehmens“, erklärte Saunders.

Er fügte hinzu, dass es bei OpenAI zwar Mitarbeiter gebe, die gute Arbeit beim Verständnis und der Vorbeugung von Risiken leisteten, er jedoch keine ausreichende Priorisierung dieser Arbeit sehe.

Die Bedenken des ehemaligen Mitarbeiters erstrecken sich auf die gesamte KI-Branche. Saunders war einer von 13 ehemaligen und aktuellen Mitarbeitern von OpenAI und Google DeepMind, die einen offenen Brief mit dem Titel „Ein Recht auf Warnung“ unterzeichnet haben.

In dem Brief wurde betont, wie wichtig es sei, den Mitgliedern der KI-Community die Möglichkeit zu geben, ihre Bedenken hinsichtlich der sich rasch entwickelnden Technologie zu äußern.

Saunders’ Abgang von OpenAI ist kein Einzelfall. Auch andere prominente Persönlichkeiten haben das Unternehmen aus ähnlichen Gründen verlassen.

So wurde beispielsweise Anthropic, ein konkurrierendes KI-Unternehmen, im Jahr 2021 von ehemaligen OpenAI-Mitarbeitern gegründet, die der Meinung waren, dass das Unternehmen nicht genügend auf Vertrauen und Sicherheit ausgerichtet sei.

Kürzlich verließ Ilya Sutskever, Mitbegründer und ehemaliger Chefwissenschaftler von OpenAI, das Unternehmen im Juni 2024, um Safe Superintelligence Inc. zu gründen, ein Unternehmen, das sich der KI-Forschung widmet und gleichzeitig dafür sorgt, dass „die Sicherheit immer an erster Stelle steht“.

OpenAI ist wegen seines Ansatzes zur KI-Entwicklung in die Kritik geraten und es kommt zu internen Turbulenzen. Im November 2023 wurde CEO Sam Altman vom Vorstand vorübergehend entlassen, der einen Vertrauensverlust als Grund anführte.

Obwohl Altman einige Tage später wieder eingestellt wurde, machte der Vorfall deutlich, dass innerhalb des Unternehmens anhaltende Spannungen herrschten.

Trotz dieser Bedenken treibt OpenAI seine KI-Entwicklung weiter voran. Das Unternehmen hat kürzlich sein Superalignment-Team aufgelöst, zu dem auch Saunders gehörte und das mit der Steuerung von KI-Systemen beauftragt war, die eines Tages intelligenter sein könnten als Menschen.

Der Beitrag „Ehemaliger OpenAI-Mitarbeiter äußert Bedenken hinsichtlich der Sicherheitspraktiken von KI“ erschien zuerst auf Blockonomi.