Der ehemalige Chefwissenschaftler von OpenAI, Ilya Sutskever, gründet ein neues KI-Unternehmen, knapp einen Monat nachdem er seinen Abschied von OpenAI bekannt gegeben hat. „Ich gründe ein neues Unternehmen“, das Safe Superintelligence Inc. (SSI) heißen soll, gab er am späten Mittwoch bekannt.

Lesen Sie auch: OpenAIs Chefwissenschaftler Ilya Sutskever verabschiedet sich

SSI hat seinen Sitz in Amerika und Niederlassungen in Palo Alto und Tel Aviv. In einem offiziellen Post erklärte das Startup, es habe „ein Ziel und ein Produkt: eine sichere Superintelligenz“.

„Wir werden geradlinig auf die Entwicklung sicherer Superintelligenz hinarbeiten, mit einem Fokus, einem Ziel und einem Produkt. Wir werden dies durch revolutionäre Durchbrüche erreichen, die von einem kleinen Spitzenteam hervorgebracht werden“, sagte Sutskever.

„Unsere einzigartige Konzentration bedeutet keine Ablenkung“, sagt SSI

SSI wird derzeit von Sutskever, Daniel Gross und einem weiteren ehemaligen OpenAI-Forscher, Daniel Levy, geleitet. Die Investoren hinter dem Startup sind zum Zeitpunkt des Schreibens noch unbekannt.

Das Unternehmen merkte in der Ankündigung jedoch an, dass das gesamte „Team, die Investoren und das Geschäftsmodell darauf ausgerichtet sind, „eine sichere Superintelligenz“ zu erreichen. Die Bemerkung ist ein wenig wie ein Seitenhieb auf OpenAI, das einst von Elon Musk verklagt wurde, weil es den Profit über die Menschlichkeit stellte und seine ursprüngliche Mission aufgab.

„Unsere einzigartige Konzentration bedeutet, dass wir nicht durch Management-Overhead oder Produktzyklen abgelenkt werden, und unser Geschäftsmodell sorgt dafür, dass Sicherheit, Schutz und Fortschritt von kurzfristigem kommerziellen Druck isoliert sind.“

SSI

Sutskever gab am 15. Mai bekannt, dass er OpenAI verlässt, nachdem er fast ein Jahrzehnt für das führende KI-Unternehmen gearbeitet hatte. Zuvor hatte er sich nach einem gescheiterten Versuch, den CEO Sam Altman im Dezember letzten Jahres von OpenAI zu verdrängen, nicht mehr zu Wort gemeldet.

Nach fast einem Jahrzehnt habe ich mich entschieden, OpenAI zu verlassen. Die Entwicklung des Unternehmens war schlichtweg wundersam und ich bin zuversichtlich, dass OpenAI unter der Führung von @sama, @gdb, @miramurati und jetzt unter der Leitung von … eine AGI aufbauen wird, die sowohl sicher als auch nützlich ist.

– Ilya Sutskever (@ilyasut), 14. Mai 2024

Ein weiterer OpenAI-Manager, Jan Leike, trat nach Sutskever zurück. Beide leiteten gemeinsam das Superalignment-Team bei OpenAI, das dafür verantwortlich ist, zu verhindern, dass superintelligente KI-Modelle außer Kontrolle geraten.

Lesen Sie auch: Ein weiterer OpenAI-Manager, Jan Leike, tritt zurück

Sutskever gab seine Gründe für seinen Abschied von OpenAI nicht klar an. Leike verwies jedoch auf Sicherheitsbedenken im Unternehmen und sagte, dass „in den letzten Jahren Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund gerückt sind.“

„Ich bin beigetreten, weil ich dachte, OpenAI wäre der beste Ort der Welt, um diese Forschung durchzuführen“, sagte Leike. „Allerdings war ich mit der Führung von OpenAI schon seit geraumer Zeit anderer Meinung als die Kernprioritäten des Unternehmens, bis wir schließlich einen Bruchpunkt erreichten“, fügte er hinzu.

SSI ist nicht der erste Anbieter, der sich von OpenAI abspaltet

Leike kam am 28. Mai als ML-Forscher zu OpenAIs Konkurrenten Anthropic, während Sutskever sein neues KI-Unternehmen aufbaute – was zu einer Wiederholung geworden ist.

Bemerkenswerterweise wird SSI nicht das erste Unternehmen sein, das sich von OpenAI abspaltet. Im Jahr 2021 verließen zwei ehemalige Mitarbeiter von OpenAI das Unternehmen, um Anthropic mitzugründen, das am 13. Mai nach Kapitalerhöhung mit 18,4 Milliarden US-Dollar bewertet wurde.

Die Gründer von Anthropic hatten OpenAI ebenfalls aufgrund von Meinungsverschiedenheiten mit Sam Altman hinsichtlich der sicheren Entwicklung von KI verlassen.

Kryptopolitische Berichterstattung von Ibiam Wayas