Was ist los bei OpenAI? Die Hälfte des Sicherheitsteams ist gegangen!

Es gibt Abgänge im AGI-Sicherheitsteam von OpenAI. Es sind Bedenken hinsichtlich der Sicherheit von Systemen der künstlichen Intelligenz (AGI) aufgetaucht.

Es gab einen großen Abgang im #AGI -Sicherheitsteam von OpenAI, das dafür verantwortlich ist, dass die von ihm entwickelten Systeme der künstlichen allgemeinen Intelligenz (AGI) keine Bedrohung für die Menschheit darstellen. Fast die Hälfte der Forscher dieses Teams hat das Unternehmen in den letzten Monaten verlassen, so der ehemalige OpenAI-Governance-Forscher Daniel Kokotajlo.

Seit 2024 ist das AGI-Team des künstlichen Intelligenzgiganten OpenAI, das wir von Sprach-GPT-Modellen wie #ChatGPT kennen, von etwa 30 auf 16 Personen geschrumpft. Dies hat Bedenken geweckt, ob OpenAI der Sicherheit genügend Aufmerksamkeit schenkt.

Laut Kokotajlo waren diese Abgänge nicht das Ergebnis einer organisierten Bewegung, sondern vielmehr die Entscheidung einzelner Forscher, das Unternehmen zu verlassen. #OpenAI erklärte in einer Erklärung, dass es zuversichtlich sei, die sichersten KI-Systeme der Welt liefern zu können.

Es lässt sich jedoch nicht ignorieren, dass diese großen Abgänge Fragen über die Zukunft des Unternehmens in der Sicherheitsforschung aufwerfen. Diese Entwicklung wirft Fragen auf, wie #OpenAI die Sicherheit zukünftiger AGI-Systeme angehen wird und auf welche neuen Projekte sich die Forscher konzentrieren werden, die dieses Team verlassen.