Odaily Planet Daily News Am 14. Mai (letzten Dienstag), Eastern Time, gab OpenAI-Chefwissenschaftler Ilya Sutskever offiziell seinen Rücktritt bekannt. Am selben Tag gab auch Jan Leike, einer der Leiter des OpenAI Super Alignment-Teams, seinen Rücktritt bekannt. Am Freitag bestätigte OpenAI außerdem, dass das von Suzkovo und Jan Lake gemeinsam geleitete „Superintelligence Alignment Team“ aufgelöst wurde. Am frühen Morgen des 18. Mai veröffentlichte Jane Lake 13 Tweets auf der sozialen Plattform X, in denen sie den wahren Grund für ihren Rücktritt und weitere Insiderinformationen enthüllte. Als Reaktion auf Jane Lakes aktuelle Informationen gab Altman am 18. Mai auch eine dringende Antwort heraus: „Ich bin Jane Lake sehr dankbar für seinen Beitrag zur KI-Super-Alignment-Forschung und Sicherheitskultur von OpenAI, und ich bin sehr traurig, dass er das verlassen hat.“ Bedauerlicherweise stellte er fest, dass wir noch viel Arbeit vor uns haben, und wir sind uns einig, dass wir in den nächsten Tagen einen ausführlicheren Artikel zu diesem Thema schreiben werden Musk kommentierte die Nachricht von der Auflösung des „Super Alignment“-Teams: „Dies zeigt, dass Sicherheit nicht die oberste Priorität von OpenAI ist. Zusammenfassend lässt sich sagen, dass zum einen die Rechenressourcen nicht ausreichen und zum anderen, dass OpenAI nicht genug bezahlt.“ Aufmerksamkeit auf Sicherheit , sagte Jane Lake, dass mehr Ressourcen und Energie in die Vorbereitung der neuen Generation von KI-Modellen investiert werden sollten, aber der aktuelle Entwicklungspfad könne das Ziel nicht erfolgreich erreichen und sein Team stehe in den letzten Monaten vor großen Herausforderungen. Jane Lake betonte auch, dass die Entwicklung von Maschinen, die die menschliche Intelligenz übertreffen, voller Risiken sei, und OpenAI übernehme diese Verantwortung, aber Sicherheitskultur und -prozesse müssten bei der Produktentwicklung an den Rand gedrängt werden Bei der Umwandlung in ein Unternehmen steht die Sicherheit an erster Stelle. Die US-Vox-Website gab am 17. an, dass der Vorstand von OpenAI versucht habe, CEO Altman zu entlassen, oder dass sicherheitsbewusste Mitarbeiter entlassen wurden Laut Street Journal konzentrierte sich Suzkweil darauf, sicherzustellen, dass künstliche Intelligenz den Menschen nicht schadet, während andere, darunter Altman, eher darauf bedacht waren, die Entwicklung neuer Technologien zu fördern.Das Magazin „Wired“ sagte, Suzkweil sei eines von vier Vorstandsmitgliedern gewesen, die Altman im vergangenen November entlassen hätten. Quellen im Unternehmen sagten gegenüber Vox.com, dass sicherheitsbewusste Mitarbeiter das Vertrauen in Ultraman verloren hätten: „Dies ist ein Prozess, bei dem das Vertrauen Stück für Stück zusammenbricht, genau wie Dominosteine, die nacheinander fallen.“ Sie glauben, dass Ultraman behauptet, dass die Sicherheit an erster Stelle steht, sich in seinem Verhalten jedoch selbst widerspricht. Auf der US-Technologieblog-Website TechCrunch hieß es am 18., OpenAI habe die Sicherheitsforschung aufgegeben und stattdessen neue Produkte wie GPT-4o auf den Markt gebracht, was letztendlich zum Rücktritt der beiden Leiter des „Super Alignment“-Teams führte. Es ist unklar, wann oder ob die Technologiebranche die notwendigen Durchbrüche erzielen wird, um künstliche Intelligenz zu schaffen, die in der Lage ist, jede Aufgabe zu erledigen, die ein Mensch bewältigen kann. (Weltweites Netz)