OpenAI-Mitbegründer Ilya Sutskever gab während der jüngsten jährlichen KI-Konferenz Einblicke in die Zukunft der künstlichen Intelligenz. Er sprach über das transformative Potenzial von KI, „unvorhersehbar“ zu werden, während er die Herausforderungen und Implikationen hervorhob.
Sutskever sprach am Freitag auf der NeurIPS-Konferenz über das Konzept der „superintelligenten KI“, das er als Systeme definierte, die die menschlichen Fähigkeiten in einer Vielzahl von Aufgaben übertreffen.
OpenAI-Mitbegründer Ilya Sutskever glaubt, dass superintelligente KI ‚unvorhersehbar‘ sein wird https://t.co/vLHmqwQOJQ
— TechCrunch (@TechCrunch) 14. Dezember 2024
Er sagte voraus, dass solche Systeme qualitativ anders sein würden als die heutige KI und in gewisser Hinsicht unrecognizable. Laut Sutskever werden diese fortschrittlichen Systeme Selbstbewusstsein, ein Maß an Denken und die Fähigkeit besitzen, komplexe Szenarien aus begrenzten Daten zu verstehen.
„[Superintelligente] Systeme werden in einer echten Weise agentisch sein“, sagte er und stellte sie der aktuellen KI gegenüber, die er nur als „sehr leicht agentisch“ beschrieb.
Sutskever: Aktuelle KI-Modelle sind begrenzt
Als er auf der Konferenz einen „Test of Time“-Preis erhielt, erkannte Sutskever die Grenzen von Pre-Training-Modellen an, wie sie in OpenAIs ChatGPT verwendet werden. Während die aktuellen Systeme bemerkenswerte Fähigkeiten zeigen, warnte er, dass die endliche Natur der Internetdaten zu einem Engpass wird.
Vollständiger @ilyasut VORTRAG! über Pre-Training ist tot und mehr pic.twitter.com/PigZVvcEGB
— Diego | KI 🚀 – e/acc (@diegocabezas01) 14. Dezember 2024
Sutskever schlug alternative Ansätze vor, darunter KI-Systeme, die ihre eigenen Daten generieren oder ihre Antworten verfeinern, um die Genauigkeit zu verbessern. Diese Innovationen, so schlug er vor, könnten helfen, bestehende Einschränkungen zu überwinden.
Der OpenAI-Mitbegründer sprach auch über die ethischen Implikationen von superintelligenter KI, einschließlich des Potenzials solcher Systeme, Rechte zu fordern. „Es ist kein schlechtes Endergebnis, wenn man KIs hat und sie nur wollen, dass wir koexistieren und einfach Rechte haben“, bemerkte er.
Er betonte jedoch die inhärente Unvorhersehbarkeit von agentischen und selbstbewussten KIs, die sowohl Chancen als auch Herausforderungen für Entwickler und Regulierungsbehörden darstellen.
OpenAI-CEO Altman prognostiziert Disruption und das Aufkommen von AGI
Anfang dieses Monats teilte OpenAI-CEO Sam Altman ähnliche Ansichten mit Sutskever über die Grenzen der Leistungen superintelligenter KI. Auf dem DealBook-Gipfel der New York Times in New York City skizzierte Altman seine Vision für künstliche allgemeine Intelligenz (AGI). Er sagte voraus, dass AGI-KI-Systeme, die in der Lage sind, komplexe Aufgaben mit menschenähnlichem Denken zu erfüllen, möglicherweise bereits 2025 Realität werden könnten.
„Ich denke, es ist möglich … im Jahr 2025 werden wir Systeme haben, die wir uns ansehen … und die Leute werden sagen: ‚Wow, das ändert, was ich erwartet habe,‘“ sagte Altman.
Altman verglich die potenziellen Auswirkungen von KI mit der Erfindung des Transistors, der Industrien und Volkswirtschaften weltweit revolutionierte. Er beschrieb eine Zukunft, in der dies „schockierend fähig“ sein wird.
„KI-Modelle werden weit verbreitet verfügbar und in verschiedenen Anwendungen über Branchen hinweg genutzt. „Die KI selbst, der Denkprozess, wird kommodifiziert werden“, meinte Altman und deutete an, dass ihre Integration in das tägliche Leben so transformativ sein wird wie frühere technologische Durchbrüche.
Während seines Auftritts hob Altman die weit verbreitete Akzeptanz von ChatGPT hervor und enthüllte, dass das KI-Tool nun über 300 Millionen wöchentliche Nutzer hat. Er erkannte die laufenden Debatten über die Sicherheit an, betonte jedoch, dass der iterative Entwicklungs- und Bereitstellungsansatz entscheidend gewesen sei.
„Es gibt definitiv Leute, die denken, dass ChatGPT nicht ausreichend sicher ist“, sagte er, bemerkte jedoch, dass OpenAI glaubt, dass frühe Adoption, wenn die Einsätze niedriger sind, entscheidend für die schrittweise Verbesserung ist.
Altmans Betonung der Sicherheit spiegelte die Bedenken der Branche über die verantwortungsvolle Entwicklung von KI wider. Er erkannte an, dass ChatGPT „jetzt von den meisten der Gesellschaft als akzeptabel sicher und akzeptabel robust angesehen wird“, aber fortlaufende Verfeinerung und Aufsicht bleiben Prioritäten.
Reflexionen über Führung und die Evolution von OpenAI
Altmans Führungsreise hat eine entscheidende Rolle bei der Gestaltung des Weges von OpenAI gespielt. Er gründete die Organisation 2015 als gemeinnütziges Forschungsinstitut, um KI-Technologien zum Wohle der Menschheit voranzubringen. Bevor er 2019 Vollzeit zu OpenAI wechselte, war Altman von 2014 bis 2019 Präsident von Y Combinator, einem führenden Startup-Beschleuniger.
OpenAI hat sich von seinen gemeinnützigen Ursprüngen zu einem capped-profit Modell gewandelt, um die Finanzierung für großangelegte KI-Projekte zu sichern. Unter Altmans Führung startete das Unternehmen ChatGPT und DALL-E, die die KI-Landschaft neu gestaltet haben.
Die Reise war jedoch nicht ohne Herausforderungen. Im November 2023 wurde Altman kurzzeitig von seiner Rolle durch den OpenAI-Vorstand ausgeschlossen, aufgrund von Bedenken bezüglich seiner Kommunikation mit den Vorstandsmitgliedern. Der öffentlich ausgetragene Streit endete weniger als eine Woche später mit Altmans Wiederherstellung, da der Vorstand erklärte, sie seien nun in „guten Beziehungen“ mit dem CEO.
Von Null zu Web3 Pro: Ihr 90-Tage-Karriere-Startplan