Im Kontext der rasanten Entwicklung der künstlichen Intelligenz (KI) weist die Forschung von Google DeepMind auf wichtige Faktoren hin, um künstliche Superintelligenz (ASI) zu erreichen.

Plattformmodelle haben in den letzten Jahren große Fortschritte gemacht und sind in vielen Anwendungen weit verbreitet. Allerdings bleibt die Schaffung bahnbrechender Systeme der künstlichen Intelligenz (KI), die in der Lage sind, sich selbst zu verbessern und kontinuierlich neue Informationen zu generieren, eine große Herausforderung. Der Bericht von Edward Hughes und seinen Co-Autoren zeigt, wie sich die Offenheit der Natur auf die Entwicklung von ASI auswirkt und wie diese Natur in den heutigen KI-Systemen erreicht werden kann.

Die formale Definition von Offenheit basiert auf zwei Hauptaspekten: Neuheit und Lernfähigkeit. Ein System gilt als offen, wenn es kontinuierlich neue Daten generiert, die einen Lernwert haben, um das Verständnis und die Fähigkeiten des Beobachters zu verbessern.

Der Artikel liefert viele konkrete Beispiele aktueller KI-Systeme, um dieses Konzept zu veranschaulichen. AlphaGo ist ein typisches Beispiel für ein System mit offenem Umfang. AlphaGo übertraf die weltbesten Go-Spieler durch die Entwicklung neuer, unvorhersehbarer Strategien. Allerdings beschränkt sich die Offenheit von AlphaGo auf das Spiel Go.

Ein weiteres Beispiel ist das AdA-System, ein Lernagent in der 3D-XLand2-Umgebung mit 25 Milliarden Aufgabenvariationen. AdA ist in der Lage, komplexe und vielfältige Fähigkeiten zu erwerben, seine Neuheit lässt jedoch nach einer gewissen Zeit des Trainings nach. Dies deutet darauf hin, dass zur Aufrechterhaltung der Offenheit ein reichhaltigeres Umfeld und stärkere Akteure erforderlich sind.

Der Artikel erörtert auch evolutionäre Systeme wie POET (Paired Open-Ended Trailblazer), bei denen sich Agenten und die Umwelt gemeinsam weiterentwickeln. POET veranschaulicht das „Sprungbrett“-Phänomen, bei dem Agenten durch schrittweise Weiterentwicklung sehr herausfordernde Umgebungen meistern können. Allerdings stoßen diese Systeme auch an Grenzen, wenn die Umgebung nicht komplex genug ist, um Offenheit aufrechtzuerhalten.

Darüber hinaus heißt es in dem Artikel auch, dass aktuelle Plattformmodelle die Kriterien der Offenheit nicht erfüllen, wenn sie nur auf festen Datensätzen trainiert werden. Diese Modelle scheinen in weiten Bereichen ergebnisoffen zu sein, wenn sie jedoch in ihrem Umfang eingeschränkt werden, offenbaren sie Einschränkungen in ihrer Fähigkeit, neue und präzise Lösungen zu generieren.

Die Autoren schlagen vier Hauptforschungsrichtungen vor, um Offenheit mit Plattformmodellen zu kombinieren: Reinforcement Learning (RL), Selbstverbesserung, Aufgabengenerierung und evolutionäre Algorithmen. Reinforcement Learning hat in engen Bereichen große Erfolge erzielt, und Modelle wie Voyager haben das Potenzial zur Selbstverbesserung gezeigt, indem sie aus sich kontinuierlich verbessernden Aufgaben eine Bibliothek von Fähigkeiten aufbauen. Evolutionäre Algorithmen bieten auch einen vielversprechenden Weg zur Schaffung offener Systeme mit der Möglichkeit, sinnvolle Mutationen durch Text umzusetzen.

Ein wichtiger Teil des Artikels ist eine Diskussion von Sicherheits- und Verantwortungsfragen bei der Entwicklung offener Systeme. Offenheit birgt viele Sicherheitsrisiken, einschließlich der Fehlinterpretation von Zielen und des Missbrauchs von Spezifikationen. Es ist wichtig sicherzustellen, dass offene Systeme in menschlichen Händen interpretiert und gesteuert werden können. Dies erfordert, dass Systeme in der Lage sind, Menschen klar und verständlich zu erklären und mit ihnen zu interagieren.

In dem Bericht behaupten die Autoren, dass aktuelle Plattformmodelle erhebliche Fortschritte gemacht hätten, aber um in Richtung ASI zu gelangen, sei die Entwicklung offener Systeme notwendig. Diese Systeme können der Gesellschaft enorme Vorteile bringen, darunter die Beschleunigung wissenschaftlicher und technologischer Durchbrüche, die Förderung der menschlichen Kreativität und die Erweiterung des Allgemeinwissens in vielen Bereichen.

Der Artikel von Google DeepMind eröffnete eine neue Richtung in der KI-Forschung und betonte die Bedeutung von Offenheit für die Erreichung künstlicher Superintelligenz. Die verantwortungsvolle Entwicklung dieser Systeme wird dazu beitragen, dass sie der Gesellschaft den größtmöglichen Nutzen bringen und gleichzeitig potenzielle Risiken minimieren.