Am 8. August nutzte Google DeepMind die Social-Media-Plattform X (früher bekannt als Twitter), um Einblicke in sein neuestes Forschungsprojekt zu einem Robotersystem zum Tischtennisspielen zu geben.

Google DeepMind ist ein führendes Forschungslabor für künstliche Intelligenz (KI), das unter dem Dach von Alphabet Inc., der Muttergesellschaft von Google, betrieben wird. Es entstand durch die Fusion zweier führender KI-Teams: Google Brain und des ursprünglichen DeepMind-Teams. Diese gemeinsamen Anstrengungen haben Google DeepMind an die Spitze der KI-Innovation gebracht und konzentrieren sich auf die Entwicklung fortschrittlicher KI-Systeme, die einige der komplexesten wissenschaftlichen und technischen Herausforderungen bewältigen können.

DeepMind wurde 2010 gegründet und legte großen Wert auf Deep Reinforcement Learning, eine Methode, die Deep Learning mit Reinforcement Learning kombiniert. Das Labor erlangte große Aufmerksamkeit mit der Entwicklung von AlphaGo, dem ersten KI-System, das einen Weltmeister im Spiel Go besiegte – eine Leistung, die seiner Zeit um ein Jahrzehnt voraus war. Dieser Erfolg führte zu weiteren Fortschritten in der KI, darunter die Entwicklung von AlphaFold, einer KI, die 3D-Modelle von Proteinstrukturen mit bemerkenswerter Genauigkeit vorhersagt und damit das Gebiet der Biologie revolutioniert.

Im Jahr 2023 fusionierte Google seine KI-Forschungsabteilungen zu Google DeepMind, um die Bemühungen zu bündeln und den Fortschritt in der KI zu beschleunigen. Eines ihrer jüngsten Projekte ist Gemini, ein KI-Modell der nächsten Generation, das Berichten zufolge einige bestehende KI-Modelle wie GPT-4 bei bestimmten Benchmarks übertrifft.

Laut dem Thread von Google Deepmind zu X wird Tischtennis aufgrund der einzigartigen Kombination aus schnellen körperlichen Bewegungen, strategischen Entscheidungen und Präzision seit langem als Maßstab in der Robotikforschung verwendet. Seit den 1980er Jahren nutzen Forscher das Spiel als Testfeld für die Entwicklung und Verfeinerung robotischer Fähigkeiten, was es zu einem idealen Kandidaten für Google DeepMinds neueste KI-gestützte Erforschung macht.

Um den Tischtennisroboter zu trainieren, sammelte Google DeepMind zunächst einen umfassenden Datensatz der anfänglichen Ballzustände. Dieser Datensatz enthielt wichtige Parameter wie Position, Geschwindigkeit und Spin des Balls, die für das Verständnis und die Vorhersage der Ballflugbahnen während eines Spiels unerlässlich sind. Durch das Üben mit dieser umfangreichen Datenbibliothek konnte der Roboter eine Reihe von Fähigkeiten entwickeln, die für das Tischtennis erforderlich sind, darunter Vorhand-Topspin, Rückhand-Zielgenauigkeit und die Fähigkeit, Aufschläge zurückzuschlagen.

Der Trainingsprozess fand zunächst in einer simulierten Umgebung statt, in der der Roboter in einer kontrollierten Umgebung trainieren konnte, die die Physik des Tischtennis genau nachbildete. Nachdem der Roboter seine Fähigkeiten in der simulierten Umgebung unter Beweis gestellt hatte, wurde er in realen Szenarien eingesetzt, in denen er gegen menschliche Gegner spielte. Dieses reale Training generierte zusätzliche Daten, die dann in die Simulation zurückgeführt wurden, um die Fähigkeiten des Roboters weiter zu verfeinern und so eine kontinuierliche Rückkopplungsschleife zwischen Simulation und Realität zu schaffen.

Eine der wichtigsten Innovationen dieses Projekts ist die Fähigkeit des Roboters, sich an unterschiedliche Gegner anzupassen. Google DeepMind hat das System so konzipiert, dass es das Verhalten und den Spielstil seiner menschlichen Gegner verfolgt und analysiert, beispielsweise, auf welche Seite des Tisches sie den Ball am liebsten zurückspielen. Diese Fähigkeit ermöglichte es dem Roboter, mit verschiedenen Techniken zu experimentieren, ihre Wirksamkeit zu überwachen und seine Strategie in Echtzeit anzupassen, ähnlich wie ein menschlicher Spieler seine Taktik basierend auf den Tendenzen seines Gegners ändern könnte.

Während der Studie wurde der Roboter gegen 29 menschliche Gegner mit unterschiedlichen Fähigkeiten antreten gelassen, von Anfängern bis zu fortgeschrittenen Spielern. Die Leistung des Roboters wurde auf diesen verschiedenen Ebenen bewertet und insgesamt rangierte er im Mittelfeld der Teilnehmer, was darauf hindeutet, dass er auf dem Niveau eines fortgeschrittenen Amateurs agiert. Bei fortgeschritteneren Spielern stieß der Roboter jedoch an seine Grenzen. Google DeepMind räumte ein, dass der Roboter nicht in der Lage war, fortgeschrittene Spieler konstant zu schlagen, und nannte Faktoren wie Reaktionsgeschwindigkeit, Kameraerkennungsfähigkeiten, Spin-Handling und die Herausforderungen bei der genauen Modellierung des Schlägergummis in Simulationen als beitragende Faktoren.

Google DeepMind schloss seinen Thread mit Überlegungen zu den weiteren Auswirkungen dieser Arbeit. Sie hoben hervor, dass Sportarten wie Tischtennis eine hervorragende Umgebung zum Testen und Entwickeln von Roboterfähigkeiten bieten. So wie Menschen lernen können, komplexe Aufgaben auszuführen, die körperliche Fähigkeiten, Wahrnehmung und strategische Entscheidungsfindung erfordern, können dies auch Roboter, vorausgesetzt, sie verfügen über die richtigen Trainings- und Anpassungssysteme. Diese Forschung bringt nicht nur das Feld der Robotik voran, sondern bietet auch Erkenntnisse darüber, wie Maschinen trainiert werden können, um komplizierte Aufgaben der realen Welt zu bewältigen, und ebnet möglicherweise den Weg für zukünftige Innovationen in den Bereichen KI und Robotik.

Roboter-Tischtennis dient seit den 1980er Jahren als Maßstab für diese Art von Forschung. Der Roboter muss sowohl einfache Fähigkeiten wie das Zurückschlagen des Balls als auch anspruchsvolle Fähigkeiten wie Strategieentwicklung und langfristige Planung beherrschen, um ein Ziel zu erreichen. pic.twitter.com/IX7VuDyC4J

– Google DeepMind (@GoogleDeepMind), 8. August 2024

Ausgewähltes Bild über Pixabay