Gedichte, Essays und sogar Bücher – gibt es etwas, was die offene KI-Plattform ChatGPT nicht bewältigen kann? Diese neuen KI-Entwicklungen haben Forscher der TU Delft und der Schweizer Technischen Universität EPFL dazu inspiriert, etwas tiefer zu graben: Kann ChatGPT zum Beispiel auch einen Roboter entwerfen? Und ist das eine gute Sache für den Designprozess oder gibt es Risiken? Die Forscher veröffentlichten ihre Ergebnisse in Nature Machine Intelligence.

Was sind die größten zukünftigen Herausforderungen für die Menschheit? Das war die erste Frage, die Cosimo Della Santina, Assistenzprofessor, und der Doktorand Francesco Stella, beide von der TU Delft, und Josie Hughes von der EPFL ChatGPT stellten. „Wir wollten, dass ChatGPT nicht nur einen Roboter entwirft, sondern einen, der wirklich nützlich ist“, sagt Della Santina. Am Ende wählten sie die Lebensmittelversorgung als Herausforderung und während sie mit ChatGPT plauderten, kamen sie auf die Idee, einen Roboter zur Tomatenernte zu entwickeln.

Hilfreiche Vorschläge

Die Forscher folgten allen Designentscheidungen von ChatGPT. Besonders in der Konzeptphase sei der Input wertvoll gewesen, so Stella. „ChatGPT erweitert das Wissen des Designers auf andere Fachgebiete. So hat uns der Chat-Roboter beispielsweise beigebracht, welche Ernte am wirtschaftlichsten zu automatisieren wäre.“ Aber auch in der Umsetzungsphase machte ChatGPT nützliche Vorschläge: „Machen Sie den Greifer aus Silikon oder Gummi, damit Tomaten nicht zerdrückt werden“ und „ein Dynamixel-Motor ist die beste Art, den Roboter anzutreiben.“ Das Ergebnis dieser Partnerschaft zwischen Mensch und KI ist ein Roboterarm, der Tomaten ernten kann.

ChatGPT als Forscher

Die Forscher empfanden den kollaborativen Designprozess als positiv und bereichernd. „Wir stellten jedoch fest, dass sich unsere Rolle als Ingenieure in Richtung der Durchführung technischerer Aufgaben verlagerte“, sagt Stella. In Nature Machine Intelligence untersuchen die Forscher die unterschiedlichen Grade der Zusammenarbeit zwischen Menschen und Large Language Models (LLM), zu denen auch ChatGPT gehört. Im extremsten Szenario liefert die KI alle Eingaben für das Roboterdesign und der Mensch folgt ihnen blind. In diesem Fall fungiert das LLM als Forscher und Ingenieur, während der Mensch als Manager fungiert und für die Festlegung der Designziele verantwortlich ist.

Risiko von Fehlinformationen

Ein solch extremes Szenario ist mit heutigen LLMs noch nicht möglich. Und die Frage ist, ob es wünschenswert ist. „Tatsächlich können LLM-Ergebnisse irreführend sein, wenn sie nicht überprüft oder validiert werden. KI-Bots sind darauf ausgelegt, die ‚wahrscheinlichste‘ Antwort auf eine Frage zu generieren, daher besteht im Robotikbereich die Gefahr von Fehlinformationen und Voreingenommenheit“, sagt Della Santina. Die Arbeit mit LLMs wirft auch andere wichtige Fragen auf, wie etwa Plagiat, Rückverfolgbarkeit und geistiges Eigentum.

Della Santina, Stella und Hughes werden den Tomatenernteroboter weiterhin in ihrer Robotikforschung einsetzen. Sie setzen auch ihre Studie über LLMs fort, um neue Roboter zu entwickeln. Insbesondere untersuchen sie die Autonomie von KIs bei der Entwicklung ihres eigenen Körpers. „Letztendlich ist eine offene Frage für die Zukunft unseres Fachgebiets, wie LLMs zur Unterstützung von Roboterentwicklern eingesetzt werden können, ohne die Kreativität und Innovation einzuschränken, die erforderlich sind, damit die Robotik den Herausforderungen des 21. Jahrhunderts gewachsen ist“, schließt Stella.

#GOATMoments #robots #science