Laut Cointelegraph hat ein Forscherteam in Belgien möglicherweise eine bedeutende Herausforderung im Bereich der künstlichen Intelligenz (KI) gelöst, indem es eine Blockchain-basierte, dezentrale Trainingsmethode verwendet. Obwohl sich die Forschung noch in einem frühen Stadium befindet, könnte sie weitreichende Auswirkungen haben, von einer Revolutionierung der Weltraumforschung bis hin zu existenziellen Risiken für die Menschheit.

In einer simulierten Umgebung entwickelten die Forscher eine Methode, um das Lernen zwischen einzelnen, autonomen KI-Agenten zu koordinieren. Sie nutzten Blockchain-Technologie, um die Kommunikation zwischen diesen Agenten zu erleichtern und zu sichern, und bildeten so einen dezentralen „Schwarm“ von Lernmodellen. Die Trainingsergebnisse jedes Agenten wurden dann verwendet, um ein größeres KI-Modell zu entwickeln. Durch die Verarbeitung der Daten über Blockchain profitierte das System von der kollektiven Intelligenz des Schwarms, ohne auf die Daten einzelner Agenten zugreifen zu müssen.

Maschinelles Lernen, das eng mit KI verwandt ist, gibt es in verschiedenen Formen. Typische Chatbots wie ChatGPT von OpenAI oder Claude von Anthropic werden mithilfe mehrerer Techniken entwickelt, darunter unüberwachtes Lernen und bestärkendes Lernen durch menschliches Feedback. Eine große Herausforderung bei diesem Ansatz ist die Notwendigkeit zentralisierter Datenbanken für Trainingsdaten, was für Anwendungen, die kontinuierliches autonomes Lernen erfordern oder bei denen Datenschutz von entscheidender Bedeutung ist, unpraktisch ist.

Das Forschungsteam verwendete für seine Blockchain-Forschung ein Lernparadigma namens „dezentrales föderiertes Lernen“. Sie stellten fest, dass sie die Modelle erfolgreich koordinieren und gleichzeitig die Dezentralisierung der Daten aufrechterhalten konnten. Der Großteil ihrer Forschung konzentrierte sich auf die Untersuchung der Widerstandsfähigkeit des Schwarms gegen verschiedene Angriffsmethoden. Aufgrund der dezentralen Natur der Blockchain-Technologie und des Trainingsnetzwerks zeigte das Team Robustheit gegen traditionelle Hackerangriffe.

Die Forscher ermittelten jedoch einen Grenzwert für die Anzahl der Schurkenroboter, mit denen der Schwarm fertig werden konnte. Sie entwickelten Szenarien mit Robotern, die darauf ausgelegt waren, dem Netzwerk zu schaden, darunter Agenten mit schändlichen Absichten, veralteten Informationen und einfachen Störungsanweisungen. Während einfache und veraltete Agenten relativ leicht abzuwehren waren, konnten intelligente Agenten mit böswilligen Absichten die Schwarmintelligenz schließlich stören, wenn genügend von ihnen infiltriert wurden.

Diese Forschung ist noch experimentell und wurde bisher nur durch Simulationen durchgeführt. Es könnte jedoch eine Zeit kommen, in der Roboterschwärme dezentral koordiniert werden können, sodass KI-Agenten aus verschiedenen Unternehmen oder Ländern möglicherweise zusammenarbeiten können, um einen größeren Agenten zu trainieren, ohne den Datenschutz zu gefährden.