Według Cointelegraph, zespół naukowców z Belgii potencjalnie rozwiązał poważne wyzwanie w dziedzinie sztucznej inteligencji (AI) za pomocą zdecentralizowanej metody szkoleniowej opartej na blockchain. Chociaż badania są na wczesnym etapie, mogą mieć daleko idące implikacje, od zrewolucjonizowania eksploracji kosmosu po stwarzanie egzystencjalnych zagrożeń dla ludzkości.

W symulowanym środowisku badacze stworzyli metodę koordynacji uczenia się pomiędzy poszczególnymi, autonomicznymi agentami AI. Wykorzystali technologię blockchain, aby ułatwić i zabezpieczyć komunikację pomiędzy tymi agentami, tworząc zdecentralizowany „rój” modeli uczenia się. Wyniki szkolenia każdego agenta zostały następnie wykorzystane do opracowania większego modelu AI. Dzięki przetwarzaniu danych za pośrednictwem blockchain system skorzystał ze zbiorowej inteligencji roju bez uzyskiwania dostępu do danych poszczególnych agentów.

Uczenie maszynowe, ściśle powiązane z AI, występuje w różnych formach. Typowe chatboty, takie jak ChatGPT firmy OpenAI lub Claude firmy Anthropic, są opracowywane przy użyciu wielu technik, w tym uczenia bez nadzoru i uczenia się przez wzmacnianie z ludzkiej informacji zwrotnej. Jednym z głównych wyzwań związanych z tym podejściem jest potrzeba scentralizowanych baz danych dla danych szkoleniowych, co jest niepraktyczne w przypadku aplikacji wymagających ciągłego autonomicznego uczenia się lub w przypadku, gdy prywatność ma kluczowe znaczenie.

Zespół badawczy zastosował paradygmat uczenia się zwany „zdecentralizowanym uczeniem federacyjnym” w swoich badaniach nad blockchainem. Odkryli, że mogą skutecznie koordynować modele, utrzymując decentralizację danych. Większość ich badań skupiała się na badaniu odporności roju na różne metody ataków. Ze względu na zdecentralizowaną naturę technologii blockchain i sieci szkoleniowej zespół wykazał odporność na tradycyjne ataki hakerskie.

Jednak badacze zidentyfikowali próg liczby nieuczciwych robotów, z którymi rój mógł sobie poradzić. Opracowali scenariusze z robotami zaprojektowanymi do wyrządzenia szkody sieci, w tym agentami o nikczemnych zamiarach, nieaktualnymi informacjami i prostymi instrukcjami zakłócania. Podczas gdy przed prostymi i nieaktualnymi agentami stosunkowo łatwo było się bronić, inteligentni agenci ze złośliwymi intencjami mogli ostatecznie zakłócić inteligencję roju, jeśli wystarczająco dużo zinfiltrowało ją.

Badania te pozostają eksperymentalne i zostały przeprowadzone wyłącznie za pomocą symulacji. Może jednak nadejść czas, gdy roje robotów będą mogły być koordynowane krzyżowo w sposób zdecentralizowany, co potencjalnie umożliwi agentom AI z różnych firm lub krajów współpracę w zakresie szkolenia większego agenta bez narażania prywatności danych.