По данным Cointelegraph, группа ученых из Бельгии потенциально решила значительную проблему в области искусственного интеллекта (ИИ), используя метод децентрализованного обучения на основе блокчейна. Хотя исследование находится на ранних стадиях, оно может иметь далеко идущие последствия — от революции в исследовании космоса до создания экзистенциальных рисков для человечества.
В смоделированной среде исследователи создали метод координации обучения между отдельными автономными агентами ИИ. Они использовали технологию блокчейна для облегчения и защиты коммуникаций между этими агентами, формируя децентрализованный «рой» моделей обучения. Результаты обучения каждого агента затем использовались для разработки более крупной модели ИИ. Обрабатывая данные через блокчейн, система извлекала выгоду из коллективного интеллекта роя, не обращаясь к данным отдельных агентов.
Машинное обучение, тесно связанное с ИИ, существует в разных формах. Типичные чат-боты, такие как ChatGPT от OpenAI или Claude от Anthropic, разрабатываются с использованием нескольких методов, включая неконтролируемое обучение и обучение с подкреплением на основе обратной связи от человека. Одной из основных проблем этого подхода является необходимость централизованных баз данных для обучающих данных, что непрактично для приложений, требующих непрерывного автономного обучения или где конфиденциальность имеет решающее значение.
Исследовательская группа использовала парадигму обучения под названием «децентрализованное федеративное обучение» для своего исследования блокчейна. Они обнаружили, что могут успешно координировать модели, сохраняя при этом децентрализацию данных. Большая часть их исследований была сосредоточена на изучении устойчивости роя к различным методам атак. Благодаря децентрализованной природе технологии блокчейна и обучающей сети команда продемонстрировала устойчивость к традиционным хакерским атакам.
Однако исследователи определили пороговое значение для числа роботов-мошенников, с которыми рой может справиться. Они разработали сценарии с участием роботов, предназначенных для нанесения вреда сети, включая агентов с гнусными планами, устаревшей информацией и простыми инструкциями по нарушению. В то время как от простых и устаревших агентов было относительно легко защититься, умные агенты со злонамеренными намерениями могли в конечном итоге нарушить интеллект роя, если в него проникнет достаточное количество.
Это исследование остается экспериментальным и проводилось только посредством моделирования. Однако может наступить время, когда рои роботов смогут координироваться децентрализованно, что потенциально позволит агентам ИИ из разных компаний или стран сотрудничать в обучении более крупного агента, не ставя под угрозу конфиденциальность данных.