De acordo com o Cointelegraph, uma equipe de cientistas belgas resolveu um grande desafio no treinamento de IA por meio da tecnologia blockchain. A investigação ainda está numa fase inicial, mas o seu impacto potencial pode variar desde a revolução da exploração espacial até à representação de uma ameaça existencial para a humanidade.

Os pesquisadores desenvolveram um método para coordenar a aprendizagem de agentes autônomos de IA em um ambiente simulado, utilizando a tecnologia blockchain para facilitar e proteger a comunicação entre os agentes, criando um modelo descentralizado de aprendizagem em “grupo”.

Os resultados do treinamento de cada agente são usados ​​para desenvolver modelos maiores de IA. Como os dados são processados ​​através do blockchain, o sistema se beneficia da inteligência coletiva do enxame sem ter que acessar os dados de nenhum agente único.

A equipe de pesquisa utilizou o paradigma de “aprendizagem federada descentralizada” para pesquisa de blockchain, coordenando com sucesso o modelo e mantendo os dados descentralizados.

A maior parte da investigação centrou-se na resiliência das populações a vários métodos de ataque. Como a tecnologia blockchain é um livro-razão compartilhado, a própria rede de treinamento no experimento é descentralizada e a equipe demonstrou sua robustez aos ataques de hackers tradicionais.

No entanto, a pesquisa descobriu que existe um limite claro para o número de bots maliciosos que um grupo pode controlar. Os pesquisadores desenvolveram cenários de bot que continham intenções maliciosas, informações desatualizadas e instruções simples de sabotagem.

Embora agentes simples e desatualizados sejam relativamente fáceis de defender, agentes inteligentes com intenções maliciosas podem eventualmente interromper a inteligência de enxame se houver um número suficiente deles.

A pesquisa permanece experimental e foi conduzida exclusivamente por meio de simulações. Mas no futuro, poderá haver grupos de robôs que se coordenem entre grupos de forma descentralizada, permitindo que equipas de agentes de IA de diferentes empresas ou países treinem em conjunto agentes maiores sem sacrificar a privacidade dos dados.