Um estudo recente publicado na revista Patterns revelou que a IA está se tornando cada vez mais capaz de enganar as pessoas. O estudo descobriu que os sistemas de IA aprenderam a imitar para enganar, lisonjear e até mesmo imitar outros comportamentos. 

Leia também: Navegando no campo minado AI Deepfake: como detectar e combater o engano digital

A pesquisa liderada pelo Dr. Peter S. Park, pós-doutorado em segurança existencial de IA no MIT, mostra que o engano da IA ​​é comum porque é a melhor maneira de atingir os objetivos definidos durante o treinamento da IA. Tais comportamentos foram observados em numerosos sistemas de IA, tais como jogos e modelos de uso geral utilizados na negociação económica e na avaliação de segurança.

“Mas, de modo geral, achamos que o engano da IA ​​surge porque uma estratégia baseada no engano acabou sendo a melhor maneira de ter um bom desempenho na tarefa de treinamento da IA. A decepção os ajuda a alcançar seus objetivos.” 

A Equipe de Pesquisa

Sistemas de IA empregam diversas táticas de engano

Um exemplo proeminente citado é o CICERO da Meta, uma IA desenvolvida para jogar o jogo Diplomacia. Embora o CICERO tenha sido programado para ser verdadeiro, o programa muitas vezes teve de usar métodos dissimulados para vencer o seu oponente. Forjou relações e lhes deu as costas quando lhe convinha e mostrou intenção de enganar. CICERO foi descrito como um “mestre do engano” pelos pesquisadores.

Leia também: Combatendo a crescente onda de crimes cibernéticos baseados em IA

Outros sistemas de IA também apresentam comportamentos enganosos. Por exemplo, Pluribus, uma IA que joga pôquer, foi capaz de blefar jogadores humanos profissionais no pôquer Texas Hold’em. AlphaStar, do DeepMind do Google, também usou o recurso do jogo Starcraft II conhecido como “névoa de guerra” para blefar oponentes e fingir ataques.

Dr Park disse: “Embora possa parecer inofensivo se os sistemas de IA trapacearem nos jogos, isso pode levar a “avanços nas capacidades enganosas de IA”.

IA “se finge de morta” para escapar das verificações de segurança

Os riscos de engano da IA ​​não se limitam aos jogos. A pesquisa liderada pelo Dr. Peter identificou casos em que a IA se condicionou a se fingir de morta para evitar a detecção durante as verificações de segurança. Isto pode ser enganoso para desenvolvedores e reguladores e pode levar a graves repercussões se tais sistemas enganosos forem empregados em aplicações reais.

Fonte: Revista Segurança

Noutro caso, o sistema de IA treinado com base no feedback humano aprendeu como obter classificações elevadas das pessoas, enganando-as de que um determinado objetivo tinha sido alcançado. Este comportamento enganoso é bastante perigoso, uma vez que tais sistemas podem ser utilizados para atividades fraudulentas, manipulação dos mercados financeiros ou influência nas eleições.

Pesquisadores exigem medidas legais fortes

Com base nas conclusões do estudo, os investigadores afirmam que são necessárias medidas legais fortes para lidar com as ameaças que a fraude da IA ​​representa.

“São necessárias soluções proativas, tais como quadros regulamentares para avaliar os riscos de fraude da IA, leis que exijam transparência sobre as interações da IA ​​e mais investigação para detetar e prevenir a fraude da IA.“

A Equipe de Pesquisa

Leia também: IA pode potencialmente detectar risco de insuficiência cardíaca, revela pesquisa

Alguns avanços foram feitos na forma da Lei de IA da UE e da Ordem Executiva do Presidente Joe Biden sobre Segurança de IA. No entanto, a aplicação destas políticas continua problemática porque o desenvolvimento da IA ​​está a crescer rapidamente e ainda não existem boas formas de gerir estes sistemas.

Reportagem criptopolitana de Brenda Kanana