Pesquisadores de inteligência artificial estão preocupados que os bots de IA eventualmente irão dominar a internet e se espalhar como uma espécie invasora digital. Em vez de abordar o problema tentando limitar a proliferação de bots e conteúdo gerado por IA, uma equipe decidiu ir na direção oposta.

Em um artigo pré-impresso publicado recentemente, dezenas de pesquisadores defendem um sistema pelo qual os humanos precisariam ter sua humanidade verificada pessoalmente por outro humano para obter “credenciais de personalidade”.

A grande ideia parece ser a criação de um sistema em que alguém poderia provar que é humano sem ter que revelar sua identidade ou qualquer outra informação. Se isso soa familiar para aqueles de vocês na comunidade cripto, é porque a pesquisa é baseada em tecnologias de blockchain de “prova de personalidade”.

Verificação digital

Serviços como Netflix ou Xbox Game Pass que exigem uma taxa para uso normalmente dependem da sua instituição financeira para executar serviços de verificação. Isso não permite anonimato, mas, para a maioria das pessoas, isso é bom. Normalmente é considerado parte do custo de fazer negócios.

Outros serviços, como fóruns anônimos, que não podem confiar em seus pagamentos como prova de que você é humano ou, pelo menos, um cliente não humano em situação regular, precisam tomar medidas para limitar bots e contas duplicadas.

Em agosto de 2024, por exemplo, os guardrails do ChatGPT provavelmente impediriam que ele fosse explorado para se inscrever em várias contas gratuitas do Reddit. Algumas IAs podem superar verificadores de humanidade no estilo “CAPTCHA”, mas seria necessário um esforço robusto para que alguém conseguisse seguir as etapas associadas à verificação de um endereço de e-mail e continuar o processo de configuração para abrir uma conta.

No entanto, o principal argumento apresentado pela equipe, que incluía uma ladainha de especialistas de empresas como OpenAI, Microsoft e a16z crypto, bem como instituições acadêmicas como Harvard Society of Fellows, Oxford e MIT, era que as limitações atuais em vigor só durariam um certo tempo.

Em questão de anos, talvez, poderemos nos deparar com a realidade de que, sem sermos capazes de olhar alguém nos olhos, cara a cara, não haveria como determinar se estamos interagindo com uma pessoa ou não.

Pseudo Anonimato

Os pesquisadores estão defendendo o desenvolvimento de um sistema que designaria certas organizações ou instalações como emissoras. Esses emissores empregariam humanos com o propósito de confirmar a humanidade de um indivíduo. Uma vez verificado, o emissor certificaria as credenciais do indivíduo. Presumivelmente, o emissor seria limitado de rastrear como essas credenciais foram usadas. Não está claro como um sistema poderia ser tornado robusto contra ataques cibernéticos e a ameaça iminente de descriptografia assistida por quantum.

Na outra ponta, organizações interessadas em fornecer serviços a humanos verificados poderiam escolher emitir contas somente para humanos que tivessem credenciais. Aparentemente, isso limitaria todos a uma conta por pessoa e tornaria impossível para bots obterem acesso a esses serviços.

De acordo com o artigo, está além do escopo da pesquisa determinar qual método de pseudoanonimato centralizado seria o mais eficaz, nem a pesquisa aborda a miríade de problemas potenciais levantados por tal esquema. No entanto, a equipe reconhece esses desafios e apresentou um chamado à ação para um estudo mais aprofundado.

Relacionado: Líderes do Comitê de Serviços Financeiros dos EUA querem ‘caixas de areia regulatórias’ para IA