O GPT-4 da OpenAI, um modelo generativo de inteligência artificial (IA), passou no teste de Turing, de acordo com o cofundador da Ethereum, Vitalik Buterin.

O Teste de Turing é uma referência nebulosa para sistemas de IA que pretende determinar o quão humano é um modelo de conversação. O termo foi cunhado por conta do famoso matemático Alan Turing, que propôs o teste em 1950.

De acordo com Turing, na época, um sistema de IA capaz de gerar texto que enganasse os humanos fazendo-os pensar que estão conversando com outro humano demonstraria a capacidade de “pensamento”.

Quase 75 anos depois, a pessoa amplamente creditada por conceber a segunda criptomoeda mais popular do mundo interpretou uma pesquisa recente de pré-impressão da UC San Diego como uma indicação de que o Teste de Turing foi finalmente “aprovado” por um modelo de produção.

Fonte: @Vitalik.eth em Farcaster.

Pesquisadores da Universidade da Califórnia em San Diego publicaram recentemente um artigo pré-impresso intitulado “As pessoas não conseguem distinguir o GPT-4 de um humano em um teste de Turing”, no qual aproximadamente 500 cobaias humanas interagiram com humanos e modelos de IA em um teste cego para determinar se os sujeitos conseguiam descobrir qual era qual.

De acordo com a pesquisa, os humanos determinaram erroneamente que o GPT-4 era um “humano” em 56% das vezes. Isso significa que a máquina enganou os humanos fazendo-os pensar que era um deles com mais frequência.

A opinião de Vitalik Buterin

De acordo com Buterin, um sistema de IA capaz de enganar mais da metade dos humanos com quem interage é qualificado como aprovado no teste de Turing.

De acordo com um elenco de Farcaster, discutindo pesquisas recentes de pré-impressão:

“Isso significa que a capacidade das pessoas de saber se é um humano ou um bot é basicamente um cara ou coroa!”

Buterin qualificou sua declaração em um parêntese de acompanhamento, “ok, não exatamente, porque os humanos são considerados humanos 66% das vezes contra 54% para bots, mas uma diferença de 12% é pequena; em qualquer cenário do mundo real que basicamente conte como aprovação.”

Ele também acrescentou mais tarde, em resposta aos comentários sobre seu elenco original, que o Teste de Turing é “de longe o marco mais famoso socialmente aceito para “IA é uma merda séria agora”. Portanto, é bom lembrar que o marco já foi ultrapassado.”

Teste de Turing

A inteligência artificial geral (AGI) e o Teste de Turing não estão necessariamente relacionados, apesar de as duas terminologias serem frequentemente confundidas. Turing formulou seu teste com base em sua perspicácia matemática e previu um cenário em que a IA poderia enganar os humanos fazendo-os pensar que era um deles por meio de conversas.

Vale a pena mencionar que o Teste de Turing é uma construção efêmera, sem verdadeiro benchmark ou base técnica. Não há consenso científico sobre se as máquinas são capazes de “pensar” como os organismos vivos o são ou sobre como tal feito seria medido. Simplificando, a inteligência artificial geral ou a capacidade de uma IA de “pensar” não é atualmente mensurável ou definida pelas comunidades científicas ou de engenharia.

Turing fez suas previsões conceituais muito antes do advento dos sistemas de inteligência artificial baseados em tokens e do início das redes generativas adversárias (GANs), as precursoras dos atuais sistemas generativos de IA.

Inteligência geral artificial

Para complicar ainda mais as coisas está a ideia de inteligência artificial geral (AGI), que é frequentemente associada ao Teste de Turing. Na linguagem científica, uma “inteligência geral” é aquela que deveria ser capaz de realizar qualquer proeza baseada na inteligência. Isto exclui os humanos, uma vez que nenhuma pessoa demonstrou capacidades “gerais” em todo o espectro do esforço intelectual humano. Assim, segue-se que uma “inteligência artificial geral” apresentaria capacidades de pensamento muito superiores às de qualquer ser humano conhecido.

Dito isto, está claro que o GPT-4 não se enquadra no perfil de uma verdadeira “inteligência geral” no sentido estritamente científico. No entanto, isso não impediu que os habitantes da comunidade de IA se movimentassem em torno dos postes e usassem o termo “AGI” para indicar qualquer sistema de IA capaz de enganar um número significativo de humanos.

Na cultura atual, é comum ver termos e frases como “AGI”, “semelhante ao humano” e “passa no teste de Turing” como se referindo a qualquer sistema de IA que produza conteúdo comparável ao conteúdo produzido por humanos.

Relacionado: ‘Estamos apenas arranhando a superfície’ da criptografia e da IA ​​– executivo da Microsoft