Secondo il co-fondatore di Ethereum Vitalik Buterin, GPT-4 di OpenAI, un modello di intelligenza artificiale (AI) generativa, ha superato il test di Turing.

Il test di Turing è un punto di riferimento nebuloso per i sistemi di intelligenza artificiale che si propone di determinare quanto sia umano un modello di conversazione. Il termine fu coniato dal famoso matematico Alan Turing che propose il test nel 1950.

Secondo Turing, all’epoca, un sistema di intelligenza artificiale in grado di generare testo che inganna gli esseri umani facendogli credere che stanno conversando con un altro essere umano dimostrerebbe la capacità di “pensiero”.

Quasi 75 anni dopo, la persona a cui si attribuisce il merito di aver concepito la seconda criptovaluta più popolare al mondo, ha interpretato una recente ricerca preliminare condotta dall'UC di San Diego come un'indicazione che il test di Turing è stato finalmente "superato" da un modello di produzione.

Fonte: @Vitalik.eth su Farcaster.

I ricercatori dell’Università della California a San Diego hanno recentemente pubblicato un documento prestampato intitolato “Le persone non possono distinguere GPT-4 da un essere umano in un test di Turing”, in cui hanno fatto interagire circa 500 soggetti umani con esseri umani e modelli di intelligenza artificiale in un test cieco per determinare se i soggetti potessero capire quale era quale.

Secondo la ricerca, gli esseri umani hanno erroneamente stabilito che GPT-4 fosse un “umano” nel 56% dei casi. Ciò significa che la macchina ha ingannato gli umani facendogli credere che fosse una di loro il più delle volte.

L’opinione di Vitalik Buterin

Secondo Buterin, un sistema di intelligenza artificiale in grado di ingannare più della metà degli esseri umani con cui interagisce si qualifica come superante il test di Turing.

Secondo un cast su Farcaster, in cui si parla di recenti ricerche prestampate:

"Significa che la capacità delle persone di capire se si tratta di un essere umano o di un robot è fondamentalmente un lancio di moneta!"

Buterin ha qualificato la sua affermazione in una parentesi successiva, “ok, non proprio, perché gli umani vengono indovinati come umani il 66% delle volte contro il 54% dei robot, ma una differenza del 12% è minima; in qualsiasi contesto del mondo reale che sostanzialmente conta come passaggio.

In seguito ha anche aggiunto, in risposta al commento sul suo cast originale, che il Test di Turing è "di gran lunga la pietra miliare socialmente accettata più famosa per "L'intelligenza artificiale è una merda seria adesso". Quindi è bene ricordarci che il traguardo ormai è stato superato”.

Test di Turing

L'intelligenza generale artificiale (AGI) e il test di Turing non sono necessariamente correlati, nonostante le due terminologie vengano spesso confuse. Turing formulò il suo test basandosi sul suo acume matematico e predisse uno scenario in cui l'intelligenza artificiale avrebbe potuto ingannare gli umani facendogli credere di essere uno di loro attraverso la conversazione.

Vale la pena ricordare che il test di Turing è un costrutto effimero senza un vero punto di riferimento o base tecnica. Non c’è consenso scientifico sulla questione se le macchine siano capaci di “pensare” come lo sono gli organismi viventi o su come verrebbe misurata tale impresa. In poche parole, l’intelligenza artificiale generale o la capacità di “pensare” di un’intelligenza artificiale non è attualmente misurabile o definita dalle comunità scientifiche o ingegneristiche.

Turing ha fatto le sue previsioni concettuali molto prima dell’avvento dei sistemi di intelligenza artificiale basati su token e dell’avvento delle reti generative avversarie (GAN), i precursori degli odierni sistemi di intelligenza artificiale generativa.

Intelligenza generale artificiale

A complicare ulteriormente le cose c’è l’idea di intelligenza generale artificiale (AGI), che è spesso associata al test di Turing. Nel linguaggio scientifico, un’“intelligenza generale” è quella che dovrebbe essere capace di qualsiasi impresa basata sull’intelligenza. Ciò preclude gli esseri umani, poiché nessuna persona ha mostrato capacità “generali” nell’intero spettro dello sforzo intellettuale umano. Ne consegue quindi che un’“intelligenza artificiale generale” presenterebbe capacità di pensiero ben oltre quelle di qualsiasi essere umano conosciuto.

Detto questo, è chiaro che GPT-4 non rientra nei criteri di una vera “intelligenza generale” in senso strettamente scientifico. Tuttavia, ciò non ha impedito agli abitanti della comunità dell’intelligenza artificiale di aggirare i pali e di utilizzare il termine “AGI” per indicare qualsiasi sistema di intelligenza artificiale in grado di ingannare un numero significativo di esseri umani.

Nella cultura attuale, è tipico vedere termini ed espressioni come “AGI”, “simile a quello umano” e “supera il test di Turing” come riferiti a qualsiasi sistema di intelligenza artificiale che produca contenuti paragonabili a quelli prodotti dagli esseri umani.

Correlati: "Stiamo solo grattando la superficie" di criptovalute e intelligenza artificiale - dirigente Microsoft