I chatbot basati sull’intelligenza artificiale hanno il potenziale per ridurre la fiducia nelle teorie del complotto fornendo informazioni accurate e argomenti logici.

Un nuovo studio pubblicato sulla rivista Science a metà settembre offre nuove speranze nella lotta alla disinformazione. Una ricerca condotta da scienziati dell’American University mostra che l’intelligenza artificiale (AI) può essere utilizzata per smentire la credenza nelle teorie del complotto.

I ricercatori hanno progettato un chatbot basato sul modello linguistico di grandi dimensioni GPT-4 Turbo di OpenAI, addestrato per confutare logicamente le teorie del complotto e fornire prove convincenti.

A più di 1.000 partecipanti allo studio è stato chiesto di descrivere una teoria del complotto in cui credevano e di spiegare perché ci credevano. È stata quindi avviata una chat con il chatbot, in cui il chatbot ha fornito informazioni e prove per confutare la teoria del complotto.

I risultati hanno mostrato che, dopo aver interagito con il chatbot, la fiducia dei partecipanti nelle teorie del complotto è diminuita in media del 21%. Addirittura il 25% dei partecipanti è passato da uno stato di ferma convinzione a uno stato di incertezza.

Le teorie del complotto e la disinformazione si sono diffuse rapidamente durante la pandemia di COVID-19, lasciando molte agenzie governative in difficoltà. Fonte: Hollie Adams/Getty Potenziale e sfide

Nell’attuale contesto di diffusa disinformazione e teorie del complotto, questo studio dimostra che l’intelligenza artificiale ha un grande potenziale nel persuadere e cambiare il pensiero umano, soprattutto nel combattere le teorie del complotto.

Tuttavia, i ricercatori sottolineano che questo studio è solo un primo passo. I partecipanti erano persone pagate per partecipare al sondaggio, il che potrebbe non essere rappresentativo di persone che credono fortemente nelle teorie del complotto.

Sono necessarie ulteriori ricerche per valutare l’efficacia dei chatbot utilizzando altri metodi, nonché test con LLM con misure di sicurezza inferiori per garantire che i chatbot non rafforzino involontariamente il pensiero cospiratorio.

I ricercatori mirano anche a scavare più a fondo nelle strategie di interazione del chatbot, incluso il test delle risposte scortesi, per capire meglio quali fattori contribuiscono al successo.

Inoltre, anche garantire che i chatbot non creino informazioni false è una sfida importante. I ricercatori hanno utilizzato un fact-checker per valutare l’accuratezza delle informazioni fornite dal chatbot, assicurandosi che il chatbot non presentasse informazioni false o pregiudizi politici.