Il 21 giugno 2024, Katie Drummond, direttrice editoriale globale di Wired, si è unita a "Squawk Box" della CNBC per discutere la recente indagine approfondita della rivista sulla startup di ricerca AI Perplexity. La conversazione ha fatto luce su alcuni aspetti preoccupanti delle operazioni di Perplexity e ha sollevato importanti domande sul futuro dell’intelligenza artificiale e sul suo impatto sul giornalismo e sull’accuratezza delle informazioni.

La crescita delle perplessità

Perplexity ha rapidamente guadagnato l’attenzione nel mondo tecnologico, assicurandosi investimenti significativi da parte di figure importanti come Jeff Bezos e ottenendo una valutazione vicina al miliardo di dollari. Questa ascesa fulminea, tuttavia, è arrivata con una buona dose di polemiche e scetticismo. L'indagine di Wired mirava ad analizzare cosa fa effettivamente Perplexity, come opera e la validità dei suoi risultati di ricerca.

Risultati dell'indagine: meccanismi poco chiari e risposte imprecise

Drummond ha sottolineato che uno dei risultati principali dell’indagine di Wired è stata l’ambiguità che circonda i meccanismi operativi di Perplexity. Drummond sostiene che la startup AI, che si presenta come un sofisticato strumento di ricerca, spesso fornisce risposte non solo imprecise ma anche potenzialmente fuorvianti. Dice che gli utenti hanno riferito di aver ricevuto risposte che sembrano mancare di sintesi logica, facendo molto affidamento su un'aggregazione di base di dati web senza un'analisi o una comprensione più approfondita.

Preoccupazioni etiche e legali: scraping e raccolta dati

Una parte significativa dell’indagine si è concentrata sul modo in cui Perplexity raccoglie i propri dati. Drummond ha spiegato che Perplexity è stato trovato a prelevare contenuti dalla società madre di Wired, Condé Nast, e da altri editori senza la dovuta autorizzazione. Nonostante l'implementazione del protocollo robots.txt, uno standard utilizzato per impedire ai bot di accedere ad alcune parti di un sito Web, Perplexity avrebbe utilizzato indirizzi IP non divulgati per aggirare queste restrizioni. Se ciò fosse vero, solleverebbe serie preoccupazioni etiche e legali su come le società di intelligenza artificiale dovrebbero interagire con i contenuti giornalistici e sui limiti dell’utilizzo dei dati.

Distorsioni e qualità delle risposte dell’intelligenza artificiale

La discussione ha toccato anche i pregiudizi intrinseci e la qualità delle informazioni fornite da strumenti di intelligenza artificiale come Perplexity. La discussione ha sottolineato il problema della “spazzatura dentro, spazzatura fuori”. Questo concetto sottolinea che i risultati dell’intelligenza artificiale sono validi tanto quanto gli input che ricevono. La dipendenza di Perplexity da dati web facilmente accessibili, che spesso possono essere distorti o imprecisi, significa che le sue risposte possono riflettere questi stessi problemi.

Drummond sostiene che, attualmente, il modo migliore per ottenere informazioni accurate è andare direttamente alla fonte, leggendo giornalismo da fonti affidabili invece di fare affidamento sulle aggregazioni di intelligenza artificiale. Ciò evidenzia una sfida fondamentale nel settore dell’intelligenza artificiale: sviluppare sistemi in grado di discernere e dare priorità a informazioni accurate e di alta qualità rispetto alla miriade di fonti inaffidabili disponibili online.

La disconnessione tra tecnologia e giornalismo

La conversazione ha inoltre approfondito le implicazioni più ampie dell’intelligenza artificiale sul giornalismo. Drummond ha sottolineato che l’industria tecnologica è stata spesso distaccata dai valori e dai principi che sono alla base delle notizie e del giornalismo. Secondo lei, la diffusione accurata ed etica delle informazioni a volte è diventata un danno collaterale nella corsa allo sviluppo degli strumenti di intelligenza artificiale più avanzati e preziosi.

Secondo un articolo di Mark Sullivan per Fast Company, in risposta alle accuse di Wired, il cofondatore e CEO di Perplexity, Aravind Srinivas, ha affermato che Perplexity non si affida esclusivamente ai propri web crawler ma utilizza anche servizi di terze parti per la scansione e l'indicizzazione del web. Srinivas ha sottolineato che il web crawler identificato da Wired non era di proprietà di Perplexity ma di un fornitore terzo senza nome a causa di un accordo di non divulgazione.

Srinivas ha riconosciuto la complessità di impedire immediatamente al crawler di terze parti di accedere ai contenuti di Wired, affermando: "È complicato". Ha inoltre sottolineato che il Robots Exclusion Protocol, istituito nel 1994, non è un quadro giuridicamente vincolante e ha suggerito che l’ascesa dell’intelligenza artificiale richiede una nuova forma di collaborazione tra creatori di contenuti e piattaforme come Perplexity.

Ulteriori critiche sono sorte quando Wired ha dimostrato che il motore di risposta di Perplexity poteva parafrasare fedelmente i loro articoli, a volte in modo impreciso. Un errore degno di nota includeva una falsa affermazione su un agente di polizia della California che aveva commesso un crimine. Srinivas ha sostenuto che tali risultati erano probabilmente indotti da suggerimenti progettati per provocare tali risposte e ha sottolineato che gli utenti normali non avrebbero riscontrato questi problemi. Ha ammesso che il sistema non è immune da errori.

Immagine in primo piano tramite Pixabay