Google sta riducendo la presentazione delle panoramiche AI ​​in alcuni risultati di ricerca. La decisione è arrivata dopo che il gigante della ricerca ha commesso alcuni errori pubblicizzati che hanno creato una reazione pubblica su Internet.

Giovedì, Liz Reid, responsabile della ricerca di Google, ha ammesso che la società stava limitando i riepiloghi generati dall'intelligenza artificiale chiamati "Panoramiche AI". La funzionalità basata sull'intelligenza artificiale è stata criticata quando ha iniziato a mostrare contenuti che dicevano alle persone di mangiare sassi e incollare il formaggio sulla pizza.

Leggi anche: Google, OpenAI e altri 13 si impegnano a non implementare modelli di intelligenza artificiale rischiosi

Google ha iniziato a mostrare le panoramiche AI ​​ai suoi utenti negli Stati Uniti due settimane fa dopo il suo evento I/O annuale, durante il quale ha lanciato diverse offerte basate sull'intelligenza artificiale. Da giovedì in poi gli utenti hanno notato meno domande, il che ha portato a una risposta AI.

L’identificazione di panoramiche false sull’intelligenza artificiale richiede un’analisi attenta

Reid ha scritto in un post sul blog che le persone sui social media hanno condiviso screenshot di AI Overviews che suggerivano soluzioni strane. Ha detto che l’intelligenza artificiale dell’azienda ha commesso alcuni errori, ma molti erano falsi e non sono mai stati generati dal sistema di intelligenza artificiale di Google.

Google AI Overview suggerisce di incollare il formaggio alla pizza. Fonte.

Ha ammesso che sono sicuramente apparse alcune panoramiche dell'IA strane o imprecise. Ha evidenziato le aree in cui la funzionalità deve essere migliorata, ma non sono le query comunemente ricercate. Notando quelli falsi, ha detto,

“Separatamente, ci sono stati un gran numero di screenshot falsi ampiamente condivisi. Alcuni di questi risultati falsi erano ovvi e sciocchi.

Reid ha affermato che Google non ha mostrato alcuna panoramica dell'intelligenza artificiale per argomenti come fumare durante la gravidanza o lasciare i cani in macchina. Ha incoraggiato gli utenti che hanno visto quegli screenshot sui social media a cercare da soli e controllare.

L’intelligenza artificiale di Google ora può identificare i contenuti satirici

Google ha identificato che i contenuti satirici e le domande senza senso erano aree che dovevano essere affrontate per produrre panoramiche AI ​​imprecise. Google ha affermato che prima degli screenshot della domanda "Quante rocce dovrei mangiare?" è diventato virale, nessuno ha posto la domanda. Reid ha detto che Google Trends può essere visto per conferma.

Leggi anche: Opera integra i modelli Gemini di Google per migliorare l'intelligenza artificiale del browser Aria

Un altro fattore è che sono disponibili pochissimi contenuti su un argomento specifico, noto anche come data void, che è anche motivo di panoramiche AI ​​imprecise. Per quanto riguarda la questione del mangiatore di rocce, Reid ha affermato che la natura satirica del contenuto ha attivato la panoramica dell'intelligenza artificiale. Il contenuto è stato ripubblicato anche da un sito web di software geologico, a cui si collegava la panoramica AI. Lei ha chiarito,

"Quindi, quando qualcuno ha inserito quella domanda nella Ricerca, è apparsa una panoramica dell'intelligenza artificiale che si collegava fedelmente a uno dei pochi siti Web che affrontavano la domanda."

Reid non ha menzionato le altre panoramiche sull'intelligenza artificiale che circolano sui social media, e anche molti grandi editori hanno pubblicato rapporti al riguardo. Ad esempio, il Washington Post ha pubblicato un rapporto su Google dicendo alla gente che Barack Obama era musulmano. La pubblicazione riportava anche un altro caso in cui Google AI Overview diceva a un utente che le persone dovrebbero bere urina per favorire l’espulsione dei calcoli renali.

Google ha un'ossessione per i forum pubblici

Il responsabile della ricerca di Google ha notato che la società ha testato ampiamente la funzionalità prima di lanciarla al pubblico. Ha anche ammesso che le pratiche di utilizzo nel mondo reale sono difficili da simulare nella fase di test, ma l'azienda ha svolto un solido lavoro di squadra e campionamento delle query tipiche degli utenti. 

Leggi anche: La funzionalità Panoramica dell'intelligenza artificiale di Google affronta il contraccolpo sui risultati imprecisi

Alcuni utenti e analisti di contenuti Internet notano che Google ha recentemente iniziato a mostrare molti risultati da forum pubblici come Reddit. Alcuni mettono in dubbio l’accordo della società con Reddit, ma un portavoce di Google ha detto alla BBC che tali termini non facevano parte dell’accordo per dare a Reddit maggiore visibilità nei risultati di ricerca.

Lily Ray, vicepresidente della strategia e della ricerca SEO presso Amsive, un'agenzia di marketing, afferma che ora molte query mostrano risultati da Reddit. Ha anche deriso Google in un post su X (in precedenza Twitter), dicendo che tutta la conoscenza del mondo (contenuti Reddit) è combinata con l’intelligenza artificiale.

Signore e signori, tutta la conoscenza del mondo, combinata con la potenza dell'intelligenza artificiale e un troll di Reddit. pic.twitter.com/jhzT2pGXjh

— Lily Ray 😏 (@lilyraynyc) 21 maggio 2024

Reid ha affermato che in alcuni esempi le panoramiche AI ​​presentano contenuti sarcastici provenienti dai forum di discussione. Ha detto che i forum sono una buona fonte di informazioni di prima mano, ma in alcuni casi possono innescare risposte non così utili, come incollare il formaggio sulla pizza.

Inoltre, l’intelligenza artificiale di Google interpreta erroneamente il linguaggio, il che porta a informazioni errate nelle panoramiche AI, ma secondo l’azienda la percentuale di tali risposte è molto bassa. Reid ha notato che hanno risolto rapidamente i problemi migliorando o rimuovendo le risposte che non erano conformi alla politica di Google.

Il vicepresidente di Ricerca Google ha anche affermato che esistono forti barriere per argomenti come la salute e le notizie. L’azienda ha lanciato nuovi perfezionamenti di attivazione per una maggiore tutela della qualità per la salute. Reid ha affermato che il sistema di rilevamento viene aggiornato anche per le query senza senso in modo da non mostrarle come panoramiche AI. Ha anche accennato alla conferma di un minor numero di panoramiche AI ​​per le domande satiriche, affermando: "Abbiamo aggiornato i nostri sistemi per limitare l'uso di contenuti generati dagli utenti nelle risposte che potrebbero offrire consigli fuorvianti".

Reportage criptopolita di Aamir Sheikh