Google sta lavorando per eliminare le risposte errate e potenzialmente pericolose dai suoi risultati di ricerca basati sull'intelligenza artificiale. Tuttavia, la nuova funzione "Panoramica AI" a volte presenta erroneamente battute e satira sui social media e sui siti satirici come fatti reali.

Il recente rilascio da parte di Google dei risultati di ricerca sull'intelligenza artificiale ha attirato molta attenzione, ma non per le ragioni positive previste. Il colosso della tecnologia ha annunciato la scorsa settimana una serie di nuovi strumenti di intelligenza artificiale come parte della sua strategia “Era Gemini” appena lanciata. Insieme a ciò arriva un cambiamento significativo al suo caratteristico servizio di ricerca web, in cui le risposte alle domande nei risultati di ricerca vengono ora visualizzate in linguaggio naturale direttamente sopra i collegamenti ai siti web.

Sebbene l'aggiornamento di Google renda la tecnologia di ricerca più avanzata e possa gestire le domande degli utenti più complesse, solleva anche alcune preoccupazioni. Ad esempio, quando l’intelligenza artificiale elabora i risultati di ricerca, a volte presenta agli utenti informazioni errate o fuorvianti, il che è particolarmente problematico quando si tratta di argomenti delicati come l’eugenetica. L’eugenetica è stata utilizzata erroneamente in alcune politiche disumane nel corso della storia, quindi l’accuratezza e la sensibilità delle sue informazioni sono particolarmente importanti.

Inoltre, l’intelligenza artificiale non ha una precisione sufficiente nell’identificare cose specifiche, come distinguere tra funghi velenosi e non tossici. Questo ci ricorda che quando utilizziamo gli strumenti di ricerca basati sull’intelligenza artificiale, dobbiamo prestare particolare attenzione alle domande relative alla salute e alla sicurezza e cercare conferma professionale ove possibile.

Quando l'intelligenza artificiale di Google fornisce risposte "panoramica dell'intelligenza artificiale", a volte fa riferimento a contenuti di social media come Reddit, che potrebbero essere destinati all'umorismo o alla satira. Ciò si traduce in alcune risposte ovviamente sbagliate o prive di senso che vengono fornite agli utenti.

Ad esempio, alcuni utenti hanno riferito che quando hanno chiesto come affrontare la depressione, l’intelligenza artificiale di Google ha effettivamente suggerito di “saltare dal Golden Gate Bridge”. Altre risposte confermavano assurdamente un'abilità antigravitazionale che permetterebbe alle persone di rimanere in aria purché non guardassero in basso.

Questi esempi mostrano che, sebbene l’intelligenza artificiale abbia compiuto progressi nel fornire risultati di ricerca, sussistono ancora carenze in termini di precisione e affidabilità e sono necessari ulteriori miglioramenti.

L'intenzione originale della collaborazione di Google con Reddit è quella di rendere più facile per gli utenti trovare e partecipare alle comunità e alle discussioni che li interessano. Tuttavia, questa collaborazione ha esposto anche alcuni rischi, soprattutto quando l’intelligenza artificiale elabora i contenuti di Reddit. Poiché l’intelligenza artificiale potrebbe non avere la capacità sufficiente di discernere l’autenticità o il contesto delle informazioni, potrebbe adottare e citare indiscriminatamente informazioni da Reddit. Questa adozione indiscriminata di informazioni può portare alla comparsa di suggerimenti fuorvianti o addirittura ridicoli nei risultati di ricerca.

Ad esempio, l’intelligenza artificiale una volta ha suggerito in modo inappropriato che i bambini dovessero mangiare almeno una piccola roccia al giorno e ha erroneamente etichettato il suggerimento come proveniente da un geologo dell’Università della California, Berkeley. Questo esempio dimostra che l’intelligenza artificiale può ignorare la credibilità e l’adeguatezza delle informazioni durante l’elaborazione delle informazioni online, risultando quindi fuorviante.

Sebbene Google abbia eliminato o corretto alcune risposte ovviamente ridicole, i modelli generati dall’intelligenza artificiale a volte producono risposte imprecise o fittizie, un fenomeno noto come “allucinazione”. Queste "allucinazioni" possono essere considerate affermazioni false perché l'intelligenza artificiale sta creando qualcosa che non è reale.

Nel frattempo, l’intelligenza artificiale di Google una volta ha erroneamente consigliato di utilizzare la colla per evitare che il formaggio scivoli via dalla pizza, un suggerimento derivante da un commento vecchio di dieci anni su Reddit.

È noto che il modello ChatGPT di OpenAI inventa fatti, tra cui l'accusa falsa del professore di diritto Jonathan Turley di violenza sessuale sulla base di un viaggio a cui non ha partecipato. Questo incidente riflette il fatto che l’intelligenza artificiale potrebbe essere eccessiva durante l’elaborazione delle informazioni e non riuscire a distinguere accuratamente l’autenticità dei contenuti su Internet.

Inoltre, l’eccessiva fiducia di AI potrebbe portarla ad accettare indiscriminatamente tutte le informazioni su Internet come vere. Questa fiducia potrebbe portare a giudizi errati, come condannare ingiustamente le aziende nel contesto delle leggi antitrust e attribuire falsamente la colpa agli ex dirigenti di Google.

Quando gli utenti cercano domande relative alla cultura pop su Google, la funzione Suggerimenti per la ricerca AI a volte può restituire risultati divertenti o confusi. Ciò potrebbe essere dovuto al fatto che l’intelligenza artificiale incontra difficoltà di comprensione durante l’elaborazione dei contenuti della cultura pop, soprattutto quando il contenuto contiene umorismo, satira o contesti sociali specifici. Allo stesso tempo, potrebbe essere difficile per l’intelligenza artificiale cogliere con precisione la vera intenzione di questi contenuti, dando luogo a suggerimenti o risposte che potrebbero non essere in linea con le aspettative degli utenti, innescando alcune reazioni inaspettate.

Inoltre, l’intelligenza artificiale di Google fornisce suggerimenti aggiornati per il problema dei bambini che ingeriscono pietre, suggerendo che le possibili ragioni includono la curiosità dei bambini, difficoltà di elaborazione sensoriale o disturbi alimentari. Ciò dimostra ancora una volta che dobbiamo essere estremamente cauti quando utilizziamo le informazioni fornite dall’intelligenza artificiale, soprattutto quando le informazioni si riferiscono a consigli in materia di salute e sicurezza, e dobbiamo cercare consulenza e aiuto professionali.

Conclusione:

Sebbene la funzione dei suggerimenti di ricerca di Google AI abbia compiuto progressi tecnici significativi, le sue carenze in termini di precisione e affidabilità potrebbero ancora portare a gravi conseguenze. Dall’adozione indiscriminata di informazioni su piattaforme di social media come Reddit, a informazioni fuorvianti su argomenti delicati come l’eugenetica, all’autocriminalizzazione inappropriata in campo legale, questi incidenti hanno evidenziato l’importanza dell’intelligenza artificiale nello screening delle informazioni e nei difetti di giudizio.

Inoltre, anche il problema dei modelli di intelligenza artificiale che fabbricano fatti o producono "allucinazioni" mostra i suoi limiti nell'affrontare problemi complessi. Pertanto, dobbiamo rimanere vigili sulle informazioni fornite dall’intelligenza artificiale, chiedere consulenza professionale e invitare sviluppatori e ricercatori a continuare a migliorare la tecnologia dell’intelligenza artificiale per garantire che apporti maggiori benefici agli esseri umani piuttosto che rischi. #GoogleAI #准确性 #AI模型 #可靠性