I chatbot AI peggiorano nel tempo — articolo accademico #BTCUptober

Un calo dell'interesse dei consumatori per i chatbot ha causato un calo dei ricavi del settore AI durante il secondo trimestre commerciale del 2024.

Un recente studio di ricerca intitolato "I modelli linguistici più grandi e più istruttivi diventano meno affidabili" nel Nature Scientific Journal ha rivelato che i chatbot con intelligenza artificiale commettono più errori nel tempo man mano che vengono rilasciati nuovi modelli.

Lexin Zhou, uno degli autori dello studio, ha teorizzato che poiché i modelli AI sono ottimizzati per fornire sempre risposte credibili, le risposte apparentemente corrette vengono considerate prioritarie e trasmesse all'utente finale indipendentemente dalla precisione.

Queste allucinazioni AI si auto-rafforzano e tendono ad aggravarsi nel tempo, un fenomeno esacerbato dall'utilizzo di vecchi modelli linguistici di grandi dimensioni per addestrare nuovi modelli linguistici di grandi dimensioni, con conseguente "collasso del modello".

L'editor e scrittore Mathieu Roy ha messo in guardia gli utenti dal fare troppo affidamento su questi strumenti e dal controllare sempre i risultati di ricerca generati dall'IA per eventuali incongruenze:

Sebbene l'IA possa essere utile per una serie di attività, è importante che gli utenti verifichino le informazioni che ottengono dai modelli di IA. Il fact-checking dovrebbe essere un passaggio nel processo di tutti quando si utilizzano strumenti di IA. Tutto diventa più complicato quando sono coinvolti i chatbot del servizio clienti".

A peggiorare le cose, "spesso non c'è modo di controllare le informazioni se non chiedendo al chatbot stesso", ha affermato Roy.

Il problema ostinato delle allucinazioni dell'IA#BTCUptober

La piattaforma di intelligenza artificiale di Google è stata ridicolizzata nel febbraio 2024 dopo che l'IA ha iniziato a produrre immagini storicamente inaccurate. Esempi di ciò includevano la rappresentazione di persone di colore come ufficiali nazisti e la creazione di immagini inaccurate di personaggi storici noti.

Purtroppo, incidenti come questo sono fin troppo comuni con l'attuale iterazione dell'intelligenza artificiale e dei grandi modelli linguistici. I dirigenti del settore, tra cui il CEO di Nvidia Jensen Huang, hanno proposto di mitigare le allucinazioni dell'IA costringendo i modelli di IA a condurre ricerche e fornire fonti per ogni singola risposta.#BTCUptober