Questo articolo riguarda.
L’ultimo studio, intitolato “I modelli linguistici più grandi e più insegnabili diventano meno affidabili”, pubblicato sul Nature Scientific Journal, ha scoperto che i chatbot di intelligenza artificiale commettono più errori quando vengono rilasciati nuovi modelli. Lexin Zhou, uno degli autori dello studio, ha affermato che i modelli di intelligenza artificiale si concentrano sempre sulla fornitura di risposte convincenti, e quindi agli utenti vengono presentate risposte apparentemente corrette ma errate.
Queste allucinazioni dell’IA aumentano nel tempo, portando al “collasso del modello”. Il redattore Mathieu Roy ha avvertito gli utenti di non fare eccessivo affidamento su questi strumenti e di controllare sempre i risultati prodotti dall'intelligenza artificiale.
La piattaforma AI di Google è stata criticata nel febbraio 2024 per aver prodotto immagini storicamente imprecise. Per ridurre le allucinazioni legate all’intelligenza artificiale, leader del settore come Jensen Huang, CEO di Nvidia, hanno suggerito che i modelli conducano ricerche e forniscano risorse per ogni risposta.
Il CEO di HyperWrite AI Matt Shumer ha annunciato che il nuovo modello 70B dell'azienda utilizza "Reflection-Tuning" per analizzare gli errori del robot AI e adattare le sue risposte nel tempo.
Cosa ne pensi di questo? Condividi nei commenti.