C'è un altro nuovo chatbot di intelligenza artificiale che entra in uno spazio già affollato, ma questo può apparentemente fare ciò che la maggior parte non può: imparare dai propri errori.

In un post del 5 settembre su X, il CEO di HyperWrite AI Matt Shumer ha annunciato lo sviluppo di "Reflection 70B", affermando che si tratta del "miglior modello open source al mondo".

Ha aggiunto che la nuova intelligenza artificiale è stata addestrata utilizzando la tecnica “Reflection-Tuning”, sviluppata per consentire agli LLM di correggere i propri errori.

Reflection Llama-3.1 70B può "reggere il confronto" anche con i migliori modelli closed-source come Claude 3.5 Sonnet di Anthropic e GPT-4o di OpenAI in diversi benchmark, ha affermato. Llama 3.1 è l'intelligenza artificiale open source di Meta lanciata a luglio.

Ha affermato che gli attuali modelli di intelligenza artificiale possono spesso dare origine ad allucinazioni, ma Reflection-Tuning consente loro di riconoscere i propri errori e correggerli prima di impegnarsi a fornire una risposta.

“Gli attuali LLM hanno la tendenza ad avere allucinazioni e non riescono a riconoscerle.”

Un'allucinazione dell'intelligenza artificiale è un fenomeno per cui un chatbot di intelligenza artificiale generativa percepisce modelli o oggetti inesistenti o impercettibili agli osservatori umani, creando output imprecisi.

Esempio di messa a punto della riflessione. Fonte: Matt Shumer

L'ottimizzazione della riflessione è una tecnica utilizzata per migliorare i modelli di intelligenza artificiale facendoli analizzare e apprendere dai propri output.

Le risposte dell'IA possono essere reimmesse nell'IA stessa, che può essere invitata a valutare le proprie risposte, identificando ad esempio punti di forza, punti deboli e aree di miglioramento.

Il processo viene ripetuto più volte, consentendo all'IA di affinare continuamente le proprie capacità, con l'obiettivo di diventare più consapevole dei propri risultati e più abile nel criticare e migliorare le proprie prestazioni.

Shumer ha aggiunto che "con la giusta sollecitazione, è una bestia assoluta per molti casi d'uso", fornendo un collegamento demo per il nuovo modello.

Nel 2023, OpenAI, sostenuta da Microsoft, ha pubblicato un documento di ricerca con idee su come contribuire a prevenire le allucinazioni causate dall'intelligenza artificiale.

Un’idea era la “supervisione del processo”, che prevede l’addestramento dei modelli di intelligenza artificiale a premiare se stessi per ogni singolo passo corretto del ragionamento quando giungono a una risposta, invece di premiare semplicemente una conclusione finale corretta.

"Rilevare e mitigare gli errori logici di un modello, o allucinazioni, è un passaggio fondamentale verso la creazione di un'intelligenza artificiale generale allineata", ha detto all'epoca alla CNBC Karl Cobbe, un ricercatore di OpenAI.

Rivista: piano di “inferno” per i droni AI per Taiwan, gli LLM sono troppo stupidi per distruggere l’umanità: AI Eye