Saskaņā ar Cointelegraph teikto, HyperWrite AI ir ieviesis jaunu mākslīgā intelekta tērzēšanas robotu ar nosaukumu "Reflection 70B". Izpilddirektors Mets Šumers par izstrādi paziņoja 5. septembrī, apgalvojot, ka tas ir pasaulē populārākais atvērtā pirmkoda modelis. AI tika apmācīts, izmantojot metodi, ko sauc par “Reflection-Tuning”, kas izstrādāta, lai ļautu lielajiem valodu modeļiem (LLM) labot savas kļūdas.

Saskaņā ar Shumer teikto, Reflection Llama-3.1 70B, kas ir Meta atvērtā koda mākslīgais intelekts, kas tika laists klajā jūlijā, var konkurēt ar labākajiem slēgtā pirmkoda modeļiem, piemēram, Anthropic's Claude 3.5 Sonnet un OpenAI GPT-4o. Viņš paskaidroja, ka pašreizējie AI modeļi bieži rada halucinācijas, kas nozīmē, ka tie rada neprecīzus rezultātus, uztverot modeļus vai objektus, kas neeksistē. Reflection-Tuning mērķis ir to novērst, ļaujot AI atpazīt un labot savas kļūdas pirms atbildes pabeigšanas.

Pārdomu regulēšana ietver mākslīgā intelekta atbilžu ievadīšanu atpakaļ modelī, aicinot to novērtēt pašam savus rezultātus, lai noteiktu stiprās, vājās puses un uzlabošanas jomas. Šis iteratīvais process palīdz mākslīgajam intelektam nepārtraukti uzlabot savas iespējas, padarot to apzinīgāku un labāk kritizējot un uzlabojot tā veiktspēju. Šūmers atzīmēja, ka ar pareizo pamudinājumu jaunais modelis ir ļoti efektīvs dažādos lietošanas gadījumos.

2023. gadā Microsoft atbalstītais OpenAI izdeva pētījumu, kurā tika apspriestas metodes, kā novērst AI halucinācijas. Viena no piedāvātajām idejām bija “procesa uzraudzība”, kas ietver AI modeļu apmācību, lai atalgotu sevi par katru pareizo argumentācijas soli, nevis tikai galīgo pareizo secinājumu. Kārlis Kobbe, OpenAI pētnieks, uzsvēra, cik svarīgi ir atklāt un mazināt loģiskās kļūdas vai halucinācijas kā būtisku soli saskaņota mākslīgā vispārējā intelekta (AGI) veidošanā.