Jau tā pārpildītajā telpā ienāk vēl viens jauns mākslīgā intelekta tērzēšanas robots, taču šis acīmredzot var paveikt to, ko vairums nevar — mācīties no savām kļūdām.  

5. septembra ziņojumā par X HyperWrite AI izpilddirektors Mets Šumers paziņoja par “Reflection 70B” izstrādi, apgalvojot, ka tas ir “pasaulē labākais atvērtā pirmkoda modelis”.

Viņš piebilda, ka jaunais AI tika apmācīts, izmantojot "Reflection-Tuning", kas ir paņēmiens, kas izstrādāts, lai ļautu LLM pašiem labot savas kļūdas.

Reflection Llama-3.1 70B var “turēties pretī” pat labākajiem slēgtā pirmkoda modeļiem, piemēram, Anthropic Claude 3.5 Sonnet un OpenAI GPT-4o vairākos etalonos, kā viņš apgalvoja. Llama 3.1 ir Meta atvērtā koda mākslīgais intelekts, kas tika palaists jūlijā. 

Viņš teica, ka pašreizējie AI modeļi bieži var izraisīt halucinācijas, bet Reflection-Tuning ļauj viņiem atpazīt savas kļūdas un izlabot tās pirms atbildes sniegšanas.

"Pašreizējiem LLM ir tendence uz halucinācijām, un viņi nevar atpazīt, kad viņi to dara."

AI halucinācijas ir parādība, kad ģeneratīvs AI tērzēšanas robots uztver modeļus vai objektus, kas neeksistē vai cilvēku novērotājiem nav pamanāmi, radot neprecīzus rezultātus.

Refleksijas regulēšanas piemērs. Avots: Mets Šumers

Refleksijas regulēšana ir metode, ko izmanto, lai uzlabotu AI modeļus, analizējot un mācoties no saviem rezultātiem. 

AI atbildes var ievadīt atpakaļ AI, kur tai var lūgt novērtēt savas atbildes, identificējot, piemēram, stiprās, vājās puses un jomas, kurās jāveic uzlabojumi. 

Process tiek atkārtots daudzas reizes, ļaujot mākslīgajam intelektam nepārtraukti pilnveidot savas iespējas, lai tas labāk apzinātos savus rezultātus un labāk varētu kritizēt un uzlabot savu veiktspēju.

Šūmers piebilda, ka "ar pareizo pamudinājumu tas ir absolūts zvērs daudzos lietošanas gadījumos", nodrošinot jaunā modeļa demonstrācijas saiti. 

Microsoft atbalstītais OpenAI 2023. gadā izdeva pētniecisko rakstu ar idejām, kā palīdzēt novērst AI halucinācijas.

Viena no idejām bija “procesa uzraudzība”, kas ietver mākslīgā intelekta modeļu apmācību, lai atalgotu sevi katram indivīdam, pareizu spriešanas soli, kad viņi nonāk pie atbildes, tā vietā, lai apbalvotu tikai pareizu gala secinājumu.

"Modeļa loģisko kļūdu vai halucināciju atklāšana un mazināšana ir būtisks solis saskaņota AGI [mākslīgā vispārējā intelekta] veidošanā," sarunā ar CNBC toreiz teica OpenAI pētnieks Karls Kobs. 

Žurnāls: AI drona “elles ainavas” plāns Taivānai, LLM ir pārāk stulbi, lai iznīcinātu cilvēci: AI Eye