Do již tak přeplněného prostoru vstupuje další nový chatbot s umělou inteligencí, ale tento zřejmě dokáže to, co většina nedokáže – poučit se ze svých chyb.  

V příspěvku z 5. září na X oznámil generální ředitel HyperWrite AI Matt Shumer vývoj ‚Reflection 70B‘ a prohlásil, že jde o „nejlepší světový open-source model“.

Dodal, že nová umělá inteligence byla trénována pomocí „Reflection-Tuning“, což je technika vyvinutá s cílem umožnit LLM opravit své vlastní chyby.

Reflection Llama-3.1 70B dokáže „obstát“ dokonce i proti špičkovým uzavřeným modelům, jako je Anthropic’s Claude 3.5 Sonnet a OpenAI’s GPT-4o v několika benchmarcích, které tvrdil. Llama 3.1 je open-source AI společnosti Meta, která byla spuštěna v červenci. 

Řekl, že současné modely umělé inteligence mohou často halucinovat, ale Reflection-Tuning jim umožňuje rozpoznat své chyby a opravit je, než se zavázaly k odpovědi.

"Současní LLM mají tendenci k halucinacím a nedokážou rozpoznat, kdy to dělají."

Halucinace umělé inteligence je jev, kdy generativní chatbot s umělou inteligencí vnímá vzory nebo objekty, které neexistují nebo jsou pro lidské pozorovatele nepostřehnutelné, a vytváří výstupy, které jsou nepřesné.

Příklad ladění odrazu. Zdroj: Matt Shumer

Ladění odrazu je technika používaná ke zlepšení modelů umělé inteligence tím, že je necháte analyzovat a učit se z jejich vlastních výstupů. 

Odpovědi AI lze vrátit zpět do AI, kde může být požádána, aby vyhodnotila své vlastní reakce, například identifikovala silné a slabé stránky a oblasti pro zlepšení. 

Tento proces se mnohokrát opakuje, což umožňuje AI neustále zdokonalovat své schopnosti s cílem zvýšit si sebevědomí svých výstupů a lépe kritizovat a zlepšovat svůj vlastní výkon.

Shumer dodal, že „se správným nabádáním je to absolutní bestie pro mnoho případů použití“ a poskytl demo odkaz na nový model. 

OpenAI podporovaná Microsoftem vydala v roce 2023 výzkumný dokument s nápady, jak pomoci předcházet halucinacím AI.

Jednou z myšlenek byla „kontrola procesu“, která zahrnuje trénování modelů umělé inteligence, aby se odměňovaly za každý jednotlivý správný krok uvažování, když dospějí k odpovědi, namísto pouhého odměňování správného konečného závěru.

„Detekce a zmírnění logických chyb nebo halucinací modelu je kritickým krokem k vytvoření sladěného AGI [umělá obecná inteligence],“ řekl tehdy CNBC Karl Cobbe, výzkumník z OpenAI. 

Časopis: Plán „pekelné krajiny“ dronů s umělou inteligencí pro Tchaj-wan, LLM jsou příliš hloupé, aby zničily lidstvo: AI Eye