Do již tak přeplněného prostoru vstupuje další nový chatbot s umělou inteligencí, ale tento zřejmě dokáže to, co většina nedokáže – poučit se ze svých chyb.
V příspěvku z 5. září na X oznámil generální ředitel HyperWrite AI Matt Shumer vývoj ‚Reflection 70B‘ a prohlásil, že jde o „nejlepší světový open-source model“.
Dodal, že nová umělá inteligence byla trénována pomocí „Reflection-Tuning“, což je technika vyvinutá s cílem umožnit LLM opravit své vlastní chyby.
Reflection Llama-3.1 70B dokáže „obstát“ dokonce i proti špičkovým uzavřeným modelům, jako je Anthropic’s Claude 3.5 Sonnet a OpenAI’s GPT-4o v několika benchmarcích, které tvrdil. Llama 3.1 je open-source AI společnosti Meta, která byla spuštěna v červenci.
Řekl, že současné modely umělé inteligence mohou často halucinovat, ale Reflection-Tuning jim umožňuje rozpoznat své chyby a opravit je, než se zavázaly k odpovědi.
"Současní LLM mají tendenci k halucinacím a nedokážou rozpoznat, kdy to dělají."
Halucinace umělé inteligence je jev, kdy generativní chatbot s umělou inteligencí vnímá vzory nebo objekty, které neexistují nebo jsou pro lidské pozorovatele nepostřehnutelné, a vytváří výstupy, které jsou nepřesné.
Příklad ladění odrazu. Zdroj: Matt Shumer
Ladění odrazu je technika používaná ke zlepšení modelů umělé inteligence tím, že je necháte analyzovat a učit se z jejich vlastních výstupů.
Odpovědi AI lze vrátit zpět do AI, kde může být požádána, aby vyhodnotila své vlastní reakce, například identifikovala silné a slabé stránky a oblasti pro zlepšení.
Tento proces se mnohokrát opakuje, což umožňuje AI neustále zdokonalovat své schopnosti s cílem zvýšit si sebevědomí svých výstupů a lépe kritizovat a zlepšovat svůj vlastní výkon.
Shumer dodal, že „se správným nabádáním je to absolutní bestie pro mnoho případů použití“ a poskytl demo odkaz na nový model.
OpenAI podporovaná Microsoftem vydala v roce 2023 výzkumný dokument s nápady, jak pomoci předcházet halucinacím AI.
Jednou z myšlenek byla „kontrola procesu“, která zahrnuje trénování modelů umělé inteligence, aby se odměňovaly za každý jednotlivý správný krok uvažování, když dospějí k odpovědi, namísto pouhého odměňování správného konečného závěru.
„Detekce a zmírnění logických chyb nebo halucinací modelu je kritickým krokem k vytvoření sladěného AGI [umělá obecná inteligence],“ řekl tehdy CNBC Karl Cobbe, výzkumník z OpenAI.
Časopis: Plán „pekelné krajiny“ dronů s umělou inteligencí pro Tchaj-wan, LLM jsou příliš hloupé, aby zničily lidstvo: AI Eye