Společnost Meta Platforms v pátek vydala řadu nových produktů umělé inteligence, včetně „hodnotitele pro samouky“, který je schopen kontrolovat přesnost jiných modelů umělé inteligence. Model je proto údajně schopen nabídnout menší zapojení člověka do procesu vývoje modelů AI.

Mateřská společnost Facebook a Instagram v pátek uvedla, že uvolňuje nové modely umělé inteligence po uvedení tohoto nástroje v srpnovém dokumentu, který podrobně vysvětluje, jak se spoléhá na stejnou techniku ​​„řetězce myšlenek“, kterou používají kolegové, nedávno výrobce ChatGPT OpenAI. vydáno 01 modelů.

Očekává se, že to modelu AI umožní spolehlivě posoudit reakce modelů.

Meta chce vyřešit problémy s nepřesnostmi

Podle článku agentury Reuters může model zkontrolovat a zlepšit přesnost odpovědí na těžké problémy, jako jsou ty v předmětech jako věda, matematika a kódování, protože to znamená rozdělit složité problémy na menší logické kroky.

Meta odhalila, že její záměry zahrnují kromě kritiky zastaralých a nepřesných odpovědí také řešení problémů, se kterými se setkávají jiné modely AI, jako je ChatGPT.

Výzkumníci z Meta údajně použili výhradně data generovaná umělou inteligencí k trénování modelu hodnotitele a v této fázi odstranili lidský vstup.

Dva z výzkumníků Meta řekli agentuře Reuters, že schopnost používat AI k vyhodnocování jiné AI spolehlivě nabízí pohled na možnou cestu k vybudování autonomní, která se dokáže poučit ze svých vlastních chyb.

"Doufáme, že s tím, jak se umělá inteligence stává stále více nadlidskou, bude stále lepší a lepší v kontrole své práce, takže bude ve skutečnosti lepší než průměrný člověk." Výzkumník Jason Weston.

„Myšlenka být samoukem a schopností sebehodnotit je v zásadě klíčová pro myšlenku dostat se na tento druh nadlidské úrovně AI,“ dodal.

Meta směřuje k autonomní AI

Podle výzkumníků vidí zúčastněné strany v průmyslu umělé inteligence tyto agenty jako digitální asistenty, kteří jsou dostatečně inteligentní na to, aby vykonávali různé úkoly bez lidského zásahu.

Výzkumníci tvrdí, že sebezdokonalující se modely by mohly odstranit potřebu často drahého a neefektivního procesu, který se dnes používá nazvaný Reinforcement Learning from Human Feedback. To vyžaduje vstup od lidských anotátorů, kteří musí mít specializované odborné znalosti k přesnému označení dat a ověření správnosti odpovědí na složité matematické a písemné dotazy.

Oboroví kolegové jako Google a Anthropic také publikovali výzkumné práce o konceptu RLAIF neboli Reinforcement Learning from AI Feedback.

Na rozdíl od společnosti Meta však tyto další společnosti obvykle neuvolňují své modely pro veřejné použití.

Odborníci v odvětví umělé inteligence se domnívají, že použití umělé inteligence ke kontrole umělé inteligence je významné pro vytváření autonomních aplikací umělé inteligence, které mohou fungovat bez lidského zásahu. To znamená, že modely umělé inteligence se nakonec naučí ze svých vlastních chyb, budou se samy opravovat a zlepšovat bez jakéhokoli zásahu lidí.

Gigant sociálních médií také vydal další nástroje, včetně aktualizace svého modelu identifikace obrazu Segment Anything Model (SAM), nástroje, který zrychluje dobu generování odezvy LLM a datových sad, které lze použít k pomoci při objevování nových anorganických materiálů.