Na już zatłoczony rynek wkracza kolejny nowy chatbot wykorzystujący sztuczną inteligencję, ale ten najwyraźniej potrafi to, czego większość nie potrafi — uczyć się na swoich błędach.

W poście z 5 września na X, dyrektor generalny HyperWrite AI, Matt Shumer, ogłosił opracowanie „Reflection 70B”, twierdząc, że jest to „najlepszy na świecie model open source”.

Dodał, że nową sztuczną inteligencję wytrenowano przy użyciu techniki „Reflection-Tuning”, która ma umożliwić doktorantom LLM samodzielne naprawianie własnych błędów.

Reflection Llama-3.1 70B może „trzymać się” nawet najlepszych modeli o zamkniętym kodzie źródłowym, takich jak Claude 3.5 Sonnet firmy Anthropic i GPT-4o firmy OpenAI w kilku testach porównawczych, jak twierdził. Llama 3.1 to sztuczna inteligencja typu open source firmy Meta, która została uruchomiona w lipcu.

Stwierdził, że obecne modele sztucznej inteligencji często mają halucynacje, ale Reflection-Tuning pozwala im rozpoznawać swoje błędy i korygować je przed udzieleniem odpowiedzi.

„Obecnie absolwenci studiów prawniczych mają tendencję do halucynacji i nie potrafią rozpoznać, kiedy to się dzieje”.

Halucynacja AI to zjawisko, w którym generatywny chatbot AI postrzega wzorce lub obiekty, które nie istnieją lub są niezauważalne dla ludzkich obserwatorów, tworząc w ten sposób niedokładne wyniki.

Przykład strojenia odbicia. Źródło: Matt Shumer

Strojenie refleksyjne to technika służąca do ulepszania modeli sztucznej inteligencji poprzez analizowanie i uczenie się na podstawie własnych wyników.

Odpowiedzi sztucznej inteligencji mogą zostać przekazane do sztucznej inteligencji, która może zostać poproszona o ocenę własnych odpowiedzi, na przykład o zidentyfikowanie mocnych i słabych stron oraz obszarów wymagających poprawy.

Proces ten jest powtarzany wielokrotnie, co pozwala sztucznej inteligencji na ciągłe udoskonalanie swoich możliwości, aby stała się bardziej świadoma swoich wyników oraz lepiej krytykowała i poprawiała własne wyniki.

Shumer dodał, że „przy odpowiednim podpowiedzieniu jest to absolutna bestia w wielu przypadkach użycia”, podając link do wersji demonstracyjnej nowego modelu.

Wspierana przez Microsoft firma OpenAI opublikowała w 2023 r. dokument badawczy zawierający pomysły na to, jak zapobiegać halucynacjom wywoływanym przez sztuczną inteligencję.

Jednym z pomysłów był „nadzorowanie procesu”, który polegał na trenowaniu modeli AI, aby nagradzały się za każdy poprawny krok rozumowania, gdy dochodzą do odpowiedzi, zamiast nagradzać tylko prawidłowy wniosek końcowy.

„Wykrywanie i łagodzenie błędów logicznych modelu, czyli halucynacji, to kluczowy krok w kierunku zbudowania spójnej AGI [sztucznej inteligencji ogólnej]” – powiedział wówczas Karl Cobbe, badacz z OpenAI, w wywiadzie dla telewizji CNBC.

Czasopismo: Plan „piekielnego krajobrazu” dla dronów AI dla Tajwanu, LLM-y są zbyt głupie, aby zniszczyć ludzkość: AI Eye