Według Cointelegraph, nowy chatbot ze sztuczną inteligencją o nazwie „Reflection 70B” został wprowadzony przez HyperWrite AI. Dyrektor generalny Matt Shumer ogłosił rozwój 5 września, twierdząc, że jest to najlepszy na świecie model open source. Sztuczna inteligencja została wyszkolona przy użyciu techniki o nazwie „Reflection-Tuning”, zaprojektowanej w celu umożliwienia dużym modelom językowym (LLM) korygowania własnych błędów.

Reflection Llama-3.1 70B, czyli AI typu open-source firmy Meta, wprowadzone na rynek w lipcu, może konkurować z najlepszymi modelami typu closed-source, takimi jak Claude 3.5 Sonnet firmy Anthropic i GPT-4o firmy OpenAI w kilku testach porównawczych, według Shumera. Wyjaśnił, że obecne modele AI często mają halucynacje, co oznacza, że ​​generują niedokładne wyniki, postrzegając wzorce lub obiekty, które nie istnieją. Reflection-Tuning ma na celu rozwiązanie tego problemu, umożliwiając AI rozpoznawanie i korygowanie błędów przed sfinalizowaniem odpowiedzi.

Strojenie refleksji polega na wprowadzaniu odpowiedzi AI z powrotem do modelu, prosząc go o ocenę własnych wyników w celu zidentyfikowania mocnych i słabych stron oraz obszarów wymagających poprawy. Ten iteracyjny proces pomaga AI stale udoskonalać swoje możliwości, czyniąc ją bardziej świadomą siebie i lepszą w krytyce i poprawie swojej wydajności. Shumer zauważył, że przy odpowiednim podpowiedzi nowy model jest wysoce skuteczny w różnych przypadkach użycia.

W 2023 r. wspierany przez Microsoft OpenAI opublikował dokument badawczy omawiający metody zapobiegania halucynacjom AI. Jednym z zaproponowanych pomysłów był „nadzór nad procesami”, który polega na trenowaniu modeli AI, aby nagradzały się za każdy poprawny krok rozumowania, a nie tylko za ostateczny poprawny wniosek. Karl Cobbe, badacz z OpenAI, podkreślił znaczenie wykrywania i łagodzenia błędów logicznych lub halucynacji jako krytycznego kroku w kierunku budowania dostosowanej sztucznej inteligencji ogólnej (AGI).