W piątek Meta Platforms wydało szereg nowych produktów AI, w tym „Self-Taught Evaluator”, który jest w stanie sprawdzić dokładność innych modeli AI. Model ten jest zatem podobno w stanie zaoferować mniejszy udział człowieka w procesie rozwoju modeli AI.

Spółka macierzysta Facebooka i Instagrama poinformowała w piątek, że wypuszcza nowe modele sztucznej inteligencji po wprowadzeniu narzędzia w dokumencie z sierpnia, w którym szczegółowo wyjaśniono, w jaki sposób opiera się ono na tej samej technice „łańcucha myśli”, z której korzystają konkurenci. Twórca ChatGPT, OpenAI, niedawno wydał 01 modeli.

Oczekuje się, że pozwoli to modelowi sztucznej inteligencji na podejmowanie wiarygodnych decyzji na temat odpowiedzi modeli.

Meta chce zająć się wyzwaniami związanymi z nieścisłościami

Według artykułu agencji Reuters model ten może sprawdzać i zwiększać dokładność odpowiedzi na trudne problemy, na przykład z przedmiotów ścisłych, matematyki i kodowania, ponieważ polega na rozbiciu złożonych problemów na mniejsze, logiczne kroki.

Firma Meta ujawniła, że ​​jej intencje obejmują rozwiązanie problemów występujących w przypadku innych modeli sztucznej inteligencji, np. ChatGPT, a także odpowiedź na krytykę dotyczącą nieaktualnych i niedokładnych odpowiedzi.

Jak podają źródła, badacze z Meta wykorzystali w całości dane wygenerowane przez sztuczną inteligencję do wyszkolenia modelu oceniającego, eliminując na tym etapie ingerencję człowieka.

Dwóch badaczy z Meta powiedziało agencji Reuters, że możliwość wykorzystania sztucznej inteligencji do wiarygodnej oceny innych SI oferuje wgląd w możliwą ścieżkę prowadzącą do stworzenia autonomicznych systemów, które będą mogły uczyć się na własnych błędach.

„Mamy nadzieję, że w miarę jak AI staje się coraz bardziej nadludzka, będzie coraz lepsza w sprawdzaniu swojej pracy, tak że będzie faktycznie lepsza od przeciętnego człowieka”. Badacz Jason Weston.

„Idea samokształcenia i umiejętności samooceny jest zasadniczo kluczowa dla osiągnięcia tego rodzaju ponadludzkiego poziomu sztucznej inteligencji” – dodał.

Meta zmierza w kierunku autonomicznej sztucznej inteligencji

Według badaczy przedstawiciele branży sztucznej inteligencji postrzegają tych agentów jako cyfrowych asystentów, którzy są na tyle inteligentni, że potrafią wykonywać wiele zadań bez ingerencji człowieka.

Naukowcy twierdzą, że samodoskonalące się modele mogłyby wyeliminować potrzebę często kosztownego i nieefektywnego procesu, który jest obecnie stosowany, zwanego Reinforcement Learning from Human Feedback. Wymaga to wkładu ludzkich adnotatorów, którzy muszą mieć specjalistyczną wiedzę, aby dokładnie oznaczyć dane i zweryfikować, czy odpowiedzi na złożone zapytania matematyczne i pisemne są poprawne.

Branżowi konkurenci, tacy jak Google i Anthropic, również opublikowali prace badawcze na temat koncepcji RLAIF, czyli uczenia wzmacniającego na podstawie informacji zwrotnych AI.

Jednak w przeciwieństwie do Meta, te pozostałe firmy nie udostępniają swoich modeli do publicznego użytku.

Eksperci z branży AI wyrazili opinię, że wykorzystanie AI do sprawdzania AI jest istotne dla budowania autonomicznych aplikacji AI, które mogą działać bez ingerencji człowieka. Oznacza to, że ostatecznie modele AI będą uczyć się na własnych błędach, same się korygować i udoskonalać bez żadnego udziału człowieka.

Gigant mediów społecznościowych udostępnił również inne narzędzia, w tym aktualizację swojego narzędzia do identyfikacji obrazów Segment Anything Model (SAM), które przyspiesza czas generowania odpowiedzi LLM, a także zestawy danych, które można wykorzystać do wspomagania odkrywania nowych materiałów nieorganicznych.