Мовна модель «LLaMA», яку нещодавно оприлюднила дослідницька група Facebook зі штучного інтелекту, продемонструвала обнадійливі результати порівняно з іншими моделями з точки зору ефективності та дієвості. Модель, назва якої розшифровується як «Lightweight and Language Model Agnostic», спрямована на зниження обчислювальних витрат на навчання великих мовних моделей, водночас одержуючи конкурентоспроможні результати.
З випуском OpenAI ChatGPT, який отримав фінансування від Microsoft, наприкінці 2022 року, почався стрімкий контроль над сектором технологій ШІ. Дебют спонукав цифрових гігантів, зокрема китайську Baidu Inc (9888.HK) і Alphabet Inc (GOOGL.O), представити власні мовні моделі ШІ.
Той факт, що LLaMA може працювати багатьма мовами, що значно підвищує його адаптивність до різних ситуацій і обставин, є однією з його важливих переваг. Крім того, LLaMA має найсучасніший алгоритм навчання, який може ефективно обробляти величезні обсяги даних. За допомогою цього методу мовні моделі можна навчити швидше та ефективніше та використовувати для різноманітних завдань обробки природної мови.
Використовуючи різноманітні набори даних, включаючи добре відомі тести GLUE і SuperGLUE, дослідники провели випробування з використанням моделі LLaMA та досягли передових результатів у ряді завдань. Результати показали, що, зберігаючи відносно скромний розмір моделі та швидкий час висновку, LLaMA надзвичайно ефективно справляється зі складними мовними завданнями.
LLaMA може перевершити конкурентів, які оцінюють більше параметрів, включаючи ChatGPT OpenAI, що підтримується Microsoft. Повідомляється, що версія з 13 мільярдами параметрів перевищує GPT-3, недавнього попередника моделі, на основі якої створено ChatGPT.
Цей новий прорив є ще одним кроком у триваючому конфлікті між такими компаніями, як Alphabet Inc. і китайською Baidu Inc., щодо переваги у сфері технологій ШІ. Завдяки високій продуктивності та значній кількості параметрів LLaMA може дати Meta перевагу в цьому конфлікті. Буде цікаво спостерігати, як інші підприємства відреагують на цю останню подію.