Чат-боти штучного інтелекту з часом погіршуються — наукова стаття #BTCUptober

Зменшення інтересу споживачів до чат-ботів спричинило падіння доходів сектору штучного інтелекту протягом другого кварталу 2024 року.

Нещодавнє дослідження під назвою «Великі мовні моделі з більшою інструкцією стають менш надійними» в Nature Scientific Journal показало, що чат-боти зі штучним інтелектом з часом роблять більше помилок у міру випуску нових моделей.

Лексін Чжоу, один із авторів дослідження, висунув теорію, що оскільки моделі штучного інтелекту оптимізовані, щоб завжди надавати правдоподібні відповіді, на перший погляд правильні відповіді мають пріоритет і передаються кінцевому користувачеві незалежно від точності.

Ці галюцинації штучного інтелекту самопідсилюються та мають тенденцію до поєднання з часом — явище посилюється використанням старих великих мовних моделей для навчання нових великих мовних моделей, що призводить до «колапсу моделі».

Редактор і письменник Матьє Рой попередив користувачів, щоб вони не надто покладалися на ці інструменти та завжди перевіряли результати пошуку, згенеровані штучним інтелектом, на наявність невідповідностей:

Хоча ШІ може бути корисним для багатьох завдань, користувачам важливо перевіряти інформацію, яку вони отримують від моделей ШІ. Перевірка фактів має бути кроком у кожному процесі використання інструментів ШІ. Це ускладнюється, коли задіяні чат-боти служби підтримки клієнтів».

Що ще гірше, «часто немає способу перевірити інформацію, крім запиту в самого чат-бота», — стверджував Рой.

Вперта проблема галюцинацій ШІ#BTCUptober

Платформа штучного інтелекту Google викликала глузування в лютому 2024 року після того, як штучний інтелект почав створювати історично неточні зображення. Приклади цього включали зображення кольорових людей як нацистських офіцерів і створення неточних образів відомих історичних діячів.

На жаль, подібні інциденти надто поширені з поточною ітерацією штучного інтелекту та великих мовних моделей. Керівники галузі, включаючи генерального директора Nvidia Дженсена Хуанга, запропонували пом’якшити галюцинації ШІ, змусивши моделі ШІ проводити дослідження та надавати джерела для кожної окремої відповіді.#BTCUptober