Чат-боты на основе ИИ со временем становятся хуже — научная статья #BTCUptober
Снижение интереса потребителей к чат-ботам привело к падению доходов сектора ИИ во втором квартале 2024 года.
Недавнее исследование под названием «Более крупные и более поддающиеся обучению языковые модели становятся менее надежными» в журнале Nature Scientific Journal показало, что чат-боты на основе искусственного интеллекта со временем совершают больше ошибок по мере выпуска новых моделей.
Лексин Чжоу, один из авторов исследования, предположил, что, поскольку модели ИИ оптимизированы для того, чтобы всегда давать правдоподобные ответы, кажущиеся правильными ответы получают приоритет и передаются конечному пользователю независимо от точности.
Эти галлюцинации ИИ являются самоусиливающимися и имеют тенденцию усугубляться со временем — явление, усугубляемое использованием старых больших языковых моделей для обучения новых больших языковых моделей, что приводит к «коллапсу модели».
Редактор и писатель Матье Рой предостерег пользователей от чрезмерного использования этих инструментов и всегда проверял результаты поиска, сгенерированные ИИ, на предмет несоответствий:
Хотя ИИ может быть полезен для ряда задач, пользователям важно проверять информацию, которую они получают от моделей ИИ. Проверка фактов должна быть шагом в процессе каждого при использовании инструментов ИИ. Это становится еще сложнее, когда задействованы чат-боты обслуживания клиентов».
Что еще хуже, «часто нет способа проверить информацию, кроме как спросить самого чат-бота», — утверждает Рой.
Упрямая проблема галлюцинаций ИИ#BTCUptober
Платформа искусственного интеллекта Google вызвала насмешки в феврале 2024 года после того, как ИИ начал создавать исторически неточные изображения. Примерами этого были изображение цветных людей в качестве нацистских офицеров и создание неточных изображений известных исторических личностей.
К сожалению, подобные инциденты слишком распространены в текущей итерации искусственного интеллекта и больших языковых моделей. Руководители отрасли, включая генерального директора Nvidia Дженсена Хуанга, предложили смягчить галлюцинации ИИ, заставив модели ИИ проводить исследования и предоставлять источники для каждого отдельного ответа.#BTCUptober