Как сообщает Cointelegraph, исследование, опубликованное в журнале Nature Scientific Journal, показывает, что частота ошибок чат-ботов искусственного интеллекта увеличивается по мере выпуска новых моделей. Лексин Чжоу, один из авторов исследования, считает, что модели ИИ отдают приоритет предоставлению ответов, которые кажутся правильными, что приводит к снижению точности.
Редактор и писатель Матье Рой предостерегает пользователей от чрезмерной зависимости от этих инструментов и рекомендует проверять результаты поиска, генерируемые ИИ. Проверка информации становится более сложной, особенно в чат-ботах службы поддержки клиентов, отметил Рой.
В феврале 2024 года платформу искусственного интеллекта Google высмеяли за создание исторически неточных изображений. Генеральный директор Nvidia Дженсен Хуанг предложил смягчить проблему галлюцинаций ИИ, заставив модели ИИ проводить исследования и предоставлять происхождение.
Генеральный директор HyperWrite AI Мэтт Шумер объявил, что новая модель компании 70B использует подход «Reflection-Tuning», который обучается путем анализа собственных ошибок и корректировки ответов.