Как сообщает Cointelegraph, исследование, опубликованное в журнале Nature Scientific Journal, показывает, что частота ошибок чат-ботов искусственного интеллекта увеличивается по мере выпуска новых моделей. Лексин Чжоу, один из авторов исследования, считает, что модели ИИ отдают приоритет предоставлению ответов, которые кажутся правильными, что приводит к снижению точности.

Редактор и писатель Матье Рой предостерегает пользователей от чрезмерной зависимости от этих инструментов и рекомендует проверять результаты поиска, генерируемые ИИ. Проверка информации становится более сложной, особенно в чат-ботах службы поддержки клиентов, отметил Рой.

В феврале 2024 года платформу искусственного интеллекта Google высмеяли за создание исторически неточных изображений. Генеральный директор Nvidia Дженсен Хуанг предложил смягчить проблему галлюцинаций ИИ, заставив модели ИИ проводить исследования и предоставлять происхождение.

Генеральный директор HyperWrite AI Мэтт Шумер объявил, что новая модель компании 70B использует подход «Reflection-Tuning», который обучается путем анализа собственных ошибок и корректировки ответов.