Чат-боты на основе искусственного интеллекта, такие как ChatGPT, привлекли внимание во всем мире благодаря своей способности обсуждать любые темы, подобной человеческой.

Тем не менее, отчет Бенджа Эдвардса для Ars Technica, опубликованный в четверг (6 апреля), подчеркивает один существенный недостаток: эти чат-боты могут непреднамеренно распространять ложную, но убедительную информацию, что делает их ненадежными источниками фактов и потенциальными источниками клеветы.

Эдвардс объясняет, что чат-боты на основе искусственного интеллекта, такие как ChatGPT от OpenAI, используют «большие языковые модели» (LLM) для генерации ответов. LLM — это компьютерные программы, обученные на больших объемах текстовых данных для чтения и воспроизведения естественного языка. Однако они склонны к ошибкам, которые в академических кругах обычно называют «галлюцинациями» или «конфабуляциями». Эдвардс предпочитает «конфабуляцию», поскольку она предполагает творческие, но непреднамеренные выдумки.

Статья Ars Technica подчеркивает проблему ИИ-ботов, генерирующих обманчивую, вводящую в заблуждение или клеветническую информацию. Эдвардс приводит примеры того, как ChatGPT ложно обвиняет профессора права в сексуальных домогательствах и ошибочно утверждает, что мэр Австралии был осужден за взяточничество. Несмотря на эти недостатки, ChatGPT считается усовершенствованной версией GPT-3, поскольку он может отказаться отвечать на определенные вопросы или предупредить о возможных неточностях.

Генеральный директор OpenAI Сэм Альтман признал ограничения ChatGPT, написав в Twitter о его «невероятных» ограничениях и рисках полагаться на него в критических вопросах. Альтман также отметил одновременное знание чат-бота и его склонность быть «уверенным и неправым».

Эдвардс углубляется в их работу, чтобы понять, как модели GPT, такие как ChatGPT, конфабулизируют. Исследователи создают LLM, такие как GPT-3 и GPT-4, используя «неконтролируемое обучение», в котором модель учится предсказывать следующее слово в последовательности, анализируя обширные текстовые данные и уточняя свои предсказания методом проб и ошибок.

ChatGPT отличается от своих предшественников, поскольку он был обучен на расшифровках разговоров, написанных людьми, утверждает Эдвардс. OpenAI использовала «обучение с подкреплением на основе обратной связи с человеком» (RLHF) для тонкой настройки ChatGPT, что привело к более связным ответам и меньшему количеству конфабуляций. Тем не менее, неточности остаются.

Эдвардс предостерегает от слепого доверия к выводам чат-бота ИИ, но признает, что технологические усовершенствования могут изменить это. С момента своего запуска ChatGPT претерпел множество обновлений, повысив точность и способность отказываться отвечать на вопросы, на которые он не может ответить.

Хотя OpenAI напрямую не ответила на вопросы о точности ChatGPT, Эдвардс ссылается на документы компании и новостные сообщения для понимания. Главный научный сотрудник OpenAI Илья Суцкевер считает, что дальнейшее обучение RLHF может решить проблему галлюцинаций. В то же время главный научный сотрудник Meta по ИИ Янн Лекун утверждает, что текущие LLM на основе GPT не решат эту проблему.

Эдвардс также упоминает альтернативные методы повышения точности LLM с использованием существующих архитектур. Bing Chat и Google Bard уже используют веб-поиск для уточнения своих результатов, и ожидается, что версия ChatGPT с поддержкой браузера последует этому примеру. Кроме того, плагины ChatGPT планируют дополнять данные обучения GPT-4 внешними источниками, такими как Интернет и специализированные базы данных. Как отмечает Эдвардс, это отражает повышение точности, которое человек получает от обращения к энциклопедии.

Наконец, Эдвардс предполагает, что модель типа GPT-4 можно обучить распознавать, когда она фабрикует информацию, и соответствующим образом корректировать ее. Это может включать более продвинутое курирование данных и связывание данных обучения с оценками «доверия», похожими на PageRank. Другая возможность — тонкая настройка модели, чтобы она была более осторожной, когда менее уверена в своих ответах.

#Binance #GPT-4 #crypto2023 #keepbuilding #buildtogether