Была представлена ​​новая модель чат-бота с искусственным интеллектом под названием «Reflection 70B», которая обещает решить проблему, от которой страдают многие модели искусственного интеллекта: галлюцинации.

Настройка отражения: учимся на ошибках

Модель была обучена с использованием «настройки отражения» — метода, который позволяет ИИ учиться на своих ошибках и исправлять их.

Мэтт Шумер, генеральный директор HyperWrite AI, называет Reflection 70B «лучшей в мире моделью с открытым исходным кодом». Он был разработан на основе Llama 3.1, модели искусственного интеллекта с открытым исходным кодом от Meta, и, как говорят, способен конкурировать в нескольких тестах с закрытыми моделями, такими как Claude 3.5 Sonnet от Anthropic и GPT-4o от OpenAI.

Галлюцинации: проблема для моделей ИИ

Галлюцинации ИИ возникают, когда чат-бот ИИ воспринимает закономерности или объекты, которые не существуют или незаметны для наблюдателей-людей. Это приводит к неправильному выводу.

Настройка отражения направлена ​​на решение этой проблемы, позволяя ИИ распознавать и исправлять свои собственные ошибки, прежде чем дать ответ.

Как работает настройка отражения?

ИИ анализирует собственные расходы и учится на этом. Он определяет сильные и слабые стороны и области, которые можно улучшить. Этот процесс повторяется, позволяя ИИ постоянно совершенствовать свои возможности и лучше осознавать свои расходы.

Подход OpenAI к борьбе с галлюцинациями

OpenAI при поддержке Microsoft в 2023 году опубликовала исследовательскую работу, в которой представлены идеи по предотвращению галлюцинаций ИИ.

Одна из идей — «мониторинг процессов», когда модели ИИ вознаграждаются за каждый правильный шаг рассуждения при получении ответа, а не просто за правильный вывод.

«Обнаружение и смягчение логических ошибок или галлюцинаций модели является важным шагом на пути к разработке согласованного AGI [искусственного общего интеллекта]», — сказал CNBC Карл Коббе, исследователь из OpenAI.

Размышления 70B: многообещающий подход

«Reflection 70B» может стать важным шагом на пути к более надежным и точным моделям искусственного интеллекта. Способность учиться на ошибках имеет решающее значение для разработки систем искусственного интеллекта, которые могут действительно принести пользу людям.

#Reflection70B #News #Haberler #Noticias #Nachrichten