Расследование The Guardian выявило потенциальные уязвимости безопасности в поисковом инструменте OpenAI ChatGPT, подчеркнув опасения относительно его подверженности манипуляциям через скрытый контент на веб-страницах. Результаты показывают, что ChatGPT может подвергаться влиянию сторонних инструкций, встроенных в скрытый текст, что может привести к созданию предвзятых или вводящих в заблуждение сводок.

Тесты, проведенные The Guardian, показали, что даже если веб-страницы содержали негативные комментарии, скрытые инструкции могли заставить ChatGPT возвращать необоснованные положительные отзывы. Джейкоб Ларсен, эксперт по кибербезопасности в CyberCX, предупредил, что текущее состояние инструмента может позволить злоумышленникам разрабатывать веб-сайты, нацеленные на обман пользователей, что создает значительные риски.

По мере роста опасений эксперты подчеркивают необходимость надежных мер безопасности для устранения этих уязвимостей до более широкого развертывания инструмента. OpenAI пока не прокомментировала потенциальные меры по снижению этих рисков.