22 ноября в 11:00 по тайбейскому времени основатель Slow Mist Юй Сян опубликовал в своем личном X странный случай — кошелек одного пользователя был «сбит» AI...
Источник изображения: X
Ситуация по данному делу следующая.
Сегодня рано утром пользователь X r_ocky.eth раскрыл, что ранее надеялся использовать ChatGPT для создания вспомогательного торгового бота pump.fun.
r_ocky.eth озвучил свои требования ChatGPT, который вернул ему код, который действительно мог помочь r_ocky.eth развернуть бота, соответствующего его требованиям, но он никогда не ожидал, что в коде будет скрыт фишинговый контент — r_ocky.eth связал свой основной кошелек и в результате потерял 2500 долларов.
Источник изображения: Odaily 星球日报
Судя по скриншоту, опубликованному r_ocky.eth, код, предоставленный ChatGPT, отправляет адрес частного ключа на фишинговый API-сайт, что и стало прямой причиной кражи.
Когда r_ocky.eth попал в ловушку, нападающие отреагировали очень быстро, за полчаса переведя все активы из кошелька r_ocky.eth на другой адрес.
FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX
Затем r_ocky.eth с помощью ончейн-трекинга нашел адрес, предположительно принадлежащий кошельку атакующего.
2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC
Источник изображения: Odaily 星球日报
Ончейн-информация показывает, что на данный момент на этом адресе собрано более 100 тысяч долларов «краденых средств», что заставляет r_ocky.eth подозревать, что подобные атаки могут быть не единичными, а представлять собой масштабное событие.
После инцидента r_ocky.eth с сожалением заявил, что потерял доверие к OpenAI (компания-разработчик ChatGPT) и призвал OpenAI как можно скорее заняться очисткой аномального фишингового контента.
Так почему же ChatGPT, как одно из самых популярных AI-приложений, предоставил фишинговый контент?
В связи с этим, Юй Сян определил основную причину инцидента как «атаку отравления AI» и указал на наличие универсальных обманов в таких LLM, как ChatGPT и Claude.
Термин «атака отравления AI» относится к намеренному разрушению данных для обучения AI или манипуляции алгоритмами AI. Нападающими могут быть как внутренние лица, например, недовольные действующие или бывшие сотрудники, так и внешние хакеры, чьи мотивы могут включать нанесение ущерба репутации и бренду, подрыв доверия к решениям AI, замедление или разрушение процессов AI и т. д. Атакующие могут внедрять данные с вводящими в заблуждение метками или характеристиками, искажая процесс обучения модели, что приводит к ошибочным результатам при развертывании и эксплуатации модели.
На основе этого инцидента, ChatGPT, вероятно, предоставил r_ocky.eth фишинговый код, потому что AI-модель во время обучения была загрязнена данными, содержащими фишинговый контент, но AI, похоже, не смог распознать скрытый под обычными данными фишинговый контент и после этого предоставил его пользователям, что и привело к этому инциденту.
С быстрым развитием и широким применением AI угроза «атак отравления» стала все более актуальной. В этом инциденте, хотя абсолютная сумма потерь не велика, последствия таких рисков достаточно серьезны — предположим, такие события происходят в других отраслях, например, в AI-помощи вождения...
Источник изображения: Odaily 星球日报
Отвечая на вопросы пользователей, Юй Сян упомянул о потенциальной мере для избежания таких рисков, а именно о добавлении ChatGPT некоторого механизма проверки кода.
Пострадавший r_ocky.eth также заявил, что связался с OpenAI по этому вопросу, хотя пока не получил ответа, но надеется, что этот случай станет поводом для OpenAI обратить внимание на такие риски и предложить потенциальные решения.
【Отказ от ответственности】На рынке существуют риски, инвестиции требуют осторожности. Эта статья не является инвестиционной рекомендацией, пользователи должны учитывать, соответствуют ли любые мнения, взгляды или выводы, изложенные в данной статье, их конкретным обстоятельствам. Инвестируя на основе этого, вы берете на себя ответственность.
Эта статья опубликована с разрешения: (Shenchao TechFlow)
Автор оригинала: Azuma, Odaily 星球日报
«Никогда бы не подумал! У пользователя криптокошелек был похищен AI, как произошел этот странный хакерский случай?» Эта статья впервые была опубликована в «Крипто-городе».