Волна популярности ИИ захлестнула как тех, у кого благие намерения, так и тех, у кого намерения могут быть более зловещими. Специалисты по безопасности бьют тревогу, отмечая, что использование таких моделей — генерации вредоносного текста или «хакер-ботов» — сейчас широко распространено среди злоумышленников. Он достиг уровня услуги «под ключ» в сфере услуг по подписке.

Киберпреступники используют инструменты искусственного интеллекта

С одной стороны, эксперты по кибербезопасности быстро осознали потенциал инструментов с поддержкой искусственного интеллекта для лучшей защиты своих систем. Злоумышленники также продемонстрировали такое же стремление использовать эти технологии, чтобы воспользоваться бреши в безопасности, оставленные теми, кого они атакуют. За последние несколько лет наблюдался экспоненциальный рост числа приложений ИИ, используемых злоумышленниками, что привлекло внимание групп безопасности к достаточному подходу к устранению угроз, связанных с ИИ.

С другой стороны, британские специалисты по кибербезопасности также указали на ИИ как на возникающий новый риск, влекущий за собой неизведанные воды и его постоянно меняющуюся природу. NCSC прогнозирует, что первый квартал 2024 года станет самым масштабным и успешно побьет рекорды 2022 и 2023 годов. Умные преступники также использовали языковые модели для социальной инженерии, которые призывали размещать знаменитостей в видео- или аудиосетях с использованием фишинговых схем. или устройства распознавания голоса. Васкут Яккал, вице-президент по безопасности корпорации Microsoft, присутствовал на конференции RSA 2024. Проблема не в ухудшении качества этих инструментов, а в их растущей доступности для взлома паролей, что в 10 раз связано с ростом числа случаев, связанных с использованием личных данных. атаки.

Некоторые эксперты также пришли к выводу, что чат-боты используют уникальную фразу для активной разработки вредоносного ПО. Действительно, общедоступные сервисы, такие как ChatGPT и Gemini, внедрили меры безопасности, предотвращающие их неправомерное использование в злонамеренных целях. Однако хакерам удалось обойти многие средства защиты с помощью сложных и быстрых инженерных методов.

Хакбот как услуга: растущая тенденция киберпреступности

Согласно недавним исследованиям, общедоступные языковые модели обычно не позволяют злоупотреблять слабыми местами безопасности программного обеспечения. Однако только GPT-4 от OpenAI показал многообещающие возможности, поскольку он мог создавать исполняемые файлы с известными недостатками. Вышеупомянутые ограничения, вероятно, способствовали созданию прототипов вредоносных чат-ботов, предназначенных для помощи преступникам, совершившим киберпреступления, в осуществлении их вредоносной деятельности. 

Их рекламируют на форумах и торговых площадках даркнета, которые дают возможность нанимать и использовать злоумышленников, подпитывая модель хакбота как услуги. Одна из недавних публикаций в блоге, опубликованная командой Trustwave SpiderLabs в августе 2023 года, иллюстрирует рост количества моделей вредоносного языка, размещаемых на нескольких скрытых досках объявлений в Интернете с целью получения прибыли.

В июне 2021 года Trustwave опубликовала модель WormGPT, одну из известных моделей вредоносного языка этих хакеров. Такой подход может применяться в оборудовании, где боты осуществляют кибератаки хакерских структур, размещенных в даркнете. Созданный в июле 2023 года, FraudGPT был впервые обнаружен исследователями угроз в Netenrich еще до того, как он попал в Telegram.

Эти инструменты позволяют злоумышленникам создавать ресурсы, используемые в атаках социальной инженерии, таких как фишинговые электронные письма, дипфейки и клонирование голоса. Однако их создатели утверждают, что их реальная ценность заключается в эксплуатации уязвимостей. Они позволяют хакерам вводить код конкретных уязвимостей в эти вредоносные модели, что теоретически может создать несколько эксплойтов для проверки концепции (PoC), которые злоумышленник может попробовать.

Эти продукты продаются на тайных рынках даркнета, где с хакеров взимается ежемесячная лицензионная плата за использование хак-бота, точно так же, как программы-вымогатели поставляются по модели «вымогатели как услуга» (raas), которая напрямую связана с комплекс программ-вымогателей, с которым сегодня сталкиваются многие компании.

Хотя WormGPT является первой крупномасштабной вредоносной языковой моделью, вскоре за ней последовали и другие вредоносные и неэтичные языковые модели, такие как BlackHatGPT, XXXGPT и WolfGPT, сформировав новый сегмент киберчерного рынка.

Эффективность хакботов: шумиха или реальная угроза?

В отличие от исследования, проведенного Trustwave, которое было проведено для проверки эффективности рекомендуемых инструментов путем сравнения их результатов друг с другом с результатами, генерируемыми законными чат-ботами, результаты показали, что ChatGPT можно эффективно использовать для создания некоторых вредоносных программ Python с помощью правильные подсказки. Для этого перед развертыванием необходимо было отправить сообщение о том, что код является «белым», а выходные данные кода также нуждались в дополнительных модификациях.

ChatGPT может передавать настоящие текстовые сообщения для фишинговых атак, но для этого инструктирующая команда должна быть очень специфичной. ChatGPT обычно будет основываться на этом только тогда, когда пользователи запрашивают что-то неправильно. В связи с этим эти чат-боты можно рассматривать как более простой метод для киберпреступников или искусственного интеллекта атаковать переписки вместо утомительной работы по созданию страницы или вредоносного ПО.

Хотя эта отрасль является новой, а угрозы все еще меняются, компании должны по-настоящему осознавать свой текущий уровень защиты. Содержанием и культурными характеристиками, которыми наполнены системы ИИ, можно злоупотреблять, чтобы создать пробел в дезинформации, который можно преодолеть только путем создания более сильных программ безопасности ИИ и инструментов управления идентификацией.

Законность решения растущей проблемы все еще обсуждается. Тем не менее, недавние версии программ-вымогателей показали, что киберпреступники могут соответствовать, если не превосходить, темпам развития разработчиков программного обеспечения.