Чат-боти чорного ринку стали однією з останніх тенденцій, що з’явилися в секторі ШІ, і процвітають, оскільки шкідливі моделі великих мов (LLM) заробляють гроші для своїх творців.
Американське дослідження показало, що існує процвітаючий чорний ринок штучного інтелекту, де незареєстровані LLM заробляють убивцями, продаючи свої послуги підпільно. Зареєстровані та публічні компанії, такі як OpenAI, Perplexity та інші великі корпорації, що пропонують ті самі послуги, мають нормативні приписи, яких вони дотримуються.
Підпільні LLM можуть ухилятися від антивірусів
У дослідженні, яке зосереджувалося головним чином на Malla, екосистемі, яка процвітає на приниженні легальних LLM і платформ штучного інтелекту заради отримання прибутку, було ретельно вивчено 212 LLM чорного ринку, розміщених на підпільних ринках у період з квітня по жовтень 2023 року, оцінюючи їхні характеристики.
Один з авторів, Зілонг Лін з Університету Індіани, сказав:
«Ми з’ясували, що більшість послуг mala на підпільних форумах існують переважно для отримання прибутку».
Дослідження також показало, що деякі платформи за два місяці заробляють до 28 000 доларів США на підписках і покупках від людей, які хочуть вирватися з рамок регульованого ШІ.
Деякі з них, як-от DarkGPT і EscapeGPT, є лише похідними від належним чином ліцензованих LLM, які використовуються легально.
Окреме дослідження також показало, що ці незаконні LLM можна використовувати для багатьох завдань, наприклад для створення фішингових електронних листів. Наприклад, DarkGPT і EscapeGPT могли створювати правильні коди майже в 75% випадків, але антивіруси не могли вибрати ці коди.
Інша модель, відома як WolfGPT, розглядалася як «електростанція» для створення фішингових електронних листів і уникнення детекторів спаму.
За словами Ендрю Хундта, експерта з обчислювальних інновацій в Університеті Карнегі-Мелло, бурхливий підпільний ринок ШІ повинен викликати занепокоєння.
Він закликав до законодавчої вимоги, яка зобов’язує компанії, що розробляють LLM, мати надійні системи, які запобігають тиражуванню людьми зі зловісними мотивами.
«Нам також потрібні законодавчі рамки, щоб гарантувати, що компанії, які створюють ці моделі та надають послуги, роблять це більш відповідально таким чином, щоб зменшити ризики, створені зловмисниками», — сказав Хундт.
Ключовим є розуміння того, як працюють чат-боти чорного ринку
Професор Сяофен Ван з Університету Індіани, який брав участь у дослідженні, сказав, що важливо розуміти, як працюють ці магістерські програми чорного ринку, щоб рішення були специфічними для виявлених проблем.
Професор Ван додав, що неможливо уникнути маніпуляцій з цими LLM, що дає сектору можливість створити надійні запобіжні засоби для мінімізації потенційної шкоди, завданої кібератаками в усіх їх формах.
«Ми вважаємо, що зараз хороший етап для того, щоб почати їх вивчення, тому що ми не хочемо чекати, поки велика шкода вже буде завдана».
Професор Ван.
За словами професора, будь-яка технологія, в тому числі LLM, має дві сторони: хорошу і погану.
Експерти з кібербезпеки вже закликають індустрію штучного інтелекту сповільнити свою гонку та подумати про зростаючу небезпеку фальсифікації їхніх технологій анонімними інтернет-спільнотами.
У статті Forbes, опублікованій наприкінці минулого року, йдеться про те, що необхідно відповідально впроваджувати нові ідеї, особливо навколо LLM. Він також наголосив на ролі регулювання у сприянні відповідальним інноваціям штучного інтелекту на відміну від помилкового уявлення про те, що регулювання гальмує розвиток.
«Розробникам і постачальникам магістерських програм необхідно призупинити шалену гонку озброєнь, яка має на меті створення все більш складних моделей, і натомість вони повинні працювати з регуляторами над прийняттям основ для етичного дизайну та використання генеративних програм ШІ», — йдеться у частині звіту. .
Тепер, через лазівки в законодавстві, чорний ринок штучного інтелекту також швидко перетворюється на багатомільйонну індустрію, для її стримування може знадобитися значні ресурси, повідомляє Fast Company.