Нова хвиля чат-ботів чорного ринку швидко набирає обертів у секторі штучного інтелекту, де шкідливі моделі великих мов (LLM) приносять значні прибутки своїм творцям.
Ці підпільні магістратури, що працюють за межами регульованих компаній штучного інтелекту, таких як OpenAI і Perplexity, знайшли прибутковий ринок, процвітаючи в середовищі, де майже не стикаються з регуляторним наглядом.
Зростання нерегульованих LLM
Американське дослідження нещодавно виявило масштаби чорного ринку штучного інтелекту, де незареєстровані LLM заробляють значні суми, таємно пропонуючи свої послуги. На відміну від зареєстрованих і загальнодоступних платформ штучного інтелекту, які дотримуються суворих нормативних стандартів, ці підпільні LLM працюють без таких обмежень, що дозволяє їм ухилятися від заходів безпеки, зокрема антивірусів. Дослідження було зосереджено на екосистемі Malla, мережі, яка сумно відома використанням легальних LLM, і проаналізувало 212 LLM чорного ринку, розміщених на підпільних ринках у період з квітня по жовтень 2023 року.
Зілонг Лін, дослідник з Університету Індіани та один із авторів дослідження, виявив, що більшість незаконних послуг спрямовані на отримання прибутку. Дослідження підкреслило, що деякі платформи, включно з DarkGPT і EscapeGPT, лише за два місяці заробили 28 000 доларів США від підписок і покупок користувачів, які прагнуть обійти регульовані системи ШІ.
Небезпека шкідливих LLM
Ці LLM чорного ринку викликають фінансове занепокоєння та значну загрозу кібербезпеці. Окреме дослідження показало, що ці незаконні моделі можна використовувати для різних зловмисних дій, таких як створення фішингових електронних листів. Наприклад, виявилося, що DarkGPT і EscapeGPT генерують точний код майже в 75% випадків, а антивіруси не можуть виявити ці коди. Інша модель, WolfGPT, була визначена як потужний інструмент для створення фішингових електронних листів і обходу фільтрів спаму.
Ендрю Хундт, експерт з обчислювальних інновацій в Університеті Карнегі-Меллона, наголосив на необхідності надійної законодавчої бази для запобігання тиражуванню LLM особами зі зловмисними намірами. Хундт закликав до законодавчої вимоги, щоб компанії, що розробляють LLM, запроваджували надійні запобіжні заходи для пом’якшення ризиків, створених цими підпільними моделями.
Розуміння та пом'якшення загрози
Професор Сяофен Ван з Університету Індіани, який також взяв участь у дослідженні, наголосив на важливості розуміння того, як працюють ці магістерські програми чорного ринку для розробки цільових рішень. Ван зазначив, що, хоча маніпуляції з LLM неминучі, слід зосередитися на створенні надійних огорож, щоб мінімізувати потенційну шкоду, заподіяну кібератаками, спричиненими цими моделями.
За словами Вана, вкрай важливо вивчити ці загрози зараз, щоб запобігти значній шкоді в майбутньому. Він підкреслив, що кожен технологічний прогрес, включно з LLM, має позитивні та негативні аспекти, і галузь повинна вживати активних заходів для вирішення темної сторони ШІ.
Експерти з кібербезпеки все частіше закликають індустрію штучного інтелекту зупинитися та замислитися над зростаючими ризиками, пов’язаними з їхніми технологіями. Стаття Forbes, опублікована минулого року, підтвердила ці занепокоєння, виступаючи за відповідальні інновації штучного інтелекту та наголошуючи на ролі регулювання в забезпеченні етичного розвитку магістратури.
Стаття закликала розробників і постачальників штучного інтелекту уповільнити поспіх у створенні дедалі складніших моделей і замість цього співпрацювати з регуляторами, щоб прийняти рамки, які сприяють етичному та відповідальному використанню ШІ. Поява цих чат-ботів на чорному ринку підкреслює нагальну потребу в більш суворому регулюванні та співпраці між галузями для захисту від зловживання технологією ШІ.
Публікація Підйом і зростання чат-ботів чорного ринку вперше з’явилася на Coinfea.