Melnā tirgus tērzēšanas roboti ir kļuvuši par vienu no jaunākajām tendencēm, kas parādās AI nozarē, un plaukst, jo ļaunprātīgi lielo valodu modeļi (LLM) pelna naudu saviem veidotājiem.

Amerikā veikts pētījums atklāja, ka pastāv plaukstošs mākslīgā intelekta melnais tirgus, kurā nereģistrēti LLM veic slepkavības, pārdodot savus pakalpojumus pagrīdē. Reģistrētiem un publiski pieejamiem uzņēmumiem, piemēram, OpenAI, Perplexity un citām lielām korporācijām, kas piedāvā tādus pašus pakalpojumus, ir normatīvās prasības, kuras tie ievēro.

Pazemes LLM var izvairīties no antivīrusiem

Pētījumā, kas galvenokārt koncentrējās uz Malla — ekosistēmu, kas plaukst, izmantojot likumīgas LLM un AI platformas peļņas gūšanai, tika rūpīgi pārbaudīti 212 melnā tirgus LLM, kas no 2023. gada aprīļa līdz oktobrim bija iekļauti pazemes tirgos, novērtējot to īpašības.

Viens no autoriem Zilong Lin no Indiānas universitātes teica:

"Mēs noskaidrojām, ka lielākā daļa mala pakalpojumu pazemes forumos galvenokārt ir paredzēti peļņas gūšanai."

Pētījums arī atklāja, ka dažas platformas divu mēnešu laikā nopelna pat 28 000 USD no abonēšanas un pirkumiem no cilvēkiem, kuri vēlas izvairīties no regulētā AI ierobežojumiem.

Daži, piemēram, DarkGPT un EscapeGPT, ir tikai atbilstoši licencētu LLM atvasinājumi, kas tiek izmantoti likumīgi.

Atsevišķs pētījums arī parādīja, ka šos nelikumīgos LLM var izmantot daudziem uzdevumiem, piemēram, pikšķerēšanas e-pasta ziņojumu izveidei. Piemēram, DarkGPT un EscapeGPT varēja izveidot pareizus kodus gandrīz 75% gadījumu, bet antivīrusi nevarēja izvēlēties šos kodus.

Cits modelis, kas pazīstams kā WolfGPT, tika uzskatīts par pikšķerēšanas e-pastu izveidošanas un surogātpasta detektoru izvairīšanās no “spēka centra”.

Kā norāda Endrjū Hundts, Kārnegi Mello universitātes skaitļošanas inovāciju eksperts, plaukstošajam AI pagrīdes tirgum vajadzētu radīt bažas.

Viņš aicināja ieviest juridisku prasību, kas liek uzņēmumiem, kas attīsta LLM, izveidot spēcīgas sistēmas, kas novērš to, ka cilvēki ar ļauniem motīviem to atkārto.

"Mums ir vajadzīgs arī tiesiskais regulējums, lai nodrošinātu, ka uzņēmumi, kas veido šos modeļus un sniedz pakalpojumus, to dara atbildīgāk, lai mazinātu ļaunprātīgu dalībnieku radītos riskus," sacīja Hunds.

Galvenais ir saprast, kā darbojas melnā tirgus tērzēšanas roboti

Profesors Xiaofeng Wang no Indiānas universitātes, kurš piedalījās pētījumā, teica, ka ir svarīgi saprast, kā darbojas šie melnā tirgus LLM, lai risinājumi būtu specifiski identificētajām problēmām.

Profesors Vans piebilda, ka nevar izvairīties no manipulācijām ar šiem LLM, kas nozarei paver iespējas izstrādāt spēcīgas aizsargmargas, lai samazinātu iespējamo kaitējumu, ko var nodarīt visu veidu kiberuzbrukumi.

"Mēs uzskatām, ka tagad ir labs posms, lai sāktu to pētīt, jo mēs nevēlamies gaidīt, kamēr lielais kaitējums jau ir nodarīts."

Profesors Vans.

Pēc profesora domām, katrai tehnoloģijai, ieskaitot LLM, ir divi veidi: labā un sliktā puse.

Kiberdrošības eksperti jau aicina mākslīgā intelekta nozari piebremzēt sacīkstēs un pārdomāt pieaugošos draudus, ko rada anonīmu interneta kopienu viltojumi viņu tehnoloģijām.

Forbes rakstā, kas publicēts pagājušā gada beigās, teikts, ka ir jāveic atbildīga jaunu ideju ieviešana, īpaši saistībā ar LLM. Tā arī uzsvēra regulējuma lomu atbildīgu AI inovāciju veicināšanā, atšķirībā no maldīgā priekšstata, ka regulējums kavē attīstību.

"Izstrādātājiem un pakalpojumu sniedzējiem ir jāaptur trakas bruņošanās sacensības, kuru mērķis ir izstrādāt arvien sarežģītākus modeļus, un tā vietā viņiem jāsadarbojas ar regulatoriem, lai pieņemtu ietvarus ģeneratīvu AI lietojumprogrammu ētiskai izstrādei un izmantošanai," lasīta ziņojuma daļa. .

Saskaņā ar Fast Company teikto, tagad, kad pastāv normatīvās nepilnības, mākslīgā intelekta melnais tirgus arī strauji kļūst par vairāku miljonu dolāru nozari, un tā ierobežošanai var būt nepieciešami lieli resursi.