Pētnieki piespieda ChatGPT citēt datus, no kuriem tā mācījās

Zinātniskajā rakstā “Mērogojama apmācības datu iegūšana no (ražošanas) valodas modeļiem” (arXiv:2311.17035) analizēta apmācības datu kopas datu iegūšana no dažādiem valodu modeļiem. Pētnieki pārbaudīja gan vietējos modeļus, gan komerciālo risinājumu no OpenAI. Tika izmantots izlīdzināšanas uzbrukums, lai piespiestu ChatGPT citēt datus, uz kuriem GPT-3.5 tika apmācīts.

Lai izveidotu jaunu, unikālu saturu, ģeneratīvie neironu tīklu modeļi tiek apmācīti uz lielu datu apjomu. Apmācības procesā modeļi “atceras” piemērus no apmācību datu kopām. Uzbrucējs var iegūt šos piemērus no modeļa.

Iepriekšējā rindkopā minētie apgalvojumi nav tikai spekulācijas: tie ir labi pārbaudīti praksē. Tas ir pierādīts, piemēram, difūzijas modeļiem (arXiv:2301.13188).

Lielie valodu modeļi (LLM) uz transformatoriem arī ir jutīgi pret to. Pētījumi par šo tēmu lasītāju parasti biedē ar privātu datu iegūšanas draudiem (arXiv:2202.05520, arXiv:1802.08232). Patiešām, 2021. gada darbā “Apmācību datu iegūšana no lieliem valodu modeļiem” (arXiv:2012.07805) no GPT-2 tika “izvilkti” vārdi, tālruņu numuri, e-pasta adreses un dažreiz pat tērzēšanas ziņojumi.

Citi zinātniskie darbi novērtē atmiņas apjomu. Tiek apgalvots, ka daži BYM saglabā vismaz procentuālo daļu no apmācības datu kopas (arXiv:2202.07646). No otras puses, tas ir augšējās robežas aprēķins, nevis mēģinājums norādīt praktiski iegūstamo apmācību datu kopas datu apjomu.

Jaunā zinātniskā raksta “Mērogojama apmācības datu iegūšana no (ražošanas) valodas modeļiem” (arXiv:2311.17035 ) autori mēģināja apvienot šīs pieejas: ne tikai parādīt šādu uzbrukumu BYM, bet arī novērtēt datu apjomu. ko var izvilkt. Metodoloģija ir mērogojama: tā atklāj “atmiņas” triljoniem marķieru modeļos un terabaitu apmācības datu kopās.

#GPT-4 #GPT4 #BinanceTournament #Airdrop #elonMusk

$BNB $XRP $SOL