Mākslīgā intelekta nozares galvenie varoņi ir pašmācības mašīnas, taču diskusijas, kas ir saplūdušas par viņu uzvedību, izklausās ļoti cilvēciskas. Tādiem terminiem kā “ētika” un “pārkāpums” ir visas pazīmes, kas raksturīgas agrīnai tiesas prāvai par intelektuālo īpašumu un cilvēces nemitīgajiem centieniem saņemt kredītu tur, kur pienākas kredīts, un, ja tas nav pienācīgi saņemts, kompensāciju.

Tāpēc nav pārsteidzoši, ka, AI revolūcijai uzplaukstot, uzmanības centrā ir tie paši strīdi, kas ir apgrūtinājuši cilvēces progresu kopš interneta pirmsākumiem. Visā pasaulē tiek izskatītas pārbaudes lietas par iespējamiem IP pārkāpumiem, ko izdarījuši nevis cilvēki, bet gan mašīnas, kuras ir apmācītas par datiem, kas iegūti no tīmekļa bez atbilstošas ​​attiecināšanas un licencēšanas. Protams, nav paredzēts, ka mašīnas parādīsies tiesā un aizstāvēsies: uz āķa ir viņu saimnieki.

Tomēr šeit uz spēles ir likts vairāk nekā nauda: AI un ML sistēmu attīstība ir apdraudēta, ja pašreizējais apmācības modelis kļūst neizturīgs. Sajūtot, kādā virzienā pūš vējš, daži mākslīgā intelekta izstrādātāji jau ir sākuši radīt atbilstošākus risinājumus, kas ievēro IP īpašnieku tiesības, un viņi izmanto blokķēdi, lai to veicinātu.

Ētika atbilst AI

Pastāv vairākas ētiskas problēmas saistībā ar intelektuālā īpašuma (IP) pārkāpumiem AI, jo īpaši, ja modeļi tiek apmācīti, izmantojot datus, kas iegūti bez atbilstošas ​​attiecināšanas. Ja AI modeļos tiek izmantoti dati, kas iegūti no tīmekļa bez attiecinājuma, sākotnējie satura veidotāji nesaņem atzinību vai atzinību. Šis atzinības trūkums var būt īpaši problemātisks akadēmiskajā, mākslinieciskajā un radošajās jomās, kur pareiza citēšana ir ļoti svarīga.

Satura veidotāji, piemēram, rakstnieki, mākslinieki un programmatūras izstrādātāji, var zaudēt ieņēmumus, ja viņu darbs tiek izmantots bez atļaujas. Tas var devalvēt viņu darbus un ietekmēt viņu iztiku, jo AI sistēmas atkārto vai pat aizstāj nepieciešamību pēc viņu sākotnējā darba. Autortiesību likums ir sarežģīts — ir iemesls, kāpēc speciālisti to praktizē, taču šķiet, ka pastāv plaša vienprātība, ka pastāv prima facie gadījums, kad AI pārkāpj intelektuālā īpašuma tiesības.

Tomēr no prasītāja viedokļa grūtības ir pierādīt, ka konkrēts ar autortiesībām aizsargāts darbs bija daļa no apmācības datiem. Ir bijuši daži izņēmumi — Getty Images savu ūdenszīmi atrada uz attēliem, kas ģenerēti ar Stable Diffusion —, taču bieži vien nav smēķēšanas pistoles. Tas viss atstāj AI izstrādātājus aizdomu mākonī, lai gan viņi, iespējams, nav izdarījuši nekādus autortiesību pārkāpumus.

Tas ir skaidrs: pirms IP pārkāpumu debates tā vai citādi tiek noskaidrotas, pastāv risks, ka AI inovācijas palēnināsies un nozare iestrēgs vairāku gadu tiesas prāvās. Atliek tikai aplūkot Napster tiesas prāvu par digitālo mūziku, lai redzētu pagātnes atbalsis — ieilgušo cīņu, kas interneta multivides pieejamību iecēla daudzus gadus atpakaļ. Tātad, kāds ir risinājums notiekošajām AI ētikas debatēm?

Mākslīgā intelekta attiecinājums

Ņemot vērā, ka ar autortiesībām aizsargāta materiāla izmantošanai bez atļaujas ir juridiskas sekas, kas var izraisīt tiesas prāvas, naudas sodus un citus sodus, uzņēmumiem, kas izstrādā AI modeļus, ir jāievēro intelektuālā īpašuma tiesību akti, lai izvairītos no šādām sekām. Bet kā? Neatkarīgi no tā, ko tiesas lemj pašlaik notiekošo pārkāpumu lietu pārpilnībā, ir skaidrs, ka "netīrajiem modeļiem", kas līdz šim tika izmantoti nozares aktivizēšanai, ir ierobežots kalpošanas laiks. 

Viena lieta noteikti ir tāda, ka risinājums nav AI modeļiem ievadītās datu kopas lieluma samazināšana: to pastāvēšana ir saistīta ar saņemto datu daudzumu un kvalitāti. Taču risinājums šai mīklai ir radies nozarē, kas tagad darbojas paralēli parastajai AI nozarei: blokķēde. Ar blokķēdi darbināmā mākslīgā intelekta pasaulē tirgi, kuru centrā ir modeļu, datu kopu un to apstrādei nepieciešamo aprēķinu nodrošināšana, darbojas decentralizētos tīklos.

Blockchain tehnoloģiju uzņēmums droppGroup ir droppLink risinājuma izstrādātājs, kas atbalsta ētisku AI un atbildīgu modeļu izstrādi. droppLink ļauj “netīrajiem modeļiem” kļūt tīriem, izmantojot tokenizāciju. Tas nodrošina sistēmu, lai izsekotu un izsekotu modeļa darbību. Tas arī nodrošina mehānismu IP īpašniekiem, lai piedāvātu savu IP AI uzņēmumiem saskaņā ar īpašiem komerciāliem noteikumiem, kas tiek īstenoti, izmantojot viedos līgumus.

Kā liecina Mishcon de Reya ģeneratīvais mākslīgā intelekta gadījumu izsekotājs, ASV tiek izskatītas daudzas autortiesību pārkāpumu lietas saistībā ar apmācības datiem. Šī ir problēma, kas noteikti nepazudīs, ja vien AI izstrādātāji nevar pierādīt, ka viņu modeļi izmanto datus, kas ir vai nu bez komerciāla IP, vai arī ir pilnībā samaksājuši par IP, ko tie izmanto, pilnībā attiecinot to.

Labāks piedāvājums ikvienam?

Ja AI ētikas debates izšķirsies par labu prasītājiem, kuri apgalvo, ka ir pārkāptas autortiesības, tas var izrādīties par svētību mākslīgā intelekta nozarei. No tīmekļa iegūto datu kvalitāte var ievērojami atšķirties, un tie var radīt novirzes AI modeļos. Izmantojot augstas kvalitātes, atlasītas datu kopas ar pareizu attiecinājumu, var nodrošināt lielāku AI sistēmu uzticamību.

Ietvaru izstrāde, kas ļauj ieviest jauninājumus, vienlaikus aizsargājot IP, var radīt taisnīgāku un ilgtspējīgāku AI ekosistēmu. Šo problēmu risināšanai ir nepieciešams stingru tiesisko regulējumu, ētikas vadlīniju un tehnoloģisku risinājumu kombinācija, lai nodrošinātu, ka mākslīgā intelekta attīstībā tiek ievērotas intelektuālā īpašuma tiesības un tiek veicināta godīga un novatoriska vide.

Lai gan blokķēde nevar novērst visu, kas pašreizējā AI nozarē ir nepareizs, marķieru izmantošana ir nepārprotami noderīga, lai automatizētu maksājumu plūsmas un nodrošinātu pilnīgu attiecinājumu. Ja šī sistēma tiks pieņemta plašā mērogā, tā nodrošinās, ka intelektuālā īpašuma īpašnieki saņem taisnīgu atlīdzību, vienlaikus ļaujot attīstīties AI inovācijām.