Tuvākajā nākotnē ģeneratīvo AI lietotņu lietotāji varētu atrast etiķetes, kurās skaidri norādīts, kā AI būtu jāizmanto, ar to saistītie riski un testēšanas process. Ievērojot jaunās vadlīnijas, etiķetes būs obligātas, lai padarītu tehnoloģiju vieglāk saprotamu masām.

Lasiet arī: Eiropas Savienība (ES) uzņemas vadību AI regulējumā

Singapūras komunikāciju un informācijas ministre Džozefīne Teo sacīja, ka jaunais pasākums ir mēģinājums definēt pārredzamības un testēšanas standartu tehnoloģiju uzņēmumiem. Saskaņā ar Strait Times ziņojumu viņa uzstājās Personas datu aizsardzības tehnoloģiju konferencē 15. jūlijā. 

AI lietotņu izstrādātājiem ir jābūt pārredzamiem par saviem jauninājumiem

Tāpat kā praksē, kā medikamentiem vai sadzīves tehnikai ir drošības etiķetes, tādā pašā praksē ģeneratīvo AI lietotņu izstrādātājiem ir skaidri jāinformē lietotāji par AI modeļa izmantošanu un attīstību. Teo kundze, kas ir arī atbildīgā ministre par viedās valsts un kiberdrošības iniciatīvu, sacīja:

"Mēs ieteiksim izstrādātājiem un izplatītājiem būt pārredzamiem lietotājiem, sniedzot informāciju par to, kā darbojas ģeneratīvie AI modeļi un lietotnes."

Skaidrojot gaidāmos noteikumus, ministrs sacīja, ka tie ir tādi paši kā tad, kad lietotājs atver "bezrecepšu medikamentu kastīti". Viņi atrod papīra lapu, kurā skaidri norādīts, kā zāles jālieto, un iespējamās “blakusparādības, ar kurām jūs varat saskarties”.

Teo apgalvoja, ka “šāds pārredzamības līmenis” ir vajadzīgs AI sistēmām, kas ir balstītas uz vienu ģeneratīvu mākslīgo intelektu. Jaunais noteikumu kopums definēs drošības kritērijus, kas būtu jāpraktizē, pirms AI modelis tiek darīts pieejams sabiedrībai. 

Rokasgrāmata par datu anonimizāciju, kas tiks izdota 2025. gadā

Ģeneratīvais mākslīgais intelekts ir AI žanrs, kas spēj ģenerēt jaunu tekstu un attēlus un nav tik paredzams kā tradicionālais AI. Saskaņā ar jaunajām vadlīnijām satura veidotājiem saturā būs jānorāda melu, naidīgu komentāru un neobjektīvu stāstījumu izplatīšanas risks.

Teo sacīja, ka sadzīves tehnikai ir uzlīmes, kas skaidri norāda, ka prece tiek pārbaudīta, lai nodrošinātu drošu lietošanu; pretējā gadījumā klients nezinās, vai ierīce ir droša vai nē. Tas pats tiks praktizēts AI lietojumprogrammām. Singapūras Infokomunikāciju mediju attīstības iestāde (IMDA) sāks konsultācijas ar nozari par jaunajiem noteikumiem. Tomēr Teo neminēja vadlīniju datumu.

IMDA ir arī publicējusi rokasgrāmatu par tehnoloģiju jautājumiem, kas saistīti ar privātumu, kas apmierinās pieaugošo pieprasījumu pēc datiem, lai apmācītu AI modeļus, vienlaikus aizsargājot lietotāju privātumu, sacīja Teo.

Lasiet arī: Demokrātu apaļais galds, lai uzņemtu Marku Kubanu un Bredu Gārlinghausu, lai apspriestu kriptogrāfijas noteikumus

IMDA izpilddirektora asistente Denīze Vonga sacīja: Datu drošības saglabāšana ģeneratīvajā AI nozarē ir grūtāks uzdevums. Viņa pauda savus uzskatus atsevišķā paneļdiskusijā par AI un datu privātumu pasākuma laikā. Grupā piedalījās pārstāvji no dažādām tehnoloģiju firmām, tostarp ChatGPT veidotājs OpenAI un konsultāciju uzņēmums Accenture. 

Datu aizsardzības margām jābūt ieviestām visos AI izstrādes un ieviešanas posmos, sacīja OpenAI privātuma juridiskā vadītāja Džesika Gan Lī. Viņa teica, ka AI modeļiem jābūt apmācītiem par dažādām datu kopām no "visām pasaules malām". Lī uzsvēra, ka mākslīgā intelekta apmācībā ir jāiekļauj vairākas kultūras, valodas un avoti, kā arī jāatrod veidi, kā ierobežot personas datu apstrādi.

Teo sacīja, ka 2025. gada sākumā uzņēmumiem, kas darbojas ASEAN, tiks ieviests ceļvedis par datu anonimizāciju. Rokasgrāmata taps februārī notikušajā reģionālo amatpersonu sanāksmē, kas pētīja veidus, kā izveidot drošu globālu digitālo ekosistēmu.