V blízké budoucnosti mohou uživatelé generativních aplikací umělé inteligence najít štítky, které jasně popisují, jak by měla být umělá inteligence využívána, související rizika a proces testování. Podle nových pokynů budou štítky povinné, aby byla technologie snazší pro masy pochopit.

Čtěte také: Evropská unie (EU) se ujímá vedení v regulaci AI

Singapurská ministryně komunikací a informací, paní Josephine Teo, uvedla, že nové opatření je snahou definovat standard transparentnosti a testování pro technologické firmy. Podle zprávy Strait Times hovořila na technologické konferenci o ochraně osobních údajů 15. července. 

Vývojáři aplikací AI by měli být transparentní ohledně svých inovací

Stejně jako praxe toho, jak léky nebo domácí spotřebiče nesou bezpečnostní štítky, ve stejné praxi musí mít vývojáři generativních aplikací AI jasno v informování uživatelů o používání a vývoji modelu AI. Paní Teo, která je také ministryní odpovědnou za iniciativu Smart Nation a kybernetická bezpečnost, řekla:

„Doporučujeme, aby vývojáři a implementátoři byli vůči uživatelům transparentní a poskytovali jim informace o tom, jak fungují generativní modely a aplikace umělé inteligence.“

Při vysvětlování nadcházejících pravidel ministr řekl, že jsou stejná, jako když uživatel otevře „krabičku volně prodejných léků“. Najdou list papíru, který jasně uvádí, jak by se měl lék používat, a možné „nežádoucí účinky, se kterými se můžete setkat“.

Teo tvrdil, že „tato úroveň transparentnosti“ je potřebná pro systémy AI, které jsou postaveny na jedné generativní umělé inteligenci. Nový soubor pravidel bude definovat bezpečnostní standardy, které by měly být praktikovány předtím, než bude model umělé inteligence zpřístupněn veřejnosti. 

Průvodce pro anonymizaci dat bude vydán v roce 2025

Generativní umělá inteligence je žánr AI, který je schopen generovat nový text a obrázky a není tak předvídatelný jako tradiční AI. Podle nových pokynů budou tvůrci povinni v obsahu zmiňovat rizika šíření lží, nepřátelských komentářů a neobjektivních narativů.

Teo řekl, že domácí spotřebiče se dodávají se štítky, které jasně říkají, že předmět je testován na bezpečné použití; v opačném případě zákazník nebude vědět, zda je spotřebič bezpečný nebo ne. Totéž bude praktikováno pro aplikace AI. Singapurský úřad Infocomm Media Development Authority (IMDA) zahájí konzultace s průmyslem o nových pravidlech. Nicméně, Teo nezmínil datum pro pokyny.

IMDA také zveřejnila příručku o problémech souvisejících s ochranou soukromí v technologii, která uspokojí rostoucí poptávku po datech pro trénování modelů AI a zároveň chrání soukromí uživatelů, řekl Teo.

Čtěte také: Demokratický kulatý stůl bude hostit Marka Cubana a Brada Garlinghouse, aby diskutovali o regulacích kryptoměn

Denise Wong, asistentka generálního ředitele IMDA, řekla: Udržování bezpečnosti dat v generativní umělé inteligenci je pro toto odvětví náročnější. Své názory přednesla v samostatné panelové diskusi o umělé inteligenci a ochraně osobních údajů během akce. Součástí panelu byli zástupci různých technologických firem, včetně výrobce ChatGPT OpenAI a poradenské firmy Accenture. 

Ve všech fázích vývoje a zavádění umělé inteligence by měly být k dispozici zábradlí na ochranu dat, řekla právní šéfka OpenAI pro ochranu soukromí Jessica Gan Lee. Řekla, že modely umělé inteligence by měly být trénovány na různých souborech dat ze „všech koutů světa“. Lee zdůraznil, že do školení AI by mělo být zahrnuto několik kultur, jazyků a zdrojů spolu s hledáním způsobů, jak omezit zpracování osobních údajů.

Teo řekl, že průvodce o anonymizaci dat bude pro společnosti působící v ASEAN představen na začátku roku 2025. Průvodce bude výsledkem únorového setkání regionálních úředníků, kteří zkoumali způsoby, jak vytvořit bezpečný globální digitální ekosystém.