W niedalekiej przyszłości użytkownicy generatywnych aplikacji AI mogą znaleźć etykiety jasno określające, w jaki sposób należy wykorzystywać sztuczną inteligencję, związane z nią ryzyko i proces testowania. Zgodnie z nowymi wytycznymi etykiety staną się obowiązkowe, aby ułatwić zrozumienie technologii masom.

Przeczytaj także: Unia Europejska (UE) przejmuje inicjatywę w zakresie regulacji dotyczących sztucznej inteligencji

Minister komunikacji i informacji Singapuru Josephine Teo stwierdziła, że ​​nowe rozwiązanie stanowi próbę zdefiniowania standardów przejrzystości i testowania dla firm technologicznych. Jak wynika z raportu Strait Times, 15 lipca przemawiała na konferencji poświęconej technologii ochrony danych osobowych. 

Twórcy aplikacji AI powinni zachować przejrzystość w zakresie swoich innowacji

Podobnie jak w przypadku leków i sprzętu AGD opatrzonych etykietami bezpieczeństwa, twórcy aplikacji generatywnych AI muszą jasno informować użytkowników o wykorzystaniu i rozwoju modelu AI. Pani Teo, która jest także ministrem odpowiedzialnym za inicjatywę Smart Nation i Cyberbezpieczeństwo, powiedziała:

„Będziemy zalecać programistom i wdrożeniowcom zachowanie przejrzystości wobec użytkowników, dostarczając informacji o tym, jak działają generatywne modele i aplikacje AI”.

Wyjaśniając nadchodzące zasady, minister powiedział, że są one takie same, jak w przypadku otwierania przez użytkownika „pudełka z lekami dostępnymi bez recepty”. Znajdują kartkę papieru, która jasno określa, w jaki sposób należy stosować lek i jakie mogą być „skutki uboczne, jakie mogą wystąpić”.

Teo stwierdził, że „ten poziom przejrzystości” jest potrzebny w przypadku systemów AI zbudowanych na jednej generatywnej sztucznej inteligencji. Nowy zestaw przepisów określi standardy bezpieczeństwa, które należy zastosować przed publicznym udostępnieniem modelu sztucznej inteligencji. 

Przewodnik dotyczący anonimizacji danych ma zostać wydany w 2025 r

Generatywna sztuczna inteligencja to gatunek sztucznej inteligencji, który potrafi generować nowy tekst i obrazy i nie jest tak przewidywalny jak tradycyjna sztuczna inteligencja. Zgodnie z nowymi wytycznymi twórcy będą musieli wspomnieć o ryzyku rozpowszechniania w treściach kłamstw, wrogich komentarzy i stronniczych narracji.

Teo powiedział, że urządzenia gospodarstwa domowego są dostarczane z etykietami, które wyraźnie mówią, że dany przedmiot jest testowany pod kątem bezpiecznego użytkowania; w przeciwnym razie klient nie będzie wiedział, czy urządzenie jest bezpieczne, czy nie. To samo będzie praktykowane w przypadku zastosowań AI. Singapurski Urząd ds. Rozwoju Mediów Infocomm (IMDA) rozpocznie konsultacje z branżą w sprawie nowych przepisów. Teo nie podał jednak daty opracowania wytycznych.

IMDA opublikowała także przewodnik na temat zagadnień związanych z prywatnością w technologii, który zaspokoi rosnące zapotrzebowanie na dane do uczenia modeli sztucznej inteligencji, chroniąc jednocześnie prywatność użytkowników, powiedział Teo.

Przeczytaj także: Okrągły stół Demokratów, w którym wystąpią Mark Cuban i Brad Garlinghouse w celu omówienia przepisów dotyczących kryptowalut

Zastępca dyrektora generalnego IMDA, Denise Wong, powiedziała: Zapewnienie bezpieczeństwa danych w generatywnej sztucznej inteligencji stanowi dla branży większe wyzwanie. Podczas wydarzenia dzieliła się swoimi poglądami w osobnej dyskusji panelowej na temat sztucznej inteligencji i prywatności danych. W panelu uczestniczyli przedstawiciele różnych firm technologicznych, w tym twórca ChatGPT OpenAI i firma konsultingowa Accenture. 

Poręcze chroniące dane powinny istnieć na wszystkich etapach rozwoju i wdrażania sztucznej inteligencji, powiedziała Jessica Gan Lee, dyrektor ds. prawnych ds. prywatności w OpenAI. Powiedziała, że ​​modele sztucznej inteligencji powinny być szkolone na różnorodnych zbiorach danych ze „wszystkich zakątków świata”. Lee podkreślił, że w szkoleniu AI należy uwzględniać wiele kultur, języków i źródeł, a także znajdować sposoby na ograniczenie przetwarzania danych osobowych.

Teo powiedział, że na początku 2025 r. zostanie wprowadzony przewodnik dotyczący anonimizacji danych dla firm działających w ASEAN. Przewodnik będzie efektem lutowego spotkania urzędników regionalnych, którzy badali sposoby stworzenia bezpiecznego globalnego ekosystemu cyfrowego.