Unia Europejska opublikowała ostateczny tekst ustawy o sztucznej inteligencji, określając krytyczne terminy na dostosowanie się do pierwszego na świecie kompleksowego zbioru przepisów dotyczących sztucznej inteligencji. Po zatwierdzeniu przez Radę UE w maju, przepisy wejdą w życie 1 sierpnia 2024 r.

Ustawa o sztucznej inteligencji ma na celu zapobieganie zagrożeniom ze strony sztucznej inteligencji „wysokiego ryzyka” dla demokracji, praw człowieka, środowiska i praworządności. Chińskie firmy spodziewają się jednak poświęcić więcej czasu i pieniędzy na dostosowanie się do nowych przepisów dotyczących sztucznej inteligencji. Partick Tu, współzałożyciel i dyrektor generalny Dayta AI z siedzibą w Hongkongu, przewiduje, że koszty jego firmy wzrosną od 20 do 40%.

UE nakłada obowiązek stosowania piaskownic regulacyjnych AI

Ustawa nakłada na twórców AI mających siedzibę w UE obowiązek wdrożenia jej zapisów do 2 sierpnia 2026 r. Do tego dnia każde państwo członkowskie UE musi spełnić ten wymóg i każde musi stworzyć co najmniej jedną piaskownicę regulacyjną AI na poziomie krajowym. Piaskownice te umożliwią programistom testowanie systemów sztucznej inteligencji w ustalonych ramach prawnych, tak aby nie utrudniały one rozwoju technologii. 

Twórcy, dostawcy i użytkownicy rozwiązań biometrycznych mają obowiązek dotrzymać nowego terminu upływającego 2 lutego 2025 r. Termin ten zabrania stosowania aplikacji sztucznej inteligencji o „niedopuszczalnym ryzyku”, takich jak sortowanie biometryczne na podstawie cech wrażliwych, rozpoznawanie emocji w środowisku pracy i placówkach oświatowych oraz masowego pobierania wizerunków twarzy do baz danych służących do rozpoznawania twarzy. Istnieją jednak wyjątki w przypadku policji, pod pewnymi warunkami. 

Przeczytaj także: CTO firmy Microsoft broni przepisów dotyczących skalowania sztucznej inteligencji

Przed 2 maja 2025 r. nowo utworzone Biuro ds. AI powinno wydać dostawcy AI kodeksy postępowania. Poniższe kody ilustrują sposób, w jaki dostawcy mogą udowodnić, że przestrzegają Ustawy. Od sierpnia 2025 r. systemy AI ogólnego przeznaczenia, w tym ChatGPT, będą musiały przestrzegać norm dotyczących praw autorskich i przejrzystości. 

Dodatkowo twórcy systemów AI wysokiego ryzyka mają czas do 27 sierpnia 2027 r., czyli rok po wejściu w życie ustawy o AI, na spełnienie dodatkowych wymogów określonych w załączniku I do ustawy o AI. Na rynku UE dozwolone są zastosowania sztucznej inteligencji wysokiego ryzyka, takie jak zdalna identyfikacja biometryczna, pod warunkiem spełnienia poniższych warunków. 

Ustawa nakłada surowe kary za naruszenia

Zgodnie z ustawą na spółkę, która nie zastosuje się do przepisów ustawy, grożą surowe kary. Kary wahają się od 35 milionów euro (38 milionów dolarów) do maksymalnie 7% całkowitych przychodów firm za poprzedni rok, w zależności od tego, która kwota jest wyższa niż kary administracyjne. 

Emma Wright z kancelarii prawnej Harbottle and Lewis tak skomentowała pojawienie się ustawy, mówiąc: „Unijna ustawa o sztucznej inteligencji to pierwsza znacząca próba uregulowania sztucznej inteligencji na świecie – okaże się, czy koszty przestrzegania przepisów hamują innowacje, czy też sztuczna inteligencja ustanowiony przez nią model zarządzania jest sztandarowym produktem eksportowym UE”.

Tempo rozwoju sztucznej inteligencji, szczególnie po niedawnym wydaniu generatywnej sztucznej inteligencji, takiej jak ChatGPT, znacznie przekroczyło tempo regulacji. Kilka krajów i bloków handlowych pracuje nad ramami prawnymi regulującymi wykorzystanie sztucznej inteligencji.