Unia Europejska (UE) podjęła w środę ważny krok w kierunku ustanowienia pierwszego zbioru zasad zarządzania dotyczących sztucznej inteligencji (AI), przyjmując w ten sposób projekt ustawy znanej jako ustawa o AI.

Ustawa o sztucznej inteligencji, która została po raz pierwszy zaproponowana przez UE 21 kwietnia 2021 r., została okrzyknięta pierwszymi i najbardziej kompleksowymi ramami regulacyjnymi na świecie. Od czasu jej zaproponowania Komisja Europejska, Rada Unii Europejskiej i Parlament Europejski pracowały nad modyfikacją i udoskonaleniem jej pierwotnego projektu, a ostatecznej wersji nie spodziewano się przed końcem tego roku.

Chociaż pierwotny projekt powstał przed gwałtownym rozwojem generatywnej sztucznej inteligencji, w tym chatbotów, nowy projekt prawa z pewnością bierze pod uwagę generatywne systemy sztucznej inteligencji, takie jak ChatGPT firmy OpenAI, i wynikające z nich implikacje.

Testowanie przed wdrożeniem

Ustawa, która ma zastosowanie do wszystkich państw członkowskich UE, nakłada na państwa członkowskie UE obowiązek utworzenia co najmniej jednej „piaskownicy” regulacyjnej w celu testowania systemów sztucznej inteligencji przed ich wdrożeniem.

„Jedną rzeczą, którą chcieliśmy osiągnąć tym tekstem, jest równowaga” – powiedział dziennikarzom Dragoș Tudorache, członek Parlamentu Europejskiego. Ustawa chroni obywateli, a jednocześnie „promuje innowacyjność, nie utrudnia kreatywności, a także wdraża i rozwija AI w Europie” – dodał.

Największe potencjalne zagrożenie dla ludzi

Podstawą uchwalonego w środę projektu ustawy jest to, że generatywna sztuczna inteligencja będzie podlegać nowym wymogom przejrzystości, które obejmują publikowanie streszczeń materiałów chronionych prawem autorskim, używanych do szkolenia systemu, a także wdrażanie zabezpieczeń zapobiegających generowaniu przez sztuczną inteligencję nielegalnych treści.

„Oparte na ryzyku” podejście do regulacji sztucznej inteligencji w projekcie ustawy koncentruje się na przypadkach użycia o największym potencjale wyrządzenia krzywdy ludziom, w tym na wykorzystaniu systemów sztucznej inteligencji do obsługi krytycznej infrastruktury, takiej jak woda lub energia, naszego systemu wymiaru sprawiedliwości oraz określania dostępu do usług publicznych i świadczeń rządowych.

Przed wprowadzeniem tej technologii do powszechnego użytku deweloperzy musieliby przeprowadzić ocenę ryzyka, podobnie jak obecnie wygląda proces zatwierdzania leków.

Zakaz rozpoznawania twarzy

Innym obszarem gorącej debaty jest wykorzystanie technologii rozpoznawania twarzy. Parlament Europejski zagłosował za zakazem stosowania technologii rozpoznawania twarzy na żywo, ale nadal nie wiadomo, czy powinien istnieć wyjątek dla jej stosowania w przypadkach bezpieczeństwa narodowego i innych celach egzekwowania prawa.

Co więcej, kolejny przepis ustawy o sztucznej inteligencji zabraniałby firmom zbierania danych biometrycznych z mediów społecznościowych w celu tworzenia baz danych – co stanowiło poważny problem po tym, jak firma zajmująca się rozpoznawaniem twarzy Clearview AI została ukarana grzywną w wysokości 20 milionów dolarów przez francuski urząd ochrony danych (CNIL) za nielegalne gromadzenie i przetwarzanie danych biometrycznych należących do obywateli Francji, oprócz zaległej grzywny w wysokości 5,2 miliona dolarów.

Czy sztuczna inteligencja generatywna przyniesie światowej gospodarce 4,4 biliona dolarów?

Według raportu opublikowanego w środę przez McKinsey & Company szacuje się, że generatywna sztuczna inteligencja doda światowej gospodarce 4,4 biliona dolarów.

Choć liczba ta mieści się w górnym przedziale prognozowanego przez McKinsey przedziału wartości generatywnej AI, raport zatytułowany „Potencjał ekonomiczny generatywnej AI” podaje również dolny przedział, który wynosi 2,6 biliona dolarów.

Podczas konferencji Viva w Paryżu w środę, główny naukowiec Meta zajmujący się sztuczną inteligencją, Yann LeCun, mówił o obecnych ograniczeniach generatywnej sztucznej inteligencji, w szczególności tej, która jest trenowana na dużych modelach językowych.

Według LeCuna sztuczna inteligencja generatywna, która uczy się wyłącznie języka, nie jest zbyt inteligentna.

„Te systemy są bardzo ograniczone, nie rozumieją żadnej podstawowej rzeczywistości prawdziwego świata, ponieważ są szkolone wyłącznie na tekście, ogromnych ilościach tekstu” — powiedział LeCun. „Większość ludzkiej wiedzy nie ma nic wspólnego z językiem… więc ta część ludzkiego doświadczenia nie jest uchwycona przez sztuczną inteligencję”.

„Dziś stworzyliśmy historię” – powiedział dziennikarzom Brando Benifei, poseł do Parlamentu Europejskiego pracujący nad ustawą UE o sztucznej inteligencji.

„Podczas gdy wielkie firmy technologiczne biją na alarm w sprawie swoich własnych tworów, Europa poszła naprzód i zaproponowała konkretną odpowiedź na ryzyko, jakie zaczyna stwarzać sztuczna inteligencja” – dodał Benifei.

W tym tygodniu ponad 40% liderów biznesowych obecnych na Yale CEO Summit, w tym szef Walmartu Doug McMillion i dyrektor generalny Coca-Coli James Quincy, wyraziło przekonanie, że sztuczna inteligencja ma potencjał zniszczenia ludzkości w ciągu 5–10 lat.

Ustawa o sztucznej inteligencji idzie o krok dalej niż sankcje przewidziane w europejskim rozporządzeniu o ochronie prywatności GDPR. Firmy stosujące niedozwolone praktyki związane ze sztuczną inteligencją mogą zostać ukarane grzywną w wysokości do 43 milionów dolarów amerykańskich lub kwotą równą 7% światowych rocznych obrotów firmy, w zależności od tego, która kwota jest wyższa.

Obecnie przepisy RODO przewidują kary pieniężne w wysokości do 10,8 mln USD lub do 2% globalnych obrotów firmy, w zależności od tego, która kwota jest wyższa.

W innych wiadomościach przeczytasz o obliczeniach hiperwymiarowych i o tym, dlaczego być może źle postrzegamy sztuczną inteligencję.

Kliknij tutaj, aby zobaczyć całą galerię na Hypemoon