Niedawne posunięcie administracji Bidena mające na celu ograniczenie dostępu Chin do określonych pakietów oprogramowania, takich jak to stosowane w OpenAI, które napędza ChatGPT, rozszerzyło zakres dyskusji na temat wykonalności ograniczenia rozprzestrzeniania się sztucznej inteligencji. Obawy pojawiają się w miarę upowszechniania się modeli sztucznej inteligencji typu open source, ponieważ w pewnym stopniu regulacje te mogą stać się nieskuteczne w wyniku nowego, rosnącego trendu.

USA zaostrzają kontrolę eksportu sztucznej inteligencji

Rząd USA stara się zapobiegać rozprzestrzenianiu się narzędzi sztucznej inteligencji, które mogą zostać wykorzystane do naruszeń bezpieczeństwa, zwiększając kontrolę eksportu, aby zaprzestać dostarczania modeli sztucznej inteligencji należących do konkretnych właścicieli. Te nowe środki, które obejmują Chiny i kilka innych krajów, takich jak Rosja i Iran, utrudnią poznanie i uzyskanie technologii przeznaczonych do celów wojennych lub cyberataków. Można je określić jako modele niestandardowe, które nie są oprogramowaniem typu open source i są tworzone przez liderów technologii z siedzibą w USA, takich jak OpenAI, Google DeepMind i Anthropic.

Podczas gdy Departament Handlu Stanów Zjednoczonych oddaje się procesowi opracowywania nowych przepisów określających kontrolę, z drugiej strony społeczność wywiadowcza USA pracuje nad nowymi sposobami gromadzenia i analizowania danych w celu dalszego ukierunkowania i zakłócania działań terrorystycznych w granicach USA i poza nimi . Takie sankcje pojawiają się po latach wcześniejszych blokad eksportu lepszych aparatów AI do Chin, które znacząco uderzyły w największych amerykańskich producentów, takich jak Nvidia. W związku z tym Nvidia zaczęła dostarczać chipy o mniejszych możliwościach, które nie wymagają specjalnej licencji eksportowej, aby trafić na rynki poza Stanami Zjednoczonymi. 

Modele sztucznej inteligencji typu open source rzucają wyzwanie ograniczeniom eksportu

Jednak mimo że regulacje te mają konkretnie na celu wykluczenie wbudowanych modeli AI, w branży można zaobserwować rosnącą tendencję do sięgania po modele open source, co z kolei może w niektórych przypadkach skutkować osłabieniem tych rozwiązań. Modele typu open source są otwarte, co oznacza, że ​​każdy może uzyskać kod i dane szkoleniowe z dowolnego miejsca na świecie. Wyraźnie pokazuje to niedawny plan Meta dotyczący udostępnienia modelu LLaMA 3 jako oprogramowania typu open source oraz zamierzone przez firmę Google wprowadzenie rodziny otwartych modeli na rynek, co prowadzi do pytań o to, czy osiągnięcie pożądanego efektu będzie możliwe, jeśli dostęp do zastrzeżonych modeli zostanie pozostań zamknięty. 

Starszy analityk GlobalData, Josep Bori, zauważa, że ​​ruch w kierunku open source sprawia, że ​​regulacje tracą na znaczeniu ze względu na brak ochrony patentowej; w związku z tym każdy niezastrzeżony model może być dostępny bezpłatnie i używany przez każdego. Chociaż na razie wydaje się to łatwe, twierdzi, że kontrolowanie technologii sztucznej inteligencji jest jeszcze trudniejsze, niż nam się wydaje. 

Rosnące ograniczenia na Wschodzie wynikające z ograniczenia w ten sposób rozprzestrzeniania się sztucznej inteligencji mogą spowodować podział sfery technologicznej i wygenerowanie długoterminowych wyzwań, które mogą mieć wpływ na globalny system sztucznej inteligencji. Christoph Cemper, dyrektor generalny AIPRM, jest raczej sceptyczny, czy scenariusz końca świata nie przeszkodzi w rozwoju bezpiecznych systemów sztucznej inteligencji. Do tej pory prowadzenie badań nad sztuczną inteligencją miało głównie charakter globalny, a współpraca międzynarodowa stale się rozwijała. Mimo to kraje autorytarne mogą próbować podzielić pole, co może mieć negatywny wpływ na postęp. 

Sytuacja może dotyczyć systemów piwnicznych, ponieważ inny równoległy ekosystem sztucznej inteligencji mógłby zakłócać handel światowy, a tym samym może mieć ogromny wpływ na przedsiębiorstwa zależne od transgranicznych łańcuchów dostaw. Istniejąca praktyka, która opiera się na współpracy firm amerykańskich z firmami Huawei, jest obecnie zagrożona, ponieważ nowe ograniczenia mogą przełamać tę wieloletnią praktykę. Uboczny efekt sztucznej inteligencji, który obecnie w oczywisty sposób wpływa na dostęp, wydaje się nierozsądny, jeśli wspólnie podejmuje się działania mające na celu sprostanie wielkim wyzwaniom stojącym dziś przed ludzkością, mówi Cemper.  

Globalne implikacje dla rynku AI

Rynek sztucznej inteligencji z pewnością nadal boryka się z pewnymi ograniczeniami, co wskazuje na wysoki poziom wzrostu. Z analizy rynku przeprowadzonej przez GlobalData wynika, że ​​do 2030 r. światowy rynek sztucznej inteligencji osiągnie wartość 909 miliardów dolarów, a złożona roczna stopa wzrostu (CAGR) od 2022 r. wyniesie 35%. Od tego momentu prognozuje się, że całkowita wartość rynku chipów AI do 2030 r. wyniesie około 116 miliardów funtów ze względu na rosnący popyt ze strony różnych sektorów gospodarki. 

Zmieniające się przepisy mogą przekształcić globalne łańcuchy wartości i zrestrukturyzować branże, co może brzmieć jak dzwon pogrzebowy dla zysków firm, jeśli będą musiały opracować nowe strategie biznesowe. Wysoce spekuluje się, że niedawne ograniczenie kontroli eksportu jest wprost proporcjonalne do zaciętej walki o pozyskanie firm technologicznych z USA i Chin. Jest katalizatorem innowacji po obu stronach, co może skutkować potencjalnym ograniczeniem współpracy. 

Kompetencje rozwiązania zastosowanego przez administrację USA można przewidzieć na podstawie tego, jak wspomniane środki zdołają spowolnić szaleńcze pozyskiwanie technologii sztucznej inteligencji przez konkurentów, bez uszczerbku dla innowacyjności i nie pogłębiania problemów gospodarczych obu krajów.