Departament Handlu pod administracją Bidena dąży do nowej inicjatywy dotyczącej zgodności, aby jeszcze bardziej ograniczyć eksport modeli sztucznej inteligencji o otwartym lub zamkniętym kodzie źródłowym. Inicjatywa ta stanowi próbę ochrony interesów USA i technologii sztucznej inteligencji przed Rosją i Chinami i będzie uzupełnieniem kroków podjętych w ciągu ostatnich dwóch lat w celu zablokowania Chinom dostępu do najnowszych zaawansowanych chipów komputerowych.

Wysiłki Stanów Zjednoczonych mają na celu nałożenie bardziej rygorystycznych barier ochronnych wokół podstawowego oprogramowania dużych modeli językowych, które obsługują aplikacje takie jak ChatGPT, podaje Reuters, powołując się na trzy źródła zaznajomione z tą sprawą. Chociaż nadawca wiadomości twierdzi, że badacze z sektora prywatnego i rządu są zaniepokojeni faktem, że amerykańscy przeciwnicy mogą wykorzystywać tę technologię do agresywnych cyberataków i opracowywać broń biologiczną, ambasada chińska sprzeciwiła się temu posunięciu i określiła je jako jednostronne zastraszanie i naruszenie ekonomii przymus.

Deepfake to zabójcza broń dezinformacyjna

Zagrożeń, których obawiają się Stany Zjednoczone, jest wiele i mogą zostać wykorzystane przez podmioty niepaństwowe, wspierane przez państwa. Deepfakes mogą być użyte jako skuteczna broń propagandowa, ponieważ obejmują realistyczne, ale fałszywe filmy stworzone przez narzędzia AI.

Tego typu filmy pojawiają się już w mediach społecznościowych. Choć takie treści medialne są dostępne już od kilku lat i opracowywane przy użyciu oprogramowania do animacji i renderowania, narzędzia generatywnej sztucznej inteligencji ułatwiły ich produkcję każdemu, a nieuczciwi aktorzy mogą je łatwiej niż kiedykolwiek wykorzystywać do manipulowania opiniami publicznymi w drażliwych kwestiach zwłaszcza w okresie kampanii wyborczych.

Platformy mediów społecznościowych, takie jak YouTube, Facebook i Twitter, podjęły już kroki w celu ograniczenia deepfakes, ale taktyka ich opracowywania i publikowania również zmienia się wraz z rozwojem technologii. Obecnie do tworzenia treści służących szerzeniu dezinformacji można używać narzędzi takich firm jak Microsoft i OpenAI.

Znacznie większym problemem jest to, że modele sztucznej inteligencji mogą powodować wyciek informacji na potrzeby opracowywania broni biologicznej – zauważają badacze z Rand Corporation i Gryphon Scientific, a amerykańskie agencje wywiadowcze, eksperci akademiccy i zespoły doradcze obawiają się, że sztuczna inteligencja dostanie się w ręce nieuczciwych osób. elementy.

W badaniu Gryphon zidentyfikowano, w jaki sposób LLM mogą udostępniać wiedzę ekspercką i wiedzę na poziomie doktoranckim, która może pomóc w opracowywaniu wirusów mających właściwości pandemiczne, która może zostać wykorzystana przez podmioty niepaństwowe jako broń biologiczna.

Wzmocnione cyberataki z wykorzystaniem modeli sztucznej inteligencji

Departament Bezpieczeństwa Wewnętrznego wyraził również obawy, że cyberataki na kluczową infrastrukturę, taką jak linie kolejowe i rurociągi, można przeprowadzić przy użyciu sztucznej inteligencji w drodze opracowania nowych narzędzi, które będą zdolne do przeprowadzania cyberataków na większą skalę i bardziej złożonych i szybciej.

Agencja podała również, że Chiny opracowują oprogramowanie oparte na sztucznej inteligencji, które można wykorzystać do ataków złośliwego oprogramowania, a także pracują nad technologiami sztucznej inteligencji, które mogłyby potencjalnie sabotować cyberobronę kraju.

Funkcje i podmioty tworzące ekosystem Komunistycznej Partii Chin. Źródło: Microsoft.

W lutym Microsoft opublikował raport, w którym zauważył, że zidentyfikował grupy cybernetyczne zaangażowane w działania hakerskie, które udoskonalają swoje kampanie hakerskie poprzez wykorzystanie LLM i mają powiązania z wywiadem wojskowym Rosji, rządów Korei Północnej i Chin, i Strażników Rewolucji Iranu.

Firma ogłosiła zakaz dla finansowanych przez państwo grup cybernetycznych korzystających z jej produktów i usług AI. W środę grupa mężów stanu zaproponowała projekt ustawy, który pomoże rządowi Bidena egzekwować kontrole eksportu modeli sztucznej inteligencji, aby zapobiec ich narażeniu na potencjalnych przeciwników.

Eksperci w tej dziedzinie twierdzą, że Waszyngton stara się unikać apodyktycznych przepisów, które mogłyby tłumić innowacje, starając się wspierać innowacje wraz z możliwymi rozwiązaniami zagrożeń związanych ze sztuczną inteligencją. Podkreślili również, że egzekwowanie rygorystycznych przepisów poprzez ścisłe regulowanie rozwoju sztucznej inteligencji stworzy próżnię dla zagranicznych konkurentów i będzie miało negatywny wpływ na obszary infrastruktury, bezpieczeństwa narodowego i odkrywania leków.