Obchodní oddělení pod správou Bidena usiluje o novou iniciativu pro dodržování předpisů, která by dále omezovala export modelů umělé inteligence s otevřeným nebo uzavřeným zdrojem. Tato iniciativa je snahou chránit zájmy USA a technologii AI před Ruskem a Čínou a doplní kroky podniknuté v posledních dvou letech k zablokování přístupu Číny k nejnovějším pokročilým počítačovým čipům.

Snahou USA je vytvořit přísnější ochranné bariéry kolem základního softwaru velkých jazykových modelů, které pohánějí aplikace jako ChatGPT, uvedla agentura Reuters s odkazem na tři zdroje, které jsou s touto záležitostí obeznámeny. Zatímco poskytovatel zpráv tvrdil, že výzkumníci v soukromém sektoru a vládě se obávají skutečnosti, že američtí protivníci mohou použít technologii k agresivním kybernetickým útokům a vyvíjet biologické zbraně, čínské velvyslanectví se proti tomuto kroku postavilo a označilo jej za jednostrannou šikanu a ekonomické donucování.

Deepfakes jsou smrtící dezinformační zbraň

Hrozeb, kterých se USA děsí, je mnoho a mohou je využít nestátní aktéři, kteří jsou podporováni státy. Deepfakes lze použít jako účinnou zbraň pro propagandu, protože zahrnují realistická, ale falešná videa vytvořená nástroji AI. 

Tyto typy videí se již objevují na sociálních sítích. Zatímco takový mediální obsah existuje již několik posledních let a je vyvíjen pomocí animačního a vykreslovacího softwaru, generativní nástroje umělé inteligence usnadnily jeho produkci pro kohokoli a nepoctiví herci je mohou využít snadněji než kdy předtím k manipulaci veřejného mínění o citlivých otázkách. , zejména během volebních kampaní.

Platformy sociálních médií jako YouTube, Facebook a Twitter již podnikly kroky k omezení deepfakes, ale s rozvojem technologií se mění také taktika jejich vývoje a zveřejňování. V současnosti lze k vytváření obsahu pro šíření dezinformací využít nástroje od společností jako Microsoft a OpenAI.

Mnohem větším problémem je, že modely umělé inteligence mohou unikat informace pro vývoj biologických zbraní, podle výzkumníků z Rand Corporation a Gryphon Scientific a amerických zpravodajských agentur, akademických expertů a think-tanků se obávají možnosti, že se umělá inteligence dostane do rukou darebáků. Prvky.

Studie Gryphon identifikovala, jak mohou LLM chrlit odborné znalosti a znalosti doktorandské úrovně, které mohou pomoci při vývoji virů, které mají pandemické schopnosti, a které mohou nestátní aktéři použít jako biologické zbraně.

Zesílené kybernetické útoky s modely AI

Ministerstvo pro vnitřní bezpečnost také vyjádřilo obavy, že kybernetické útoky na klíčovou infrastrukturu, jako jsou železnice a potrubí, by mohly být prováděny pomocí AI vývojem nových nástrojů, které budou schopny provádět rozsáhlejší a složitější kybernetické útoky a rychleji.

Agentura také uvedla, že Čína vyvíjí software pro umělou inteligenci, který lze použít k útokům malwaru, a také pracuje na technologiích AI, které by mohly potenciálně sabotovat kybernetickou obranu země.

Funkce a entity tvořící ekosystém Komunistické strany Číny. Zdroj: Microsoft.

V únoru Microsoft vydal zprávu, ve které uvedl, že identifikoval kybernetické skupiny zapojené do hackerských aktivit, které zdokonalují své hackerské kampaně pomocí LLM, a které jsou spojeny s vojenskou rozvědkou Ruska, severokorejské a čínské vlády, a Íránské revoluční gardy.

Společnost oznámila zákaz státem financovaných kybernetických skupin, které využívají její produkty a služby AI. Ve středu skupina státníků navrhla návrh zákona, který pomůže Bidenově vládě prosadit kontroly exportu modelů AI, aby se zabránilo jejich vystavení potenciálním protivníkům.

Odborníci na toto téma uvedli, že Washington se snaží vyhnout přehnaným regulacím, které by mohly potlačit inovace, protože se snaží podporovat inovace spolu s možnými řešeními rizik spojených s AI. Zdůraznili také, že prosazování přísných předpisů přísnou regulací pokroku AI vytvoří vakuum pro zahraniční konkurenty a negativně ovlivní oblasti infrastruktury, národní bezpečnosti a objevování drog.