V posledních několika letech se morální a praktické zájmy soustředily na AI kvůli jejímu obrovskému potenciálu pro prospěšné i škodlivé využití. Jeden z lídrů v oboru, OpenAI, se věnuje implementaci přísných pokynů, aby zabránil zneužívání svých modelů AI.

Toto odhodlání je zvláště důležité pro identifikaci a maření operací skrytého vlivu (IO), což jsou snahy ovlivnit veřejné mínění nebo ovlivnit politické výsledky, aniž by došlo k odhalení skutečné identity nebo motivace zúčastněných stran. Za poslední tři měsíce OpenAI zasáhla do pěti z těchto aktivit, čímž prokázala své odhodlání snížit zneužívání technologie AI.

V poslední době neočekávané poruchy v operacích skrytého vlivu

30. května 2024 se OpenAI zapsala do historie tím, že světu prozradila, že úspěšně zmařila pět takových skrytých vlivových kampaní, které pocházely z Íránu, Číny, Ruska a dokonce i jedné izraelské soukromé společnosti. Společnost zveřejnila otevřenou zprávu podrobně popisující pečlivá vyšetřování, která odhalila tyto škodlivé snahy, jejichž cílem bylo použít nejmodernější jazykové modely OpenAI pro podvody na webu.

Generální ředitel OpenAI, Sam Altman, znovu potvrdil odhodlání společnosti vytvářet spolehlivé a bezpečné zpravodajské aplikace. Uvedl také, že společnost je odhodlána implementovat předpisy, které zastavují zneužívání a zvyšují otevřenost informací generovaných umělou inteligencí, se zvláštním zaměřením na identifikaci a ovlivňování skrytých ovlivňovacích aktivit.

Zvláštní operace – analytiky OpenAI nazvaná „Bad Grammar“ – přišla z Ruska. Ve snaze změnit veřejné vnímání použili jednotlivci za touto operací roboty Telegramu ke spuštění modelů OpenAI a produkování krátkých sociálních poznámek v ruštině i angličtině. Tyto komentáře pak byly sdíleny ve známé chatovací aplikaci.

Foto: Komentář veřejného telegramu odpovídající textu generovanému touto sítí. Zpráva o hrozbě Intel

Jiná organizace s názvem „Doppelganger“ přijala více mezinárodní strategii a pomocí AI OpenAI vytvářela odpovědi v různých jazycích EU.

Studie také poskytla vhled do čínského systému známého jako „Spamouflage“, který využíval modely OpenAI pro řadu aplikací, včetně vytváření vícejazyčného materiálu pro weby jako X, Medium a Blogspot, jakož i vyšetřování veřejnosti. aktivita na sociálních sítích. Výzkumníci dokonce použili AI OpenAI k ladění databáze a kódu správy webových stránek, zejména dříve nezveřejněné domény, která je možná ze všech nejvíce znepokojivá.

Foto: Snímek obrazovky webového serveru discoverscum[.]com, zobrazující stránku s názvem „汉奸“ („zrádce“). Zpráva o hrozbě Intel

Analytici této organizace také objevili „International Union of Virtual Media“ (IUVM), íránskou organizaci, která používala AI OpenAI k vytváření a interpretaci dlouhých dokumentů, zpráv a webových značek.

Foto: Tagy na článku publikovaném společností iuvmpress[.]co. Všimněte si prvních dvou značek, které obsahují odpověď modelu. Zpráva o hrozbě Intel

OpenAI nečekaně také zasáhla do operací izraelského podniku, který byl přezdíván „Zero Zeno“. Pomocí modelů OpenAI vytvořil STOIC příběhy a odpovědi, které byly poté sdíleny na různých platformách, jako je Facebook, Instagram, X a firemní stránky. To mohlo být provedeno ve snaze ovlivnit veřejné mínění nebo prosadit obchodní cíle.

Foto: Komentáře v angličtině generované touto sítí a zveřejněné na Instagramu. Původní příspěvek i odpovědi byly vygenerovány touto kampaní. Zpráva o hrozbě Intel

Výzkum zdůrazňuje, že informace, které byly distribuovány těmito různými organizacemi, pokrývaly širokou škálu témat. Tato široká škála témat zdůrazňuje, jak přizpůsobiví byli tito aktéři hrozeb ve svých pokusech používat jazykové modely OpenAI pro své vlastní zlé účely.

OpenAI však tvrdí, že navzdory jejich nejlepšímu úsilí tyto tajné ovlivňovací kampaně příliš nezískaly používáním jejích služeb ke zvýšení popularity nebo dosahu. Při hodnocení dopadu IO byla použita „škála Breakout Scale“ společnosti Brookings Institution. Žádná z 5 iniciativ nezískala skóre vyšší než 2, což znamená, že jejich aktivity byly omezeny na několik platforem a významně nepronikly do legitimních online skupin.

Foto: Výzkumníci identifikovali následující doménu jako spojenou s touto kampaní. Zpráva o hrozbě Intel

Zkoumání strategií útočníků

Dokument od OpenAI také identifikuje řadu významných vzorů ve způsobu, jakým se tito aktéři hrozeb snažili modely umělé inteligence zneužít. K vytvoření zdání účasti na sociálních médiích všichni kromě konvenčnějších formátů, jako jsou ručně psané dopisy nebo přepracované memy, použili materiál vytvořený umělou inteligencí. Několik aktérů navíc prokázalo adaptabilitu těchto technologií pomocí umělé inteligence ke zvýšení produktivity pomocí analýzy příspěvků na sociálních sítích nebo kódu pro odstraňování problémů.

Zajímavé je, že firma zdůrazňuje výhody, které AI poskytuje k obraně proti těmto druhům útoků. Bezpečnostní opatření OpenAI, která upřednostňovala etické nasazení umělé inteligence, soustavně způsobovala nepříjemnosti aktérům hrozeb tím, že odmítala poskytnout zamýšlený destruktivní materiál. Studie například podrobně popisuje situace, kdy modely společnosti odmítly vygenerovat požadovaný text nebo grafiku, což bránilo pokusům operátorů šířit dezinformace nebo propagandu.

Kromě toho, aby OpenAI zlepšila rozpoznávací a vyhodnocovací dovednosti a urychlila vyšetřování, která mohla trvat týdny nebo měsíce, vytvořila své vlastní nástroje poháněné umělou inteligencí. Podnik ukázal, jak může umělá inteligence posílit ochranu proti vlastnímu zlovolnému použití pomocí přesné technologie, kterou chce chránit.

OpenAI zdůrazňuje, jak zásadní je obchodní spolupráce a sdílení informací s otevřeným zdrojovým kódem pro zmaření těchto tajných operací. V důsledku dlouholetých studií s otevřeným zdrojovým kódem větší výzkumné komunity společnost sdílela přesné indikátory nebezpečí s kolegy v oboru a posílila myšlenku, že boj proti dezinformacím a online manipulaci je týmové úsilí vyžadující spolupráci napříč odvětvími.

OpenAI’s Future Course for Safety

Pomocí této strategie se OpenAI snaží posílit účinek svých narušení na tyto špatné aktéry a omezit jejich schopnost využívat technologii AI k nezákonným činnostem. Podle dokumentu „Na distribuci záleží: Stejně jako tradiční formy obsahu musí být materiál generovaný umělou inteligencí distribuován, pokud má oslovit publikum.“

Shrneme-li to, výzkum OpenAI zdůrazňuje, že tyto operace stealth vlivu byly stále omezeny lidskými proměnnými, jako jsou chyby operátora a vady rozhodování, i když uznává potenciální hrozby, které představuje zneužití technologie AI. Dokument obsahuje příklady operátorů, kteří omylem zveřejnili na svých webech a sociálních médiích odmítavé signály z modelů OpenAI, čímž odhalili nedostatky a omezení i v těch nejpokročilejších dezinformačních snahách.

Pokud jde o tuto chvíli, odstranění těchto pěti tajných vlivových kampaní OpenAI je důkazem pečlivosti a odhodlání společnosti udržovat integritu svých systémů umělé inteligence. Boj proti dezinformacím a online manipulaci však zdaleka nekončí a s rozvojem technologií AI bude mnohem více potřeba spolupráce, kreativity a etických zájmů.

The post OpenAI odhaluje a zastavuje 5 operací se škodlivým vlivem využívající technologii AI appeared first on Metaverse Post.