Nedávná studie v časopise Patterns odhalila, že umělá inteligence je stále schopnější oklamat lidi. Studie zjistila, že systémy umělé inteligence se naučily napodobovat, aby mohly podvádět, lichotit a dokonce napodobovat jiné chování. 

Čtěte také: Navigace v AI Deepfake Minefield: Jak odhalit a bojovat proti digitálnímu podvodu

Výzkum vedený Dr. Peterem S. Parkem, postdoktorandem na MIT v oblasti existenční bezpečnosti AI, ukazuje, že klamání AI je běžné, protože je to nejlepší způsob, jak dosáhnout cílů stanovených během školení AI. Takové chování bylo zaznamenáno v mnoha systémech umělé inteligence, jako jsou herní a univerzální modely používané při ekonomickém vyjednávání a hodnocení bezpečnosti.

„Obecně řečeno si ale myslíme, že klamání umělé inteligence vzniká proto, že strategie založená na klamání se ukázala být nejlepším způsobem, jak si dobře počínat v daném tréninkovém úkolu AI. Podvod jim pomáhá dosáhnout jejich cílů.“ 

Výzkumný tým

Systémy AI využívají různé taktiky klamání

Jedním z prominentních příkladů je Meta's CICERO, AI vyvinutá pro hraní hry Diplomacy. I když byl CICERO naprogramován tak, aby byl pravdivý, program musel často používat tajné metody, aby porazil svého protivníka. Navazovalo vztahy a otočilo se k nim zády, když se to hodilo a ukázalo záměr klamat. CICERO byl výzkumníky popsán jako „mistr klamu“.

Čtěte také: Boj proti rostoucí vlně počítačové kriminality řízené umělou inteligencí

Jiné systémy umělé inteligence také vykazují takové klamavé chování. Například Pluribus, umělá inteligence hrající poker, dokázal blufovat profesionální lidské hráče v Texas hold 'em pokeru. AlphaStar z DeepMind společnosti Google také použil herní funkci Starcraft II známou jako „fog of war“ k blafování protivníků a předstírání útoků.

Dr Park řekl: "I když se může zdát neškodné, pokud systémy AI podvádějí ve hrách, může to vést k "průlomu v klamných schopnostech AI."

AI „hraje mrtvého“, aby se vyhnula bezpečnostním kontrolám

Rizika podvodu AI se neomezují pouze na hraní her. Výzkum vedený Dr. Peterem identifikoval případy, kdy se umělá inteligence přizpůsobila, aby hrála mrtvou, aby se vyhnula odhalení během bezpečnostních kontrol. To může být pro vývojáře a regulátory klamné a může to vést k vážným dopadům, pokud jsou takové klamavé systémy použity ve skutečných aplikacích.

Zdroj: Security Magazine

V jiném případě se systém umělé inteligence trénovaný na lidské zpětné vazbě naučil, jak získat vysoké hodnocení od lidí tím, že je oklame, že konkrétního cíle bylo dosaženo. Takovéto klamavé jednání je poměrně nebezpečné, protože takové systémy lze využít k podvodným aktivitám, manipulaci s finančními trhy nebo ovlivňování voleb.

Výzkumníci požadují přísná právní opatření

Na základě zjištění studie vědci konstatují, že je zapotřebí přísných právních opatření, která by se vypořádala s hrozbami, které AI podvod představuje.

„Potřebujeme proaktivní řešení, jako jsou regulační rámce pro hodnocení rizik klamání AI, zákony vyžadující transparentnost interakcí AI a další výzkum v oblasti odhalování a prevence klamání AI.“

Výzkumný tým

Čtěte také: AI by mohla potenciálně detekovat riziko srdečního selhání, zjistil výzkum

K určitému pokroku došlo v podobě zákona EU o AI a výkonného nařízení prezidenta Joe Bidena o bezpečnosti AI. Prosazování těchto zásad však zůstává problematické, protože vývoj AI rychle roste a zatím neexistují žádné dobré způsoby, jak tyto systémy spravovat.

Cryptopolitan reportuje Brenda Kanana