Američtí senátoři se ptají na postoj FTC k podvodům s umělou inteligencí postihující seniory

#DATA

Senátoři položili čtyři ostré otázky o technikách shromažďování dat FTC pro podvody s umělou inteligencí ve snaze pochopit postoj agentury.

Ve snaze dozvědět se více o snahách FTC bojovat proti používání AI v podvodech zaměřených na seniory poslali čtyři senátoři ze Spojených států dopis předsedkyni Lině Khanové, ve které se ptali na podrobnosti o těchto programech.

Čtyři senátoři – Robert Casey, Richard Blumenthal, John Fetterman a Kirsten Gillibrand – uvedli, že prevence podvodů, které umožňuje umělá inteligence, musí být nejvyšší prioritou.

Když si senátoři psali, zdůraznili, že je třeba plně porozumět rozsahu nebezpečí podvodu řízeného umělou inteligencí, aby bylo možné vyvinout vhodná nápravná opatření.

Jejich žádost byla, aby FTC poskytla informace o svých operacích shromažďování dat o podvodech souvisejících s umělou inteligencí a o krocích, které podniká k ověření, že databáze Sentinel přesně reprezentuje tato schémata.

FTC vyvinula Consumer Sentinel, vyšetřovací kybernetický nástroj, aby pomohla federálním, státním a místním donucovacím orgánům v jejich boji proti mnoha typům podvodů.

Senátoři chtěli vědět, jak FTC shromažďovala data o podvodech s umělou inteligencí, a tak položili čtyři cílené otázky.

Jejich první otázka se týkala schopnosti FTC odhalit a správně označit podvody s umělou inteligencí v databázi Sentinel.

Kromě toho chtěli zjistit, zda FTC dokáže rozpoznat generativní schémata umělé inteligence, která by obětem mohla uniknout. Kromě toho se zákonodárci snažili o hloubkovou analýzu údajů společnosti Sentinel, aby určili výskyt a účinnost různých druhů podvodů.

Toto vyšetřování je pouze jednou z mnoha povinností senátora Caseyho; je také předsedou zvláštního výboru Senátu pro stárnutí, který zkoumá problémy, s nimiž se potýkají senioři v zemi.

V souvisejících zprávách patnáct zemí, včetně USA, Spojeného království a Austrálie, zveřejnilo 27. listopadu celosvětová doporučení, jak zabránit manipulaci s modely umělé inteligence (AI). Ujistěte se, že modely umělé inteligence jsou „bezpečné designem“. je zdůrazněno