Senatorii SUA se întreabă despre poziția FTC cu privire la înșelătoriile AI care afectează cetățenii în vârstă
Senatorii au pus patru întrebări punctuale despre tehnicile FTC de culegere de date pentru escrocherii AI, în efortul de a înțelege poziția agenției.
În efortul de a afla mai multe despre eforturile FTC de a contracara utilizarea AI în escrocherii care vizează persoanele în vârstă, patru senatori din Statele Unite au trimis o scrisoare președintelui Lina Khan, cerând detalii despre aceste programe.
Patru senatori — Robert Casey, Richard Blumenthal, John Fetterman și Kirsten Gillibrand — au declarat că prevenirea fraudei, posibilă prin inteligența artificială, trebuie să fie o prioritate de vârf.
În timp ce și-au scris unul altuia, senatorii au subliniat necesitatea de a înțelege pe deplin amploarea pericolului înșelătoriei determinate de AI, astfel încât să poată fi dezvoltate remedii adecvate.
Solicitarea lor a fost ca FTC să furnizeze informații despre operațiunile sale de colectare a datelor înșelătorie legate de AI și pașii pe care îi face pentru a verifica dacă baza de date Sentinel reprezintă cu exactitate aceste scheme.
Pentru a ajuta organele de aplicare a legii federale, de stat și locale în lupta lor împotriva multor tipuri de fraudă, FTC a dezvoltat Consumer Sentinel, un instrument cibernetic de investigație.
Senatorii au vrut să știe cum a colectat FTC date despre înșelătoriile AI, așa că au pus patru întrebări clare.
Prima lor întrebare se referea la capacitatea FTC de a detecta și eticheta corect fraudele bazate pe inteligență artificială în baza de date Sentinel.
În plus, au vrut să vadă dacă FTC ar putea identifica scheme generative de IA pe care victimele le-ar putea rata. În plus, legiuitorii au căutat o analiză aprofundată a datelor Sentinel pentru a determina prevalența și eficacitatea diferitelor tipuri de escrocherii.
Această investigație este doar una dintre numeroasele responsabilități ale senatorului Casey; el conduce, de asemenea, Comitetul special al Senatului pentru îmbătrânire, care investighează problemele cu care se confruntă vârstnicii națiunii.
În știri conexe, cincisprezece țări, inclusiv SUA, Marea Britanie și Australia, au publicat recomandări la nivel mondial pe 27 noiembrie pentru a preveni manipularea modelelor de inteligență artificială (AI). Asigurarea că modelele AI sunt „securizate prin proiectare”. este subliniat