Senadores dos EUA perguntam sobre a posição da FTC sobre golpes de IA que afetam idosos

#DATA

Os senadores fizeram quatro perguntas pontuais sobre as técnicas de coleta de dados da FTC para golpes de IA, em um esforço para compreender a posição da agência.

Em um esforço para saber mais sobre os esforços da FTC para neutralizar o uso de IA em golpes direcionados aos idosos, quatro senadores dos Estados Unidos enviaram uma carta à presidente Lina Khan, solicitando detalhes sobre esses programas.

Quatro senadores – Robert Casey, Richard Blumenthal, John Fetterman e Kirsten Gillibrand – afirmaram que a prevenção da fraude possibilitada pela inteligência artificial deve ser uma prioridade máxima.

Ao escreverem uns aos outros, os senadores sublinharam a necessidade de compreender plenamente a escala do perigo da fraude impulsionada pela IA, para que possam ser desenvolvidas soluções apropriadas.

A solicitação deles era que a FTC fornecesse informações sobre suas operações de coleta de dados fraudulentos relacionados à IA e as etapas necessárias para verificar se o banco de dados do Sentinel representa com precisão esses esquemas.

Para ajudar as autoridades federais, estaduais e locais na luta contra muitos tipos de fraude, a FTC desenvolveu o Consumer Sentinel, uma ferramenta cibernética investigativa.

Os senadores queriam saber como a FTC coletava dados sobre golpes de IA, então fizeram quatro perguntas pontuais.

A primeira questão dizia respeito à capacidade da FTC de detectar e rotular corretamente fraudes alimentadas por IA no banco de dados Sentinel.

Além disso, eles queriam ver se a FTC conseguiria detectar esquemas de IA generativos que as vítimas pudessem perder. Além disso, os legisladores procuraram uma análise aprofundada dos dados do Sentinel para determinar a prevalência e eficácia de diferentes tipos de fraudes.

Esta investigação é apenas uma das muitas responsabilidades do Senador Casey; ele também preside a Comissão Especial do Senado sobre o Envelhecimento, que investiga os problemas enfrentados pelos idosos do país.

Em notícias relacionadas, quinze países, incluindo os EUA, o Reino Unido e a Austrália, publicaram recomendações mundiais em 27 de Novembro para evitar a manipulação de modelos de inteligência artificial (IA). Garantir que os modelos de IA sejam “seguros por design”. é enfatizar