Senadores dos EUA perguntam sobre a posição da FTC sobre golpes de IA que afetam idosos
Os senadores fizeram quatro perguntas pontuais sobre as técnicas de coleta de dados da FTC para golpes de IA, em um esforço para compreender a posição da agência.
Em um esforço para saber mais sobre os esforços da FTC para neutralizar o uso de IA em golpes direcionados aos idosos, quatro senadores dos Estados Unidos enviaram uma carta à presidente Lina Khan, solicitando detalhes sobre esses programas.
Quatro senadores – Robert Casey, Richard Blumenthal, John Fetterman e Kirsten Gillibrand – afirmaram que a prevenção da fraude possibilitada pela inteligência artificial deve ser uma prioridade máxima.
Ao escreverem uns aos outros, os senadores sublinharam a necessidade de compreender plenamente a escala do perigo da fraude impulsionada pela IA, para que possam ser desenvolvidas soluções apropriadas.
A solicitação deles era que a FTC fornecesse informações sobre suas operações de coleta de dados fraudulentos relacionados à IA e as etapas necessárias para verificar se o banco de dados do Sentinel representa com precisão esses esquemas.
Para ajudar as autoridades federais, estaduais e locais na luta contra muitos tipos de fraude, a FTC desenvolveu o Consumer Sentinel, uma ferramenta cibernética investigativa.
Os senadores queriam saber como a FTC coletava dados sobre golpes de IA, então fizeram quatro perguntas pontuais.
A primeira questão dizia respeito à capacidade da FTC de detectar e rotular corretamente fraudes alimentadas por IA no banco de dados Sentinel.
Além disso, eles queriam ver se a FTC conseguiria detectar esquemas de IA generativos que as vítimas pudessem perder. Além disso, os legisladores procuraram uma análise aprofundada dos dados do Sentinel para determinar a prevalência e eficácia de diferentes tipos de fraudes.
Esta investigação é apenas uma das muitas responsabilidades do Senador Casey; ele também preside a Comissão Especial do Senado sobre o Envelhecimento, que investiga os problemas enfrentados pelos idosos do país.
Em notícias relacionadas, quinze países, incluindo os EUA, o Reino Unido e a Austrália, publicaram recomendações mundiais em 27 de Novembro para evitar a manipulação de modelos de inteligência artificial (IA). Garantir que os modelos de IA sejam “seguros por design”. é enfatizar