Os senadores fizeram quatro perguntas pontuais sobre as técnicas de coleta de dados da FTC para golpes de IA, em um esforço para compreender a posição da agência. Em um esforço para saber mais sobre os esforços da FTC para neutralizar o uso de IA em golpes direcionados aos idosos, quatro senadores dos Estados Unidos enviaram uma carta à presidente Lina Khan, solicitando detalhes sobre esses programas. Quatro senadores – Robert Casey, Richard Blumenthal, John Fetterman e Kirsten Gillibrand – afirmaram que a prevenção da fraude possibilitada pela inteligência artificial deve ser uma prioridade máxima. Ao escreverem uns aos outros, os senadores sublinharam a necessidade de compreender plenamente a escala do perigo da fraude impulsionada pela IA, para que possam ser desenvolvidas soluções apropriadas. A solicitação deles era que a FTC fornecesse informações sobre suas operações de coleta de dados fraudulentos relacionados à IA e as etapas necessárias para verificar se o banco de dados do Sentinel representa com precisão esses esquemas. Para ajudar as autoridades federais, estaduais e locais na luta contra muitos tipos de fraude, a FTC desenvolveu o Consumer Sentinel, uma ferramenta cibernética investigativa. Os senadores queriam saber como a FTC coletava dados sobre golpes de IA, então fizeram quatro perguntas pontuais. A primeira questão dizia respeito à capacidade da FTC de detectar e rotular corretamente fraudes alimentadas por IA no banco de dados Sentinel. Além disso, eles queriam ver se a FTC conseguiria detectar esquemas de IA generativos que as vítimas pudessem perder. Além disso, os legisladores procuraram uma análise aprofundada dos dados do Sentinel para determinar a prevalência e eficácia de diferentes tipos de fraudes. Esta investigação é apenas uma das muitas responsabilidades do Senador Casey; ele também preside a Comissão Especial do Senado sobre o Envelhecimento, que investiga os problemas enfrentados pelos idosos do país. Em notícias relacionadas, quinze países, incluindo os EUA, o Reino Unido e a Austrália, publicaram recomendações mundiais em 27 de Novembro para evitar a manipulação de modelos de inteligência artificial (IA). Garantir que os modelos de IA sejam “seguros por design”. é enfatizar