Os líderes do Comitê de Serviços Financeiros dos Estados Unidos (FSC) responderam a uma solicitação de feedback do Tesouro dos EUA sobre a regulamentação da inteligência artificial em uma carta publicada em 16 de agosto.

A carta, assinada pela liderança republicana do comitê, pede o que equivale a uma abordagem leve à regulamentação. “Uma abordagem única para todos só vai sufocar a competição entre instituições financeiras”, escrevem os signatários, acrescentando que “os reguladores devem avaliar o uso da tecnologia de IA por cada instituição caso a caso”

Caixa de areia de IA

O comitê pareceu otimista quanto ao uso de IA generativa — que inclui serviços e produtos como o ChatGPT da OpenAI e o Claude da Anthropic — no setor de serviços financeiros. Ele destacou o potencial dessas tecnologias para fornecer maior acesso a serviços financeiros, aumentando tanto a adoção quanto a inclusão.

Também recomendou fortemente uma abordagem orgânica para criar novas regulamentações e leis. Descrevendo uma “caixa de areia regulatória” para IA, a FSC parece estar defendendo a manutenção de um foco geral na sustentação do status quo aplicando regras existentes aos desafios conforme eles surgem.

Conforme o documento:

“Reguladores, Congresso e o Departamento do Tesouro devem ser criteriosos com relação à regulamentação da IA, reconhecendo os regulamentos, regras, orientações e leis atualmente em vigor que abordam o uso de tecnologias por instituições financeiras.”

Privacidade de dados

Quando se trata de privacidade do consumidor e proteção de dados, as visões do comitê parecem estar em desacordo com sua insistência em uma abordagem um tanto quanto não intervencionista à regulamentação. Sob o status quo, empresas como OpenAI, Google, xAI têm, até agora, permissão para coletar dados gerados por humanos com o propósito de treinar sistemas de IA.

A carta do FSC, no entanto, diz que os consumidores dos EUA “devem ter permissão para encerrar a coleta de seus dados ou solicitar sua exclusão”. Se tal regulamentação se tornasse lei no país, poderia ter um efeito potencialmente devastador em alguns dos principais modelos de negócios das maiores empresas de IA dos EUA.

Devido à forma como os sistemas de IA, como o ChatGPT, são treinados, “encerrar a coleta” de dados do usuário pode ser uma medida ineficaz quando aplicada à tecnologia existente. O problema real é que pode não ser possível “deletar” dados do usuário de sistemas pré-treinados.

Relacionado: Advogado da cidade de São Francisco processa sites que ‘despem’ mulheres com IA