O Departamento de Comércio sob a administração Biden pretende lançar uma nova iniciativa de conformidade para restringir ainda mais a exportação de modelos de inteligência artificial de código aberto ou fechado. A iniciativa é um esforço para salvaguardar os interesses dos EUA e a tecnologia de IA da Rússia e da China e complementará as medidas tomadas nos últimos dois anos para bloquear o acesso chinês aos mais recentes chips de computador avançados.

O esforço dos EUA é colocar barreiras de proteção mais rígidas em torno do software central de grandes modelos de linguagem que alimentam aplicativos como o ChatGPT, informou a Reuters, citando três fontes familiarizadas com o assunto. Embora o fornecedor de notícias tenha afirmado que os investigadores do sector privado e do governo estão preocupados com o facto de os adversários dos EUA poderem usar a tecnologia para ataques cibernéticos agressivos e desenvolver armas biológicas, a Embaixada da China opôs-se à medida e descreveu-a como intimidação unilateral e económica. coerção.

Deepfakes são uma arma letal de desinformação

As ameaças que os EUA temem são muitas e podem ser utilizadas por intervenientes não estatais apoiados pelos Estados. Deepfakes podem ser usados ​​como uma arma eficaz de propaganda, pois envolvem vídeos realistas, mas falsos, criados por ferramentas de IA.

Esses tipos de vídeos já estão surgindo nas redes sociais. Embora esse tipo de conteúdo de mídia já exista nos últimos anos, desenvolvido com software de animação e renderização, as ferramentas generativas de IA tornaram sua produção fácil para qualquer pessoa, e atores desonestos podem aproveitá-los mais facilmente do que nunca para manipular a opinião pública sobre questões delicadas. , especialmente durante as campanhas eleitorais.

Plataformas de mídia social como YouTube, Facebook e Twitter já tomaram medidas para reduzir os deepfakes, mas as táticas para desenvolvê-los e publicá-los também estão mudando com o desenvolvimento da tecnologia. No momento, ferramentas de empresas como Microsoft e OpenAI podem ser usadas para criar conteúdo para espalhar desinformação.

Uma preocupação muito maior é que os modelos de IA podem vazar informações para o desenvolvimento de armas biológicas, de acordo com pesquisadores da Rand Corporation e da Gryphon Scientific, e as agências de inteligência dos EUA, especialistas acadêmicos e think tanks estão preocupados com a possibilidade de a IA cair nas mãos de desonestos. elementos.

O estudo Gryphon identificou como os LLMs podem produzir conhecimentos especializados e de nível de doutoramento que podem ajudar no desenvolvimento de vírus com capacidades pandémicas, e isto pode ser usado por intervenientes não estatais como armas biológicas.

Ataques cibernéticos amplificados com modelos de IA

O Departamento de Segurança Interna também manifestou preocupação com o facto de os ataques cibernéticos a infra-estruturas cruciais, como caminhos-de-ferro e oleodutos, poderem ser executados com IA, através do desenvolvimento de novas ferramentas que serão capazes de ataques cibernéticos em maior escala e mais complexos e de forma mais rápida.

A agência também disse que a China está desenvolvendo software de inteligência artificial que pode ser usado para ataques de malware, e também está trabalhando em tecnologias de IA que poderiam potencialmente sabotar as defesas cibernéticas do país.

Funções e entidades que formam o ecossistema do Partido Comunista Chinês. Fonte: Microsoft.

Em fevereiro, a Microsoft publicou um relatório no qual observou que identificou grupos cibernéticos envolvidos em atividades de hacking que estão aperfeiçoando suas campanhas de hacking utilizando LLMs, e que têm afiliações com a inteligência militar da Rússia, dos governos norte-coreano e chinês, e os Guardas Revolucionários do Irão.

A empresa anunciou a proibição de grupos cibernéticos financiados pelo Estado que usam seus produtos e serviços de IA. Na quarta-feira, um grupo de estadistas propôs um projeto de lei que ajudará o governo Biden a impor controles sobre a exportação de modelos de IA para evitar a sua exposição a potenciais adversários.

Especialistas no assunto afirmaram que Washington está a tentar evitar regulamentações autoritárias que possam suprimir a inovação, à medida que tentam promover a inovação juntamente com possíveis soluções para os riscos associados à IA. Eles também destacaram que a aplicação de regulamentações rigorosas, regulando estritamente o avanço da IA, criará um vácuo para concorrentes estrangeiros e impactará negativamente as áreas de infraestrutura, segurança nacional e descoberta de medicamentos.