O YouTube está desenvolvendo ferramentas para detectar o uso de versões geradas por IA das vozes ou semelhanças físicas dos usuários em vídeos sem o consentimento deles. Em um anúncio hoje, a plataforma de propriedade do Google disse que essas ferramentas protegerão os criadores em sua plataforma.

O anúncio é um desenvolvimento bem-vindo, pois as ferramentas abordam as principais preocupações em torno da proliferação de deepfakes, às vezes levando a perdas financeiras e de reputação. Muitos esperam que isso torne o processo de identificação e denúncia de deepfakes mais uniforme.

Duas ferramentas focam na proteção de músicos e figuras públicas

A empresa explicou que está trabalhando em duas ferramentas. A primeira é uma ferramenta de identificação de voz cantada que faria parte do sistema de ID de conteúdo do YouTube. Esse recurso detecta automaticamente conteúdo gerado por IA simulando as vozes cantadas de outras pessoas na plataforma e as remove automaticamente.

Para a segunda ferramenta, o YouTube está desenvolvendo uma tecnologia que permite que pessoas populares, como criadores, atletas, músicos e artistas detectem e removam deepfakes de seus rostos na plataforma. A empresa observou que essas ferramentas, junto com suas Atualizações de Privacidade e Termos de Serviço, seriam suficientes para proteger os criadores.

No entanto, o objetivo do YouTube não é impedir as pessoas de usar IA em sua plataforma; ele apenas busca garantir o uso responsável da IA ​​e capacitar os criadores a controlar o uso de suas semelhanças.

Ele disse:

“Acreditamos que a IA deve aprimorar a criatividade humana, não substituí-la. Estamos comprometidos em trabalhar com nossos parceiros para garantir que os avanços futuros amplifiquem suas vozes, e continuaremos a desenvolver barreiras de proteção para abordar preocupações e atingir nossos objetivos comuns.”

Enquanto isso, o YouTube não deu um cronograma de quando esses recursos estariam disponíveis para os usuários, apenas observando que a ferramenta de detecção de voz cantada ainda precisa de alguns ajustes, mas haveria um programa piloto no início de 2025.

YouTube provoca tecnologia para evitar raspagem de dados de IA

O YouTube também deu a entender que está trabalhando em uma ferramenta para impedir que empresas de IA usem conteúdo em sua plataforma para treinar seus modelos sem a permissão dos proprietários. Observando isso como um problema importante, a plataforma disse que está investindo em sistemas que detectarão e bloquearão terceiros de raspar dados de sua plataforma e violar seus Termos de Serviço.

No entanto, reconheceu que os criadores podem querer colaborar com empresas de IA. Portanto, está trabalhando em maneiras de permitir que os criadores do YouTube controlem como terceiros usam seu conteúdo na plataforma.

Apesar da postura dura do YouTube contra empresas de IA que raspam seu conteúdo para treinar seus modelos, a plataforma e sua empresa controladora, o Google, usam esse conteúdo para o mesmo propósito, mas em conformidade com os termos de serviço. Ela planeja continuar usando o conteúdo para desenvolver ferramentas de IA de forma responsável.