Num desenvolvimento recente que visa melhorar a segurança e a transparência da inteligência artificial, o Google introduziu três novos modelos generativos de IA. Esses modelos, parte da série Gemma 2 do Google, são projetados para serem mais seguros, mais eficientes e mais transparentes do que muitos modelos existentes.

Uma postagem de blog no site da empresa afirma que os novos modelos – Gemma 2 2B, ShieldGemma e Gemma Scope – baseiam-se na base estabelecida pela série Gemma 2 original, lançada em maio.

Uma nova era de IA com Gemma 2

Diferentemente dos modelos Gemini do Google, a série Gemma é de código aberto. Essa abordagem reflete a estratégia da Meta com seus modelos Llama, visando fornecer ferramentas de IA acessíveis e robustas para um público mais amplo.

Gemma 2 2B é um modelo leve para gerar e analisar texto. Ele é versátil o suficiente para rodar em vários hardwares, incluindo laptops e dispositivos de ponta. Sua capacidade de funcionar em diferentes ambientes o torna uma opção atraente para desenvolvedores e pesquisadores que buscam soluções de IA flexíveis.

Enquanto isso, o modelo ShieldGemma foca em melhorar a segurança agindo como uma coleção de classificadores de segurança. O ShieldGemma é construído para detectar e filtrar conteúdo tóxico, incluindo discurso de ódio, assédio e material sexualmente explícito. Ele opera em cima do Gemma 2, fornecendo uma camada de moderação de conteúdo crucial no cenário digital de hoje.

De acordo com o Google, o ShieldGemma pode filtrar prompts para um modelo generativo e o conteúdo gerado, tornando-o uma ferramenta valiosa para manter a integridade e a segurança do conteúdo gerado por IA.

O modelo Gemma Scope permite que os desenvolvedores obtenham insights mais profundos sobre o funcionamento interno dos modelos Gemma 2. De acordo com o Google, o Gemma Scope consiste em redes neurais especializadas que ajudam a desempacotar as informações densas e complexas processadas pelo Gemma 2.

Relacionado: US Copyright Office relata ‘necessidade urgente’ de proteção contra deepfakes

Ao expandir essas informações para uma forma mais interpretável, os pesquisadores podem entender melhor como o Gemma 2 identifica padrões, processa dados e faz previsões. Essa transparência é vital para melhorar a confiabilidade e a confiabilidade da IA.

Abordando as preocupações de segurança e o endosso do governo

O lançamento desses modelos pelo Google também ocorre na sequência de um aviso do engenheiro da Microsoft Shane Jones, que levantou preocupações sobre as ferramentas de IA do Google criarem imagens violentas e sexuais e ignorarem direitos autorais.

O lançamento desses novos modelos coincide com um relatório preliminar do Departamento de Comércio dos EUA endossando modelos de IA aberta. O relatório destaca os benefícios de tornar a IA generativa mais acessível a empresas menores, pesquisadores, organizações sem fins lucrativos e desenvolvedores individuais.

No entanto, também enfatiza a importância de monitorar esses modelos quanto a riscos potenciais, ressaltando a necessidade de medidas de segurança como as implementadas no ShieldGemma.

Revista: A verdade por trás da resposta da IA, pânico com a imagem do copiloto, deepfakes de Trump: AI Eye