Num futuro próximo, os usuários de aplicativos generativos de IA poderão encontrar rótulos que descrevam claramente como a IA deve ser utilizada, seus riscos associados e seu processo de teste. Seguindo as novas diretrizes, os rótulos se tornarão obrigatórios para facilitar a compreensão da tecnologia pelas massas.

Leia também: União Europeia (UE) assume liderança na regulamentação da IA

A Ministra das Comunicações e Informação de Singapura, Sra. Josephine Teo, disse que a nova medida é um esforço para definir um padrão de transparência e testes para empresas de tecnologia. Ela falou na conferência de tecnologia de proteção de dados pessoais em 15 de julho, de acordo com uma reportagem do Strait Times. 

Os desenvolvedores de aplicativos de IA devem ser transparentes sobre suas inovações

Assim como a prática de como os medicamentos ou eletrodomésticos carregam rótulos de segurança, na mesma prática, os desenvolvedores de aplicativos generativos de IA devem ser claros ao informar os usuários sobre o uso e o desenvolvimento do modelo de IA. A Sra. Teo, que também é Ministra responsável pela iniciativa Nação Inteligente e Segurança Cibernética, disse:

“Recomendaremos que os desenvolvedores e implantadores sejam transparentes com os usuários, fornecendo informações sobre como funcionam os modelos e aplicativos generativos de IA.”

Explicando as próximas regras, o ministro disse que são as mesmas de quando um utente abre uma “caixa de medicamento sem receita”. Eles encontram uma folha de papel que indica claramente como o medicamento deve ser usado e os possíveis “efeitos colaterais que você pode enfrentar”.

Teo afirmou que “este nível de transparência” é necessário para sistemas de IA que são construídos sobre uma inteligência artificial generativa. O novo conjunto de regras definirá parâmetros de segurança que deverão ser praticados antes de um modelo de IA ser disponibilizado ao público. 

Guia sobre anonimato de dados previsto para ser lançado em 2025

A inteligência artificial generativa é um gênero de IA capaz de gerar novos textos e imagens e não é tão previsível quanto a IA tradicional. De acordo com as novas diretrizes, os criadores serão obrigados a mencionar os riscos de disseminação de mentiras, comentários hostis e narrativas tendenciosas no conteúdo.

Teo disse que os eletrodomésticos vêm com etiquetas que indicam claramente que o item está sendo testado para uso seguro; caso contrário, o cliente não saberá se o aparelho é seguro ou não. O mesmo será praticado para aplicações de IA. A Autoridade de Desenvolvimento de Mídia Infocomm (IMDA) de Cingapura iniciará uma consulta com a indústria sobre as novas regras. Porém, Teo não mencionou data para as orientações.

A IMDA também publicou um guia sobre questões relacionadas à privacidade em tecnologia, que atenderá à crescente demanda por dados para treinar modelos de IA e, ao mesmo tempo, proteger a privacidade dos usuários, disse Teo.

Leia também: Mesa redonda democrata para receber Mark Cuban e Brad Garlinghouse para discutir regulamentações de criptografia

A executiva-chefe assistente da IMDA, Denise Wong, disse: Manter os dados seguros em IA generativa é mais desafiador para a indústria. Ela deu sua opinião em um painel de discussão separado sobre IA e privacidade de dados durante o evento. Representantes de diferentes empresas de tecnologia fizeram parte do painel, incluindo a OpenAI, fabricante do ChatGPT, e a empresa de consultoria Accenture. 

As proteções de proteção de dados devem estar em vigor em todos os estágios de desenvolvimento e implantação de IA, disse a chefe jurídica de privacidade da OpenAI, Jessica Gan Lee. Ela disse que os modelos de IA deveriam ser treinados em diversos conjuntos de dados de “todos os cantos do mundo”. Lee enfatizou que múltiplas culturas, idiomas e fontes deveriam ser incluídas no treinamento em IA, além de encontrar maneiras de limitar o processamento de dados pessoais.

Teo disse que um guia sobre anonimato de dados será introduzido para empresas que operam na ASEAN no início de 2025. O guia resultará de uma reunião em fevereiro entre autoridades regionais que exploraram formas de criar um ecossistema digital global seguro.