Em 28 de março, a Microsoft anunciou a adição de muitos recursos de segurança ao serviço de nuvem Azure AI Studio, para minimizar a possibilidade de os usuários criarem modelos de chatbot de IA para atividades incomuns ou inadequadas.

O Azure AI Studio é um ambiente de desenvolvimento visual baseado na Web que permite aos usuários treinar e implantar modelos de inteligência artificial (IA) de forma rápida e fácil.

Os principais recursos adicionados incluem escudos de prompt, que ajudam a evitar “jailbreaking” – onde os usuários fazem solicitações especiais intencionalmente para que a IA retorne resultados ruins. Por exemplo, os criminosos podem usar o “jailbreak” para roubar dados ou assumir o controle do sistema.

O Azure AI Studio exibirá em breve avisos quando detectar amostras de IA que possam fornecer informações falsas ou enganosas.

Como maior investidor e parceiro estratégico da OpenAI, a Microsoft está a trabalhar para promover o desenvolvimento de tecnologias de IA seguras e responsáveis. Estes esforços fazem parte de uma estratégia mais ampla para garantir a segurança no setor da IA ​​como um todo.

No entanto, Sarah Bird, gerente de produto responsável pela IA da Microsoft, disse que o risco de que os grandes modelos de linguagem em particular e os produtos de IA em geral ainda sejam capazes de serem manipulados aumentará com a popularidade desta tecnologia. Para garantir a segurança, é necessária uma estratégia abrangente de segurança de IA, e não apenas baseada nos próprios modelos.

As melhorias de segurança do Azure AI Studio mostram que a Microsoft está respondendo proativamente às ameaças à segurança relacionadas à IA. Esta é uma medida necessária para evitar abusos de IA e manter a integridade de futuras interações de IA.