El 28 de marzo, Microsoft anunció la adición de muchas características de seguridad al servicio en la nube Azure AI Studio, para minimizar la posibilidad de que los usuarios creen modelos de chatbot de IA para actividades inusuales o inapropiadas.

Azure AI Studio es un entorno de desarrollo visual basado en web que permite a los usuarios entrenar e implementar modelos de inteligencia artificial (IA) de forma rápida y sencilla.

Las características adicionales clave incluyen escudos de aviso, que ayudan a prevenir el "jailbreaking", donde los usuarios hacen solicitudes especiales intencionalmente para que la IA arroje malos resultados. Por ejemplo, los delincuentes pueden utilizar el "jailbreak" para robar datos o tomar el control del sistema.

Azure AI Studio pronto mostrará advertencias cuando detecte muestras de IA que potencialmente proporcionen información falsa o engañosa.

Como mayor inversor y socio estratégico de OpenAI, Microsoft está trabajando para promover el desarrollo de tecnologías de IA seguras y responsables. Estos esfuerzos son parte de una estrategia más amplia para garantizar la seguridad en el sector de la IA en su conjunto.

Sin embargo, Sarah Bird, directora de producto a cargo de IA en Microsoft, afirmó que el riesgo de que los modelos de lenguajes grandes en particular y los productos de IA en general sigan siendo capaces de ser manipulados aumentará con la popularidad de esta tecnología. Para garantizar la seguridad, se necesita una estrategia integral de seguridad de la IA, que no dependa únicamente de los modelos mismos.

Las mejoras de seguridad para Azure AI Studio muestran que Microsoft está respondiendo de manera proactiva a las amenazas de seguridad relacionadas con la IA. Este es un paso necesario para evitar el abuso de la IA y mantener la integridad de futuras interacciones de la IA.