28 марта Microsoft объявила о добавлении множества функций безопасности в облачную службу Azure AI Studio, чтобы свести к минимуму возможность создания пользователями моделей чат-ботов с искусственным интеллектом для необычных или ненадлежащих действий.

Azure AI Studio — это веб-среда визуальной разработки, которая позволяет пользователям быстро и легко обучать и развертывать модели искусственного интеллекта (ИИ).

Ключевые дополнительные функции включают защиту подсказок, которая помогает предотвратить «взлом джейлбрейка» — когда пользователи намеренно делают специальные запросы, чтобы ИИ возвращал неверные результаты. Например, мошенники могут использовать «побег из тюрьмы», чтобы украсть данные или захватить контроль над системой.

Azure AI Studio скоро будет отображать предупреждения при обнаружении образцов ИИ, которые потенциально предоставляют ложную или вводящую в заблуждение информацию.

Являясь крупнейшим инвестором и стратегическим партнером OpenAI, Microsoft работает над продвижением развития безопасных и ответственных технологий искусственного интеллекта. Эти усилия являются частью более широкой стратегии по обеспечению безопасности в секторе искусственного интеллекта в целом.

Однако Сара Берд, менеджер по продукту, отвечающая за искусственный интеллект в Microsoft, сказала, что риск того, что большими языковыми моделями в частности и продуктами искусственного интеллекта в целом все еще можно манипулировать, будет возрастать с ростом популярности этой технологии. Для обеспечения безопасности необходима комплексная стратегия безопасности ИИ, а не просто полагаться на сами модели.

Улучшения безопасности для Azure AI Studio показывают, что Microsoft активно реагирует на угрозы безопасности, связанные с искусственным интеллектом. Это необходимый шаг, чтобы избежать злоупотреблений ИИ и сохранить целостность будущих взаимодействий ИИ.