Il 28 marzo, Microsoft ha annunciato l'aggiunta di molte funzionalità di sicurezza al servizio cloud Azure AI Studio, per ridurre al minimo la possibilità che gli utenti creino modelli di chatbot AI per attività insolite o inappropriate.

Azure AI Studio è un ambiente di sviluppo visivo basato sul Web che consente agli utenti di addestrare e distribuire modelli di intelligenza artificiale (AI) in modo rapido e semplice.

Le principali funzionalità aggiunte includono gli scudi Prompt, che aiutano a prevenire il "jailbreaking", ovvero il caso in cui gli utenti effettuano intenzionalmente richieste speciali in modo che l'intelligenza artificiale restituisca risultati negativi. Ad esempio, i truffatori possono utilizzare il "jailbreak" per rubare dati o assumere il controllo del sistema.

Azure AI Studio visualizzerà presto avvisi quando rileva campioni di intelligenza artificiale che potrebbero fornire informazioni false o fuorvianti.

In qualità di maggiore investitore e partner strategico di OpenAI, Microsoft sta lavorando per promuovere lo sviluppo di tecnologie IA sicure e responsabili. Questi sforzi fanno parte di una strategia più ampia per garantire la sicurezza nel settore dell’intelligenza artificiale nel suo complesso.

Tuttavia, Sarah Bird, Product Manager responsabile dell'intelligenza artificiale presso Microsoft, ha affermato che con la popolarità di questa tecnologia aumenterà in futuro il rischio che i grandi modelli linguistici in particolare e i prodotti di intelligenza artificiale in generale possano ancora essere manipolati. Per garantire la sicurezza, è necessaria una strategia completa di sicurezza dell’intelligenza artificiale, non basandosi solo sui modelli stessi.

I miglioramenti alla sicurezza per Azure AI Studio mostrano che Microsoft sta rispondendo in modo proattivo alle minacce alla sicurezza legate all’intelligenza artificiale. Questa è una mossa necessaria per evitare l’abuso dell’IA e mantenere l’integrità delle future interazioni dell’IA.