Ngày 28/3, Microsoft thông báo về việc bổ sung nhiều tính năng bảo mật cho dịch vụ đám mây Azure AI Studio, nhằm giảm thiểu khả năng người dùng tạo ra các mô hình chatbot AI cho hoạt động bất thường hoặc không phù hợp.

Azure AI Studio là một môi trường phát triển trực quan dựa trên web cho phép người dùng đào tạo và triển khai các mô hình trí tuệ nhân tạo (AI) một cách nhanh chóng và dễ dàng.

Các tính năng chính được bổ sung bao gồm Lá chắn nhắc nhở (Prompt shields), giúp ngăn chặn “jailbreak” – việc người dùng cố tình đưa ra những yêu cầu đặc biệt để AI trả về kết quả xấu. Ví dụ, kẻ gian có thể dùng “jailbreak” để đánh cắp dữ liệu hoặc chiếm quyền điều khiển hệ thống.

Azure AI Studio sẽ sớm hiển thị cảnh báo khi phát hiện mẫu AI có khả năng đưa ra thông tin sai lệch hoặc gây hiểu lầm.

Là nhà đầu tư và đối tác chiến lược lớn nhất của OpenAI, Microsoft đang nỗ lực thúc đẩy việc phát triển các công nghệ AI an toàn và có trách nhiệm. Những nỗ lực này là một phần trong chiến lược lớn hơn nhằm đảm bảo an toàn trong lĩnh vực AI nói chung.

Tuy nhiên, Sarah Bird, Giám đốc sản phẩm phụ trách AI của Microsoft cho biết, nguy cơ các mẫu ngôn ngữ lớn (Large Language Models) nói riêng và các sản phẩm AI nói chung vẫn có khả năng bị thao túng sẽ tăng lên cùng với sự phổ biến của công nghệ này. Để đảm bảo an toàn, cần có một chiến lược toàn diện về an ninh cho AI, chứ không chỉ dựa vào chính các mẫu này.

Các biện pháp tăng cường bảo mật cho Azure AI Studio cho thấy Microsoft đang chủ động ứng phó với các mối đe dọa an ninh liên quan đến AI. Đây là động thái cần thiết để tránh lạm dụng AI và duy trì tính toàn vẹn của tương tác AI trong tương lai.