🔐 Microsoft đã phát hiện ra một cuộc tấn công "bẻ khóa" mới có tên "Skeleton Key" có thể lừa các hệ thống AI tiết lộ dữ liệu nhạy cảm. Chỉ cần nhắc mô hình AI sửa đổi các tính năng bảo mật của nó, kẻ tấn công có thể bỏ qua các nguyên tắc an toàn. Ví dụ: khi một mô hình AI được yêu cầu tạo công thức pha chế Molotov Cocktail, ban đầu nó đã từ chối. Tuy nhiên, khi được thông báo rằng người dùng là chuyên gia trong phòng thí nghiệm, nó đã tuân theo. Mặc dù điều này có thể vô hại đối với một số yêu cầu nhất định nhưng nó gây ra mối đe dọa nghiêm trọng khi liên quan đến dữ liệu chứa thông tin cá nhân và tài chính. Cuộc tấn công Skeleton Key hoạt động trên các mô hình AI phổ biến như GPT-3.5, GPT-4o và các mô hình khác. Microsoft đề xuất các hệ thống giám sát an toàn và lọc đầu vào/đầu ra được mã hóa cứng để ngăn chặn các cuộc tấn công như vậy.