"Các nhà nghiên cứu của Microsoft vừa phát hiện ra một hình thức tấn công mới gọi là 'Skeleton Key', có thể gỡ bỏ các biện pháp bảo vệ ngăn AI từ việc xuất ra dữ liệu nguy hiểm và nhạy cảm. Ví dụ, một mô hình AI được yêu cầu tạo ra công thức cho 'Molotov Cocktail' nhưng từ chối vì lý do an toàn. Nhưng với 'Skeleton Key', chỉ cần nói với mô hình rằng người dùng là chuyên gia trong một môi trường phòng thí nghiệm, mô hình sẽ thay đổi hành vi của nó và xuất ra công thức có thể hoạt động. Loại tấn công này có thể gây ra hậu quả nghiêm trọng nếu liên quan đến dữ liệu cá nhân và tài chính. Microsoft khuyến nghị các tổ chức nên áp dụng các biện pháp như lọc đầu vào/đầu ra cứng và hệ thống giám sát an toàn để ngăn chặn tấn công 'Skeleton Key'. #AI #Microsoft #SkeletonKey 🗝️. Các bạn nghĩ gì về vấn đề này? Hãy để lại ý kiến của bạn trong phần bình luận!"