Bài viết: Azuma, Odaily Planet Daily

Vào lúc 11 giờ sáng ngày 22 tháng 11 theo giờ Bắc Kinh, người sáng lập SlowFog Yu Xian đã đăng tải một trường hợp kỳ lạ trên X — ví của một người dùng bị AI 'đánh cắp'...

Diễn biến của vụ việc như sau.

Sáng nay, người dùng X r_ocky.eth đã tiết lộ rằng trước đó anh ta đã hy vọng sử dụng ChatGPT để tạo ra một bot giao dịch hỗ trợ pump.fun.

r_ocky.eth đã đưa ra nhu cầu của mình với ChatGPT, ChatGPT đã trả lại cho anh ta một đoạn mã, đoạn mã này thực sự có thể giúp r_ocky.eth triển khai bot phù hợp với nhu cầu của mình, nhưng anh ta không ngờ rằng trong đoạn mã lại chứa một nội dung lừa đảo — r_ocky.eth đã kết nối ví chính của mình và do đó đã mất 2500 đô la.

Từ ảnh chụp màn hình mà r_ocky.eth đã đăng, đoạn mã mà ChatGPT cung cấp sẽ gửi khóa riêng địa chỉ tới một trang web API có tính chất lừa đảo, đây cũng chính là nguyên nhân trực tiếp dẫn đến vụ trộm.

Trong khi r_ocky.eth mắc bẫy, kẻ tấn công đã phản ứng rất nhanh, chỉ trong nửa giờ đã chuyển tất cả tài sản trong ví r_ocky.eth sang một địa chỉ khác (FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX), ngay lập tức r_ocky.eth đã tìm thấy một địa chỉ nghi ngờ là ví chính của kẻ tấn công qua theo dõi trên chuỗi (2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC).

Thông tin trên chuỗi cho thấy địa chỉ đó hiện đã tích lũy hơn 100.000 đô la 'tiền bẩn', r_ocky.eth do đó nghi ngờ rằng loại tấn công này có thể không phải là trường hợp đơn lẻ, mà là một sự kiện tấn công đã có quy mô nhất định.

Sau đó, r_ocky.eth thất vọng cho biết đã mất niềm tin vào OpenAI (công ty phát triển ChatGPT) và kêu gọi OpenAI nhanh chóng dọn dẹp nội dung lừa đảo bất thường.

Vậy, với tư cách là ứng dụng AI phổ biến nhất hiện nay, tại sao ChatGPT lại cung cấp nội dung lừa đảo?

Về vấn đề này, Yu Xian đã xác định nguyên nhân gốc rễ của vụ việc là 'tấn công tiêm nhiễm AI', và chỉ ra rằng có những hành vi lừa đảo phổ biến trong các mô hình LLM như ChatGPT, Claude.

Khái niệm 'tấn công tiêm nhiễm AI' chỉ hành vi cố ý phá hoại dữ liệu đào tạo AI hoặc thao túng thuật toán AI. Kẻ tấn công có thể là người nội bộ, chẳng hạn như nhân viên hiện tại hoặc trước đó không hài lòng, cũng có thể là hacker bên ngoài, động cơ của họ có thể bao gồm gây thiệt hại đến danh tiếng và thương hiệu, làm sai lệch độ tin cậy của quyết định AI, làm chậm hoặc phá hoại quy trình AI, v.v. Kẻ tấn công có thể thông qua việc cấy dữ liệu có nhãn hoặc đặc điểm gây hiểu lầm, làm sai lệch quá trình học của mô hình, dẫn đến mô hình tạo ra kết quả sai khi triển khai và vận hành.

Xét về sự kiện này, lý do ChatGPT cung cấp mã lừa đảo cho r_ocky.eth có khả năng cao là do mô hình AI đã bị nhiễm tài liệu có nội dung lừa đảo trong quá trình đào tạo, nhưng AI dường như không thể nhận diện nội dung lừa đảo ẩn dưới các tài liệu thông thường, AI đã học hỏi và sau đó cung cấp những nội dung lừa đảo này cho người dùng, dẫn đến sự kiện này xảy ra.

Với sự phát triển nhanh chóng và sự áp dụng rộng rãi của AI, mối đe dọa từ 'tấn công tiêm nhiễm' đã trở nên ngày càng lớn. Trong sự kiện này, mặc dù số tiền tổn thất tuyệt đối không lớn, nhưng tác động mở rộng của loại rủi ro này đủ để gây ra sự cảnh giác — giả sử điều này xảy ra trong các lĩnh vực khác, như lái xe hỗ trợ AI...

Trong khi trả lời câu hỏi của người dùng, Yu Xian đã đề cập đến một biện pháp tiềm năng để tránh rủi ro như vậy, đó là thêm một cơ chế kiểm tra mã nào đó từ ChatGPT.

Nạn nhân r_ocky.eth cũng cho biết đã liên hệ với OpenAI về vụ việc này, mặc dù tạm thời chưa nhận được phản hồi, nhưng hy vọng vụ án này có thể trở thành cơ hội để OpenAI chú ý đến các rủi ro như vậy và đề xuất các giải pháp tiềm năng.