#BOT #GPT #AI模型
Gọi là niềm vui bất ngờ, đó chính là:
Một người dùng nào đó cho biết, khi sử dụng ChatGPT để tạo mã phát triển một robot giao dịch tự động blockchain, mã được GPT đề xuất có chứa một lỗ hổng, gửi khóa riêng đến trang web lừa đảo, dẫn đến tổn thất khoảng 2500 đô la.
Người sáng lập SlowMist, Yu Xian, đã xác nhận rằng thực sự có trường hợp bị hack khi sử dụng AI để tạo mã. Loại tấn công này có thể xuất phát từ việc AI học được các mẫu độc hại từ các bài viết lừa đảo hoặc nội dung không an toàn, trong khi các mô hình AI hiện tại gặp khó khăn trong việc phân biệt xem có tồn tại lỗ hổng trong mã hay không, cần tránh sự tin tưởng mù quáng vào mã do AI tạo ra.