Theo một báo cáo mới được công bố hôm thứ Ba bởi công ty an ninh mạng SlashNext, tội phạm mạng do AI tạo ra đang nhanh chóng mở rộng, được tăng tốc nhờ sự ra mắt của một số công cụ mới trên darkweb ngoài việc phát hiện ra WormGPT vào tháng trước.

SlashNext kết luận, WormGPT và FraudGPT, được phát hành một tuần sau đó, chỉ là phần nổi của tảng băng chìm trong việc phát triển các công cụ trí tuệ nhân tạo mà tội phạm mạng nhằm mục đích sử dụng để chống lại nạn nhân. Riêng FraudGPT được xây dựng với khả năng tạo các trang web lừa đảo, viết mã độc, tạo công cụ hack và viết thư lừa đảo.

Các nhà nghiên cứu của SlashNext cho biết họ đã thu hút một cá nhân có bút danh tên là CanadianKingpin12 thông qua Telegram.

SlashNext cho biết: “Trong quá trình điều tra, chúng tôi đã đóng vai trò là người mua tiềm năng để tìm hiểu sâu hơn về CanadianKingpin12 và sản phẩm của họ, FraudGPT”. “Mục tiêu chính của chúng tôi là đánh giá xem FraudGPT có vượt trội hơn WormGPT về mặt khả năng và hiệu quả công nghệ hay không.”

Nhóm đã nhận được nhiều hơn những gì họ mong đợi với tư cách là người bán—đồng thời giới thiệu FraudGPT—cho biết các chatbot AI mới có tên DarkBart và DarkBert sắp ra mắt. Những chatbot đó, CanadianKingpin12 tuyên bố, sẽ có quyền truy cập internet và có thể tích hợp với công nghệ nhận dạng hình ảnh của Google, Google Lens, cho phép chatbot gửi cả văn bản và hình ảnh.

SlashNext lưu ý rằng DarkBert ban đầu được thiết kế bởi công ty tình báo dữ liệu S2W như một công cụ hợp pháp để chống lại tội phạm mạng, nhưng bọn tội phạm rõ ràng đã sử dụng lại công nghệ này để phạm tội mạng.

CanadianKingpin12 nói với các nhà nghiên cứu rằng DarkBert thậm chí có thể hỗ trợ các cuộc tấn công kỹ thuật xã hội tiên tiến, khai thác các lỗ hổng trong hệ thống máy tính và phát tán phần mềm độc hại khác, bao gồm cả ransomware.

David Schwed, giám đốc điều hành của công ty bảo mật blockchain Halborn, trước đây đã nói với Decrypt trên Telegram: “ChatGPT có sẵn các biện pháp bảo vệ để bảo vệ khỏi các trường hợp sử dụng bất hợp pháp hoặc bất chính”. "[WormGPT và FraudGPT] không có các biện pháp bảo vệ đó, vì vậy bạn có thể yêu cầu nó phát triển phần mềm độc hại cho bạn."

SlashNext cho biết người bán buộc phải chuyển thông tin liên lạc sang ứng dụng nhắn tin được mã hóa sau khi bị cấm tham gia diễn đàn do vi phạm chính sách — cụ thể là cố gắng bán quyền truy cập vào FraudGPT thông qua các diễn đàn trực tuyến trên “clear net” công khai.

Clear net hay còn gọi là web bề mặt, đề cập đến mạng internet chung mà các công cụ tìm kiếm có thể truy cập được. Trong hợp đồng, darknet hoặc darkweb không được các công cụ tìm kiếm lập chỉ mục và các trang web darknet thường không thể được tìm thấy thông qua tìm kiếm của Google. Mặc dù darkweb có liên quan đến tội phạm mạng và các thị trường trực tuyến bất hợp pháp như Con đường tơ lụa, nhưng nhiều người dùng—như nhà báo hoặc nhà bất đồng chính kiến—dựa vào darkweb để che giấu danh tính và bảo vệ quyền riêng tư của họ.

Để chống lại sự phát triển nhanh chóng của các công cụ tội phạm mạng do AI tạo ra, SlashNext khuyên các công ty nên chủ động đào tạo về an ninh mạng và thực hiện các biện pháp xác minh email nâng cao.

Khi tội phạm mạng đang chuyển sang AI để tạo ra các công cụ độc hại tiên tiến hơn, một báo cáo riêng của công ty bảo mật web Immunefi cho biết các chuyên gia an ninh mạng không gặp nhiều may mắn khi sử dụng AI để chống tội phạm mạng. Báo cáo của họ cho biết 64% chuyên gia được khảo sát cho biết chatbot của OpenAI cung cấp “độ chính xác hạn chế”, với 61% cho biết họ thiếu kiến ​​thức chuyên môn để xác định các hoạt động khai thác.

SlashNext cho biết: “Mặc dù rất khó để đánh giá chính xác tác động thực sự của những khả năng này, nhưng thật hợp lý khi kỳ vọng rằng chúng sẽ hạ thấp các rào cản đối với tội phạm mạng đầy tham vọng”. “Hơn nữa, sự phát triển nhanh chóng từ WormGPT sang FraudGPT và bây giờ là DarkBERT trong vòng chưa đầy một tháng, nhấn mạnh tầm ảnh hưởng đáng kể của AI độc hại đối với bối cảnh an ninh mạng và tội phạm mạng.”

#hackers