#BOT #GPT #AI模型

Apa yang disebut kejutan tak terduga, inilah dia:

Seorang pengguna di x menyatakan bahwa saat menggunakan ChatGPT untuk menghasilkan kode dalam mengembangkan robot perdagangan otomatis berbasis blockchain, kode yang direkomendasikan oleh GPT menyembunyikan pintu belakang yang mengirimkan kunci pribadi ke situs phishing, mengakibatkan kerugian sekitar 2500 dolar.

Pendiri Slow Fog, Yu Xian, mengonfirmasi dalam sebuah postingan bahwa memang ada kasus di mana penggunaan AI untuk menghasilkan kode telah dibobol. Serangan semacam ini mungkin berasal dari pola jahat yang dipelajari AI dari konten phishing atau tidak aman, sementara model AI saat ini sulit untuk membedakan apakah ada pintu belakang dalam kode, sehingga perlu menghindari mempercayai kode yang dihasilkan oleh AI secara buta.