#BOT #GPT #AI模型
Was ist eine unerwartete Freude? Das ist es:
Ein Nutzer auf X gab an, dass beim Einsatz von ChatGPT zur Generierung von Code für einen automatisierten Blockchain-Handelsroboter, der von GPT empfohlene Code eine Hintertür enthielt, die den privaten Schlüssel an eine Phishing-Website sendete, was zu einem Verlust von etwa 2500 US-Dollar führte.
Der Gründer von Slow Mist, Yu Xian, bestätigte in einem Beitrag, dass es tatsächlich Fälle gibt, in denen durch die Verwendung von KI zur Code-Generierung gehackt wurde. Solche Angriffe könnten aus bösartigen Mustern resultieren, die die KI aus Phishing-Beiträgen oder unsicheren Inhalten gelernt hat, und die aktuellen KI-Modelle haben Schwierigkeiten, zu erkennen, ob im Code eine Hintertür vorhanden ist. Es ist wichtig, blindes Vertrauen in KI-generierten Code zu vermeiden.