Pe măsură ce înșelătoriile bazate pe inteligență artificială devin din ce în ce mai răspândite, firmele de securitate avertizează că această metodă de atac s-ar putea extinde dincolo de videoclipuri și audio.
Pe 4 septembrie, firma de software Gen Digital a raportat că actorii rău intenționați care folosesc escrocherii de deepfake bazate pe inteligență artificială pentru a frauda deținătorii de criptomonede și-au intensificat operațiunile în al doilea trimestru al anului 2024.
Compania a spus că grupul de escroci numit „CryptoCore” a înșelat deja peste 5 milioane de dolari în cripto, folosind deepfakes AI.
În timp ce cantitatea pare scăzută în comparație cu alte atacuri din spațiul cripto, profesioniștii în securitate cred că atacurile AI deepfake se pot extinde și mai mult, amenințănd siguranța activelor digitale.
Deepfakes AI amenință securitatea portofelului
Firma de securitate Web3 CertiK consideră că înșelătoriile de deepfake bazate pe inteligență artificială vor deveni mai sofisticate. Un purtător de cuvânt al CertiK a declarat pentru Cointelegraph că s-ar putea extinde și dincolo de videoclipuri și înregistrări audio în viitor.
CertiK a explicat că vectorul de atac ar putea fi folosit pentru a păcăli portofelele care folosesc recunoașterea facială pentru a oferi acces hackerilor. Purtătorul de cuvânt a spus:
„De exemplu, dacă un portofel se bazează pe recunoașterea facială pentru a securiza informațiile critice, trebuie să evalueze robustețea soluției sale împotriva amenințărilor bazate pe inteligență artificială.”
Din cauza acestora, purtătorul de cuvânt a spus că este important ca membrii comunității cripto să devină din ce în ce mai conștienți de modul în care funcționează acest atac.
Deepfake-urile AI vor continua să amenințe cripto
Luis Corrons, un evanghelist de securitate pentru compania de securitate cibernetică Norton, consideră că atacurile bazate pe inteligență artificială vor continua să vizeze deținătorii de criptomonede. Corrons a remarcat că cripto oferă recompense financiare semnificative și riscuri mai mici pentru hackeri. El a spus:
„Tranzacțiile cu criptomonede sunt adesea de mare valoare și pot fi efectuate în mod anonim, făcându-le o țintă mai atractivă pentru infractorii cibernetici, deoarece atacurile de succes generează recompense financiare mai semnificative și un risc mai mic de detectare.”
În plus, Corrons consideră că cripto încă nu are reglementări, oferind infractorilor cibernetici mai puține consecințe legale și mai multe oportunități de atac.
Cum să detectați atacurile deepfake alimentate de AI
În timp ce atacurile bazate pe inteligență artificială pot fi o mare amenințare pentru utilizatorii cripto, profesioniștii în securitate cred că există modalități prin care utilizatorii se pot proteja de acest tip de amenințare. Potrivit CertiK, educația ar fi un loc bun de început.
Un inginer CertiK a explicat că este important să cunoaștem amenințările și instrumentele și serviciile disponibile pentru a le combate. În plus, profesionistul a mai adăugat că este important să fii atent la cererile nesolicitate. CertiK a spus:
„A fi sceptic cu privire la cererile nesolicitate de bani sau informații personale este esențial, iar activarea autentificării multifactoriale pentru conturile sensibile poate contribui la adăugarea unui nivel suplimentar de protecție împotriva unor astfel de escrocherii.”
Între timp, Corrons consideră că există „steaguri roșii” pe care utilizatorii pot încerca să le detecteze pentru a evita înșelătoriile false profunde ale AI. Aceasta include mișcări nenaturale ale ochilor, expresii faciale și mișcări ale corpului.
În plus, lipsa de emoție ar putea fi, de asemenea, un mare semn. „De asemenea, puteți observa transformări faciale sau cusături de imagine dacă fața cuiva nu pare să prezinte emoția care ar trebui să vină împreună cu ceea ce se presupune că spune”, a explicat Corrons.
În afară de acestea, directorul a spus că formele corporale incomode, alinierea greșită și inconsecvențele audio ar trebui să ajute utilizatorii să stabilească dacă se uită la un deepfake AI sau nu.
Magazine: Exploatarea preferată a Grupului Lazarus a fost dezvăluită - Analiza hackurilor cripto