TLDR

  • KI wird für verschiedene Arten von Betrug eingesetzt, darunter Stimmklonen, personalisiertes Phishing, Identitätsbetrug und Deepfake-Erpressung.

  • Morgan Freeman hat sich gegen unerlaubte KI-Stimmimitationen seiner selbst ausgesprochen

  • Prominente wie Scarlett Johansson und Drake hatten Probleme mit KI-generierten Inhalten, die ihre Stimmen imitierten

  • In der Unterhaltungsindustrie wächst die Besorgnis über den Missbrauch von KI-Technologie

  • Experten empfehlen Wachsamkeit und bewährte Cybersicherheitspraktiken zum Schutz vor KI-gestützten Betrügereien

Mit der Weiterentwicklung der künstlichen Intelligenz (KI) finden Betrüger neue Wege, diese für böswillige Zwecke auszunutzen.

Von der Stimmklonierung bis zur Deepfake-Erpressung werden KI-gestützte Betrügereien immer ausgefeilter und sind immer schwerer zu erkennen.

Gleichzeitig sprechen sich Prominente gegen die unbefugte Verwendung ihrer Stimmen und Bildnisse in KI-generierten Inhalten aus.

Eine der besorgniserregendsten KI-Betrügereien betrifft das Klonen der Stimmen von Familie und Freunden. Betrüger können jetzt mit nur wenigen Sekunden Audio überzeugende gefälschte Versionen der Stimmen von Angehörigen erstellen.

Diese synthetischen Stimmen können verwendet werden, um gefälschte Notrufe zu erstellen, in denen um Geld oder Hilfe gebeten wird. Experten raten, bei unerwarteten Anrufen von unbekannten Nummern vorsichtig zu sein und die Identität des Anrufers über normale Kommunikationskanäle zu überprüfen.

Personalisierte Phishing- und Spam-E-Mails stellen eine weitere wachsende Bedrohung dar. KI-Sprachmodelle können jetzt mithilfe von persönlichen Informationen, die durch Datenlecks erlangt wurden, personalisierte Spam-Nachrichten generieren.

Diese maßgeschneiderten Nachrichten sind viel überzeugender als herkömmlicher generischer Spam. Benutzern wird geraten, wachsam zu bleiben und nicht auf Links zu klicken oder Anhänge aus verdächtigen Quellen zu öffnen, selbst wenn die Nachricht personalisiert zu sein scheint.

Auch Identitätsbetrug wird durch KI immer raffinierter. Betrüger können jetzt KI-Personas erstellen, die wie eine Zielperson klingen und Zugriff auf viele persönliche Daten haben, die zur Identitätsüberprüfung verwendet werden.

Dadurch können sie sich leichter als Einzelpersonen ausgeben, wenn sie den Kundendienst kontaktieren. Experten empfehlen die Verwendung einer mehrstufigen Authentifizierung und Vorsicht bei verdächtigen Kontoaktivitäten.

Die vielleicht besorgniserregendste Entwicklung ist der Einsatz KI-generierter Deepfakes zu Erpressungszwecken.

Mit modernen Bildgenerierungsmodellen lassen sich heute realistische Nacktbilder von fast jedem erstellen, die Betrüger als Druckmittel für Erpressungen einsetzen können. Dies ist zwar ein beunruhigender Trend, doch Experten weisen darauf hin, dass diesen gefälschten Bildern oft Erkennungsmerkmale fehlen und sie offensichtliche Mängel aufweisen können. Opfern wird geraten, solche Vorfälle den Behörden zu melden.

Die Unterhaltungsindustrie ist besonders von unerlaubten KI-Imitationen betroffen.

Kürzlich sprach sich Schauspieler Morgan Freeman gegen KI-Stimmimitationen seiner selbst aus, die in den sozialen Medien kursieren. In einer Erklärung dankte Freeman seinen Fans für ihre „Wachsamkeit und Unterstützung bei der Anzeige der unerlaubten Verwendung einer KI-Stimme, die ihn imitiert“. Er betonte, wie wichtig es sei, angesichts dieser Technologie „Authentizität und Integrität“ zu wahren.

Vielen Dank an meine unglaublichen Fans für ihre Wachsamkeit und Unterstützung beim Aufzeigen der unbefugten Verwendung einer KI-Stimme, die mich imitiert. Ihr Einsatz trägt dazu bei, dass Authentizität und Integrität weiterhin oberste Priorität haben. Ich bin dankbar.#KI#Betrug#Nachahmung#Identitätsschutz

– Morgan Freeman (@morgan_freeman), 28. Juni 2024

Freeman ist mit seinen Bedenken nicht allein. Auch andere Prominente haben mit KI-generierten Inhalten ähnliche Probleme.

Scarlett Johanssons Rechtsanwälte haben OpenAI kürzlich wegen eines persönlichen KI-Sprachassistenten angeklagt, der ihrer Stimme bemerkenswert ähnlich klang, obwohl sie sich geweigert hatte, an dem Projekt teilzunehmen.

Auch der Rapper Drake sorgte für Kontroversen, weil er in einem Song KI-generierte Imitationen von Tupac Shakur und Snoop Dogg verwendete, was zu einer Unterlassungsanordnung von Shakurs Nachlass führte.

Der Beitrag „Morgan Freeman und Prominente sprechen sich gegen unerlaubte KI-Imitationen aus“ erschien zuerst auf Blockonomi.