6 Gefahren durch Deepfakes (2024)

Stellen Sie sich vor, Sie sehen ein Video von sich selbst, in dem Sie Dinge sagen oder tun, die Sie nie gesagt oder getan haben. Klingt wie Science-Fiction? Willkommen in der Welt der Deepfakes. Deepfakes sind eine neue Form synthetischer Medien, die durch den Einsatz von Künstlicher Intelligenz (KI) und maschinellem Lernen geschaffen werden. Diese Technologie kann verblüffend realistische Bilder, Videos und Audiodateien erschaffen. Es gibt erhebliche Gefahren durch Deepfakes, weiß Kriminalanalyst, Organisationspsychologe (M.A.) und KI Keynote Speaker.

Deepfake-Gefahr 1: CEO Fraud: "Hallo, hier spricht dein Chef"

Mit Hilfe von Deepfake-Technologie wird die Stimme von Führungskräften imitiert, um Mitarbeiter am Telefon zu täuschen. Mittlerweile genügen 30 Sekunden Ihrer Stimme, um die Stimme in einer Qualität zu klonen, sodass selbst Ihr Ehepartner oder Kinder es nicht mehr erkennen würden. Ja, eine Whatsapp-Sprachnachricht, Ihr Anrufbeantworter oder ein Unternehmens-Imagefilm können schon ausreichen. Ein bemerkenswerter Fall ereignete sich in Dubai, bei dem ein Angestellter gemäß Forbes Magazin beeindruckende 35 Millionen Dollar überwies, getäuscht durch einen der bisher raffiniertesten Deepfake-Anrufe. Die Täter spielen geschickt mit psychologischen Tricks der Cyberkriminalität, indem sie gezielt Emotionen wecken und Zeitdruck erzeugen.

Deepfake-Gefahr 2: Der Enkeltrick ist erwachsen geworden

Der Enkeltrick ist durch Deepfakes noch gefährlicher und weit realistischer geworden. Plötzlich hört man am Telefon die echte Stimme des Enkels. Die Betrugsmasche bei Whatsapp zu schreiben "Hallo Mama, ich habe eine neue Handynummer", gibt es schon lange. Doch die meisten unterschätzen wie überzeugend das sein kann, wenn es per Sprachnachricht mit der Stimme des Kindes kommt. Erste Fälle gab es bereits: Betrüger erstellen mit Deepfake-Technologie Videos, Anrufe oder WhatsApp-Sprachnachrichten, in denen sie sich als Familienmitglieder ausgeben, um Geld, Wertgegenstände oder wichtige Informationen (z.B. Banking-Zugangsdaten) zu stehlen.

6 Gefahren durch Deepfakes (1)

Deepfake-Gefahr 3: Politische Desinformation

Deepfake-Technologie birgt auch ein großes Risiko für politische Desinformation. Besonders in Wahlkampfzeiten können gefälschte Inhalte Politiker in peinlichen Situationen zeigen oder ihnen Aussagen zuschreiben, die sie nie gemacht haben. Auf Plattformen wie X, TikTok und Instagram verbreitete Deepfake-Videos können gezielt die öffentliche Meinung beeinflussen. Dadurch wird das Vertrauen der Wähler in Medien, Demokratie und die Kandidaten massic geschwächt. Oder anders formuliert: Der nächste US-Wahlkampf könnte hässlich werden.

6 Gefahren durch Deepfakes (2)

Deepfake-Gefahr 4: Deepfake-p*rnos & Cybermobbing

Jugendlichen und jungen Erwachsenen wird stets geraten keine Nacktbilder "Nudes" zu versenden, insbesondere keine, die auch das Gesicht oder Tattoos erkennbar zeigen. Das Phänomen diese später aus Rache auf ensprechenden Seiten zu veröffentlichen oder im Freundeskreis zu verbreiten existiert schon lange. Durch Deepfakes gibt es jetzt ein neues Problem: Es kann Material von Ihnen auf p*rnoseiten landen, ohne das Sie dieses Material je produziert oder versendet haben. Die Diffamierung und psychischen Folgen dürfen aber ähnlich dramatisch sein. Deepfake-p*rnos und synthetisch erzeugte Nacktbilder dürfen für Lehrkräfte und Schulen ein Problem sein, aber auch für Personen des öffentlichen Lebens. Leider befürchte ich auch, dass Personen wie Tailor Swift kaum etwas gegen Deepfake-p*rnos von sich unternehmen können. Hier bin ich Realist: Wo es eine Nachfrage gibt, wird es ein Angebot geben. Als Keynote Speaker für KI (die dunkle Seite) und Cybersecurity, ist mein Motto: Make it about people and not just about business: Auch die privaten Deepfake-Gefahren sollten nicht außer Acht gelassen werden.

Deepfake-Gefahr 5: Short-Attacken und Desinformation gegen Unternehmen

Ich sehe eine weitere Deepfake-Gefahr, wie Desinformation auch Unternehmen und deren Aktienkurse sensibel treffen kann. Stellen Sie sich vor Hacker targetieren ein börsennotiertes Unternehmen aus dem S-DAX. Sie erstellen ein Deepfake-Video in dem ein Mitglied der Geschäftsführung den Rücktritt erklärt wegen Ermittlungen wegen Betruges. Am besten sollte auch noch etwas vorkommen wie "Wirecard 2.0". Dieses Video wird dann z.B. über ein Botnetz massenhaft auf X oder TikTok verbreitet. Wie viel würde der Aktienkurs einbrechen? 2% oder sogar 10% oder mehr? Durch Short-Optionen lässt sich auch durch fallende Kurse ordendlich verdienen. Ein unrealistisches Szenario? Erinnern Sie sich an den Fall des Anschlags auf den BVB Mannschaftsbus? Ein Täter wollte den Mannschaftsbus sprengen. Motiv war es den Aktienkurs zu manipulieren, um davon finanziell zu profitieren. Shortangriffe durch Desinformation mit Deepfakes sehe ich definitiv als eine potentielle Gefahr für bösennotierte Unternehmen.

Deepfake-Gefahr 6: Kippt der Videobeweis vor Gericht?

Als Keynote Speaker für die "dunkle Seite der KI" weise ich oft darauf hin, dass sich durch Deepfakes schon bald unser Sinn für Realität wandeln wird. "Ich glaube nur was ich sehe", ist 2024 eben keine gültige Verifikation mehr. Wenn wir bei Videos in Zukunft grundsätzlich erst mal die Echtheit hinterfragen müssen, birgt dies noch eine weitere Gefahr. Sie kennen die verpixelten Videos nach Fällen von Raub, Einbruch oder Juwelendiebstahl wie im grünen Gewölbe. Ich bin ohnehin immer fassungslos über die schlechte Qualität, da jedes Iphone bessere Bilder macht. Es ist eine Frage der Zeit, bis ein cleverer Staranwalt vor Gericht argumentiert: "Ja das ist mein Mandant in dem Video, aber wir bezweifeln die Echtheit des Videos". In dubio pro reo, - im Zweifel für den Angeklagten. Nun müsste theoretisch die Anklage nachweisen, dass es sich nicht um einen Deepfake handelt. Dafür braucht es Technologie und Know-How und ich bin nicht sicher inweifern die Staatsanwaltschaften und Gerichte bisher darauf vorbereitet sind. In einer Welt in der Videos kinderlicht zu fälschen und nicht von der Realität zu unterscheiden sind: Kippt der Videosbeweis vor Gericht?

Sie wollen mehr erfahren oder einen Impuls-Vortrag buchen?

6 Gefahren durch Deepfakes (3)

Mark T. Hofmann ist Kriminal- & Geheimdienstanalyst und Organisationspsychologe (M.A.). Er ist bekannt als Profiling-Experte durch internationale TV-Formate (ARD, CNN, CBS, 60 Minutes, n-tv). Er hat sich auf das Verhaltens- & Cyber-Profiling spezialisiert und begeistert Menschen auf der ganzen Welt für die dunkle Seite der KI & Cybersecurity. Hofmann geht ins Darknet und probiert durch Analysen und Gespräche aus erster Hand zu erfahren wer die Täter sind, wie sie ticken und wie sie KI & Deepfakes nutzen. Lassen Sie sich von einem der bekanntesten KI Keynote-Speaker einen inspirierenden Einblick geben in den Kopf der Täter, neue KI-Methoden und die Psychologie der Cyberkriminalität.

6 Gefahren durch Deepfakes (2024)

References

Top Articles
Latest Posts
Article information

Author: Cheryll Lueilwitz

Last Updated:

Views: 5998

Rating: 4.3 / 5 (74 voted)

Reviews: 89% of readers found this page helpful

Author information

Name: Cheryll Lueilwitz

Birthday: 1997-12-23

Address: 4653 O'Kon Hill, Lake Juanstad, AR 65469

Phone: +494124489301

Job: Marketing Representative

Hobby: Reading, Ice skating, Foraging, BASE jumping, Hiking, Skateboarding, Kayaking

Introduction: My name is Cheryll Lueilwitz, I am a sparkling, clean, super, lucky, joyous, outstanding, lucky person who loves writing and wants to share my knowledge and understanding with you.