Experte erklärt Deepfake-Gefahren

Sechs Gefahren durch Deepfake-Videos

Stellen Sie sich vor, Sie sehen ein Video von jemandem, der etwas sagt oder tut, was er nie gesagt oder getan hat. Klingt wie Science-Fiction? Willkommen in der faszinierenden Welt der Deepfakes! Deepfakes sind eine neue Form synthetischer Medien, die mithilfe von Künstlicher Intelligenz (KI) und maschinellem Lernen erstellt werden. Deepfake-Technologie kann täuschend echte, aber komplett gefälschte Bilder, Videos und Audiodateien erzeugen. Dies birgt Gefahren, weiß Kriminal- & Geheimdienstanalyst & KI-Speaker Mark T. Hofmann.

6 Gefahren durch Deepfake Experte erklärt
Cybercrime

Deepfake Gefahren:

„30 Sekunden genügen und Ihre Stimme ist geklont.“

Ja, mittlerweile genügt ein einziges Instagram-Reel oder eine Whatsapp-Sprachnachricht, um Ihre Stimme zu klonen, sodass selbst Ihr Ehepartner nicht erkennen würde, dass es nicht Sie selbst sind. Von Identitätsdiebstahl bis hin zu Desinformation: Die technische Möglichkeit jede Person in jeder Sprache alles sagen zu lassen, gibt Cyberkriminellen völlig neue Möglichkeiten.

Deepfake Gefahr identitätsdiebstahl und Desinformation

Deepfake Gefahr 1:

Der Enkeltrick ist erwachsen geworden

Der Enkeltrick kommt durch Deepfakes auf ein völlig neues Level. Plötzlich ist die „echte“ Stimme des Enkels am Hörer. Hacker nutzen KI & Deepfakes bereits heute für ihre Angriffe. Betrüger nutzen Deepfakes, um Videos, Anrufe oder Whatsapp-Sprachnachrichten zu erzeugen, in denen sie sich als Angehörige ausgeben, um Geld, Wertgegenstände oder sensible Informationen zu erschleichen.

Deepfake Gefahr identitätsdiebstahl und Desinformation

Deepfake Gefahr 2:

CEO-Fraud: „Hallo, Hier spricht der Chef!“

Was der Enkeltrick im Privaten ist, ist der CEO-Fraud im Geschäftsleben. Die Stimme von Führungskräften wird mit Deepfake-Technologie geklont, um dann Angestellte am Telefon zu manipulieren. In einem Fall in Dubai überwies ein Angestellter 35 Millionen $ in einem der bisher spektakulärten Fälle von Deepfake-Anrufen. Täter nutzen dabei die Psychologie der Cyberkriminalität und erzeugen Emotion und Zeitdruck.

Profiling Experte & KI Keynote Speaker

Die dunkle Seite der KI

Mark T. Hofmann ist einer der bekanntesten Profiling-Experten (ARD, CNN, Forbes, RTL) und erklärt die „dunkle Seite“ der KI. Er ist Kriminal- & Geheimdienstanalyst, Organisationspsychologe und gefragter Keynote Speaker für künstliche Intelligenz. Er geht ins Darknet, besucht die dunklen Orte des Internets und probiert aus erster Hand zu erfahren wer die Täter sind und wie Hacker bereits jetzt KI & Deepfakes nutzen. Hacker nutzen beispielsweise auch KI um fehlerfreie Phishing E-Mails zu produzieren oder Malware zu generieren, ganz ohne Programmierkenntnisse.

Impulsvortrag buchen
Deepfake Gefahr identitätsdiebstahl und Desinformation

Deepfake Gefahr 3:

Politische Desinformation

Die Deepfake-Technologie stellt eine erhebliche Gefahr für die politische Desinformation dar. Insbesondere während des Wahlkampfes können manipulierte Inhalte Politiker in kompromittierenden Situationen darstellen oder ihnen Worte in den Mund legen, die sie nie gesagt haben. Deepfake-Videos die auf X, TikTok oder Instagram systematisch gestreut werden, können die öffentliche Meinung manipulieren. Dies kann das Vertrauen der Wähler in Demokratie, die Kandidaten und die Presse untergraben.

Deepfake Gefahr identitätsdiebstahl und Desinformation

Deepfake Gefahr 4:

Cybermobbing & Deepfake-Pornos

Deepfake-Inhalte zu Lehrern oder Mitschülern sind bereits ein Problem. Falschinformationen durch Deepfakes lassen sich natürlich auch gegen Privatpersonen richten, mit dem Ziel des Cybermobbings, der Verleumdung oder Diffamierung. Ein besonders brisantes Beispiel sind pornografische Deepfakes z.B. von Prominenten oder Personen des öffentlichen Lebens. Die psychischen Folgen solcher Fälle sind nicht zu unterschätzen.

Profiling Experte & Cybersecurity Keynote Speaker

Hacker: Kriminelle Masterminds?

Clevere Serienkiller wie Dr. Hannibal Lecter sind eher ein Hollywood Mythos. Der Intellekt der meisten Serienmörder hält sich stark in Grenzen. Gibt es Täter, die extrem clever sind und tatsächlich das Katz-Maus Spiel mit dem FBI ein Teil Ihres Motivs ist? Ja: Hacker, – erklärt Mark T. Hofmann, Experte für Verhaltens- & Cyber-Profiling & KI Keynote Speaker.

Impulsvortrag buchen
Deepfake Gefahr identitätsdiebstahl und Desinformation

Deepfake Gefahr 5:

Reputationsangriffe auf Unternehmen

Stellen Sie sich vor es wird ein Deepfake-Video eines CEOs eines börsennotierten Konzernt erstellt: Es kündigt seinen Rücktritt an, da die Staatsanwaltschaft ermittelt. Wird dies über ein Botnetz oder hunderte Fake-Accounts im Netz verbreitet, ist der Reputationsschaden groß. Wie viel Prozent würde die Aktie fallen? 5%? Oder sogar 10-30%? So genannte „Short-Attacken“, um von fallenden Aktienkursen zu profitieren sind eine weitere Deepfake-Gefahr.

Deepfake Gefahr identitätsdiebstahl und Desinformation

Deepfake Gefahr 6:

Gerät der Videobeweis vor Gericht ins Wanken?

Bei Bankraub oder Einbrüchen spielt nicht selten der Videobeweis vor Gericht eine wichtige Rolle. Oft sind dies verpixelte Videos in schlechter Qualität, die aber als Beweise zugelassen werden. Ist das in Zeiten von Deepfake-Videos aufrecht zu erhalten? Was wenn ein Täter behaupter, das Video sei ein Deepfake? In dubio pro reo: Im Zweifel für den Angeklagten. Ob ein Video echt ist, wird Gerichte noch vor neue Probleme stellen.

„Deepfakes sind wie ein digitaler Wolf im Schafspelz. Menschen unterschätzen wie glaubwürdig es klingen kann die Stimme des eigenen Chefs am Telefon zu hören.“

Mark T. Hofmann (Kriminalanalyst & Keynote Speaker KI)

Impulsvortrag buchen

Cybersecurity-Podcast mit Deepfake Beispielen

Im Podcast „Psychology of Cybercrime“ bei Apple Podcasts und Spotify, nimmt Sie Mark T. Hofmann mit auf eine Reise in den Kopf der Täter. Die erste Folge ist eine Einführung in das Thema und enthält auch Beispiele zu den Gefahren durch Deepfakes.

Mark T. Hofmann als Redner & Experten für Ihr Event anfragen.

Ein unverbindliches Angebot senden wir Ihnen werktags innerhalb von 24 Stunden.

Weiterführende Informationen zu den Gefahren durch Deepfakes finden Sie auch auf der Website des BSI.

KI-Impuls-Vortrag anfragen