1. September 2022

Wie Deepfakes zur Gefahr für Unternehmen werden

Deepfakes können Personen in Situationen darstellen, die so nie stattgefunden haben und legen ihnen Worte in den Mund, die sie nie gesagt haben. Vor ein paar Jahrzehnten war die Erstellung von Deepfakes nur etwas für Profis mit den entsprechenden Ressourcen, heute ist Deepfake Software im Netz für jeden frei verfügbar. Welche Voraussetzungen Deepfakes benötigen und welche Angriffsmethoden es gibt, erfahren Sie in diesem Artikel.

Was sind Deepfakes?

Deepfakes sind eine besondere Form der Manipulation von digitalen Identitäten bzw. Medieninhalten von Personen. Der Name setzt sich zusammen aus den Begriffen „Deep Learning“ und „Fake“ und spielt auf die Verwendung von tiefen neuronalen Netzen („deep neural networks“) an, die für die Erstellung verwendet werden. Deepfakes manipulieren Videos oder Audiospuren mit dem Ziel, die Rezipienten zu täuschen und/oder die Akteure bloßzustellen.

Lange Zeit war die Manipulation von dynamischen Medien wie Video oder Audio wesentlich aufwändiger als beispielsweise von Bildern. Mit dem rasanten technologischen Fortschritt und vor allem der Weiterentwicklung von künstlicher Intelligenz ist die Manipulation viel einfacher geworden. Heutzutage sind Fälschungen in hoher Qualität vergleichsweise einfach herzustellen und benötigen weniger Aufwand und Know-How.

In jüngster Zeit ist die Thematik der Deepfakes zum Beispiel durch ein Video auf der Social Media Plattform TikTok aufgekommen. Das Video zeigte vermeintlich den Hollywoodstar Tom Cruise, war aber in Wirklichkeit ein menschlicher Imitator, kombiniert mit einem quelloffenen KI-Algorithmus. Das zeigt, dass Deepfakes heutzutage auf den ersten Blick nicht mehr so einfach zu erkennen sind und dass auch technisch versierte Laien in der Lage sind, überzeugende Deepfakes zu produzieren.

Verschiedene Formen der Manipulation

Prinzipiell können die Formen der Manipulation in die drei Medienformate Video/Bild, Audio und Text unterteilt werden. Nach dem aktuellen technischen Stand ist also die Fälschung von Gesichtern, Stimmen und Texten möglich.

Fälschung von Gesichtern

Für die Fälschung von Gesichtern gibt es mehrere KI-basierte Verfahren. Die drei verbreitetsten Vorgehensweisen sind: Face-Swapping, Face-Reenactment und Synthetisierung. Beim Face-Swapping werden in einem Video Gesichter vertauscht, also zum Beispiel das Gesicht einer Zielperson über das eigentliche Gesicht der Person im Video gelegt. Dabei werden Gesichtsausdruck, Mimik, Beleuchtung und Blickrichtung der Ursprungsperson beibehalten, sodass es aussieht, als würde eine andere Person im Video handeln.

Beim Face-Reenactment werden die Mimik, Kopfbewegungen, Lippenbewegungen etc. einer Person in Videoform manipuliert. So werden täuschend echt Aussagen und Reaktionen dargestellt, die so nie stattgefunden haben.

Für beide Varianten lernt die Software die notwendigen Informationen zu Mimik und Bewegungen aus vorhandenem Videomaterial von der Zielperson und erzeugt daraus ein 3D-Modell, das dann über das Video gelegt wird. Mit ein wenig Zeitversatz kann diese Manipulation auch in Echtzeit erfolgen, also zum Beispiel in einer Videokonferenz. Für die Erstellung überzeugender Deepfakes sind nur einige Minuten Videomaterial zum Training der Software notwendig, sofern diese eine hohe Qualität aufweisen und möglichst viele unterschiedliche Gesichtsausdrücke zeigen. So kann man bereits mit kommerziellen Geräten und Software aus gängigen öffentlichen Software Bibliotheken hochqualitative gefälschte Nahaufnahmen einer Person erstellen.

Bei der Synthetisierung hingegen wird nicht auf eine reale Person zurückgegriffen, sondern Personen erzeugt, die in der Realität nicht existieren. Häufig werden dafür die äußeren Merkmale zweier Personen zusammengelegt, um ein neues Gesicht daraus zu generieren, das sich im Video bewegen kann wie ein realistischer Mensch.

Manipulation von Stimmen

Für die Manipulation von Stimmen werden aktuell vor allem zwei Verfahren genutzt: Text-to-Speech (TTS) und Voice Conversion (VC). Bei Text-to-Speech wird ein Text in eine Audiodatei umgewandelt, die sich für Menschen und auch für eine automatische Sprechererkennung wie die Zielperson anhört.

Bei einer Voice Conversion wird hingegen ein Audiosignal in die Zielstimme konvertiert, d.h. hier kann zum Beispiel in Verbindung mit einem manipulierten Video die passende Tonspur erstellt werden.

Für beide Verfahren benötigt die Software ebenfalls Daten zum Training. In diesem Fall sind aktuell noch mehrere Stunden hochqualitatives Audiomaterial notwendig, allerdings gibt es bereits Forschungsansätze, die mithilfe von Hilfsdaten aus großen Datenbanken diese Lernzeit der KI-basierten Software verkürzen.

Von Maschinen erstellte Texte

KI-Modelle können aus wenigen einleitenden Sätzen lange, zusammenhängende Texte generieren, bei denen auf den ersten Blick nicht erkennbar ist, dass sie nicht von einem Menschen, sondern von einer Maschine geschrieben wurden. Aktueller Einsatzbereich sind zum Beispiel Nachrichten oder Chatbots. Da für eine überzeugende Generierung zurzeit umfangreiche Textdatenbanken und eine hohe Rechenleistung erforderlich sind, können Privatpersonen auf Clouddienste zurückgreifen, um diese Ressourcen für sich zu nutzen.

Mögliche Bedrohungsszenarien mit Deepfakes für Unternehmen

Der Einsatz von KI-basierten Deepfakes eröffnet für Cyberkriminelle einige Angriffsmöglichkeiten. Folgende vier Bereiche sind für Unternehmen von besonderer Relevanz:

1. Biometrische Sicherheitssysteme umgehen

Insbesondere für Verfahren der Fernidentifikation über Video oder Stimmerkennung am Telefon sind Deepfakes eine Gefahr. Da Deepfakes bereits mit etwas Zeitverzögerung in Echtzeit eingesetzt werden können, besteht die Möglichkeit, biometrische Sicherheitssysteme zu überwinden.


2. Social Engineering

Mit einer gezielten Manipulation können Phishing-Angriffe noch gefährlicher werden. Insbesondere die Social Engineering Form des „CEO-Fraud“ erlangt durch Deepfakes neues Gefahrenpotenzial. So wurde beispielsweise bereits versucht, Mitarbeitende der Telekom mit einer gefälschten Whatsapp Sprachnachricht vom vermeintlichen Vorgesetzten zu einer Transaktion aufzufordern.


3. Desinformations-Kampagnen

Indem Video- und Audiosequenzen von Personen manipuliert werden, können Fehlinformationen verbreitet und zur gezielten Meinungsbildung eingesetzt werden.


4. Verleumdung

Ähnlich wie bei einer Desinformations-Kampagne können manipulierte Medieninhalte auch genutzt werden, um gezielt den Ruf von Personen zu schädigen, indem man ihnen im wahrsten Sinne des Wortes bestimmte Aussagen in den Mund legt oder sie in diffamierenden Situationen zeigt.

Insbesondere für Desinformations-Kampagnen und Verleumdung spielen die sozialen Medien eine essenzielle Rolle. Am 13.06.2022 wurde durch eine Meldung der Nachrichtenagentur Reuters bekannt, dass deshalb der EU Verhaltenskodex verschärft wird und Technologiekonzerne wie Google, Facebook und Co künftig verpflichtet werden, gegen Deepfakes vorzugehen. Der EU Verhaltenskodex wurde 2018 wegen der hohen Verbreitung von Falschnachrichten eingeführt, damals allerdings als freiwillige Richtlinie. Jetzt soll der Verhaltenskodex verpflichtend werden, indem den Technologiekonzernen hohe Geldstrafen drohen, wenn sie künftig nicht gegen Deepfakes und gefälschte Profile auf ihren Plattformen vorgehen.

Wie schützt man sich vor der Gefahr durch Deepfakes?

Es gibt ein paar Gegenmaßnahmen, die man zum Schutz vor Deepfakes einsetzen kann. Da es bei Deepfakes vor allem darum geht, Menschen zu täuschen, ist Aufklärung eine der zentralen präventiven Maßnahmen. Potenziell betroffene Personen, also im Unternehmen eigentlich alle Mitarbeitenden, sollten für die Gefahr durch Deepfakes sensibilisiert werden. Da man Deepfakes aktuell noch in vielen Fällen erkennen kann, sollten die Mitarbeitenden über mögliche Erkennungsmerkmale aufgeklärt werden, wie zum Beispiel metallischer Klang oder monoton klingende Stimme bei manipulierten Audiodateien oder verwaschene Konturen und begrenzte Mimik bei Video-Deepfakes.

Da die Erkennung von Deepfakes aufgrund der rasanten Weiterentwicklung aber künftig immer schwieriger wird, wird parallel an Technologien für die automatisierte Erkennung manipulierter Medien gearbeitet. 2020 gab es beispielsweise die „Deepfake Detection Challenge“, die von Amazon, Microsoft, Facebook und verschiedenen Bildungs- und Forschungseinrichtungen veranstaltet wurde. Die Software, die in der Challenge gewann, steht heute in quelloffener Form zur Verfügung. Allerdings wurden selbst davon nur zwei Drittel der Deepfakes aus der Testdatenbank als solche erkannt.

Darüber hinaus will Microsoft die Verbreitung von Fehlinformationen mit dem Video Authenticator eindämmen. Facebook plant einen Deepfake Detector zur Identifikation von Deepfakes auf den Plattformen des Metaverse. Die US-Verteidigungsbehörde DARPA investiert viel Geld in die Forschung zur Authentifizierung von Deepfakes. Diese Entwicklungen zeigen die Relevanz des Themas.

Deepfakes ein gefährlicher Trend für die nächsten Jahre

Die Technologie hat sich in den letzten Jahren rasant weiterentwickelt und Deepfakes sind vor allem durch die Fortschritte im Thema der künstlichen Intelligenz immer besser geworden. Die Entwicklung, dass Deepfakes kein tiefes technisches Know-How mehr erfordern, ist bereits in vollem Gange. Die benötigten Datenmengen werden immer kleiner und mit zunehmender Verfügbarkeit öffentlicher Tools nehmen notwendige Expertise und Aufwand ab.

Das bedeutet, dass zum einen ein hoher Druck auf der Weiterentwicklung der technischen Gegenmaßnahmen zur automatisierten Erkennung liegt. Darüber hinaus sind – wie in der IT- und Informationssicherheit generell – Prävention und Aufklärung mit die wichtigsten Schlüssel für die Sicherheit von Unternehmen. Hierbei spielen Awareness Schulungen, zum Beispiel zum Thema Social Engineering oder eine Weiterbildung zum/zur Cybersecurity Awareness Beauftragten, eine wichtige Rolle. Wenn Mitarbeitende für die Thematik sensibel sind und wissen, wie sie im Zweifel handeln sollen, wird die Gefahr von Cyberangriffen stark eingeschränkt.

geschrieben von
Annika Brockhaus, für die isits AG International School of IT Security

Immer auf dem Laufenden:
News direkt in Ihr Postfach.

Seminarbroschüre isits

Unser Angebot in einer Broschüre

Laden Sie sich jetzt kostenlos unsere umfassende Weiterbildungsbroschüre herunter:

Zur Bestätigung Ihrer E-Mail-Adresse senden wir Ihnen zunächst einen Bestätigungslink. Anschließend erhalten Sie umgehend die Broschüre. Mit der Bestätigung melden Sie sich zu unserem E-Mail-Verteiler an & erhalten unsere Weiterbildungs-News direkt in Ihr Postfach. Dieser Nutzung kann jederzeit widersprochen werden.