Deepfakes – Falsche Tatsachen bedrohen die Unternehmenssicherheit

bei

 / 31. March. 2020

Im Internet sind Fakes weit verbreitet: Manipulierte Bilder, erfundene Nachrichten oder falsche Behauptungen. Es wird immer schwieriger, zwischen Fake und Wirklichkeit zu unterscheiden. Inzwischen gibt es eine neue Fälschungsvariante: Deepfakes.

Zum ersten Mal aufgetaucht ist diese Art der verdrehten Realität im Dezember 2017 auf der Plattform Reddit. Ein Benutzer hatte ein Video veröffentlicht, in dem die Gesichter von Prominenten glaubhaft in schlüpfrige Szenen eingebaut wurden. Dafür hat der anonyme Absender einen Algorithmus erstellt, der auf frei verfügbaren Applikationen beruht wie Keras und Googles TensorFlow.

Inzwischen sind solche gefälschten Videos auf vielen Plattformen wie Twitter oder Discord verboten. Doch Deepfakes haben ihren Siegeszug bereits begonnen und lassen sich nicht mehr aufhalten.

Fälschung ohne Fachwissen

Früher waren Videofakes, bei denen Gesichter ausgetauscht wurden, nur mit viel Arbeit und fachlichem Wissen zu bewerkstelligen. Für Deepfakes ist das nicht notwendig, denn die Manipulationen erstellt der PC weitgehend automatisch.

Deepfakes verdanken ihren Namen der Tatsache, dass sie auf Deep Learning basieren. Das ist eine besondere Art des Machine Learnings, das bei künstlicher Intelligenz zum Einsatz kommt. Die den Deepfakes zu Grunde liegenden Algorithmen werden mit großen Mengen Bild- und Videomaterial gefüttert. Je mehr Daten von einer Person vorliegen, desto besser und genauer fällt das Resultat aus. Videos sind das perfekte Ausgangsmaterial, da sie sich in Hunderte Einzelbilder aufsplitten lassen und die Person aus den unterschiedlichsten Perspektiven zeigen. Schon wenige Hundert Bilder der Zielperson reichen aus, um einen plausiblen Deepfake zu erzeugen. Ein Beispiel, wie das Ganze funktioniert, ist hier zu sehen [1].

Die eigentliche Arbeit erledigt ein neuronales Netz. Wenn man es mit Bildern von Kätzchen versorgt, lernt es mit der Zeit, Tier und Hintergrund zu unterscheiden, so dass es letztlich selbst Kätzchen erzeugen kann. Mit Köpfen und Gesichtern funktioniert es analog. Das neuronale Netz weiß am Ende genau, welche Merkmale das Gesicht der Zielperson aufweist, und kann es selbstständig neu erzeugen und in bestehende Videos einpflanzen. Ein Algorithmus erstellt dabei den Fake, ein zweiter sucht nach Fehlern und meldet diese zurück. Mit der Anzahl der Wiederholungen steigt die Qualität des Fakes. Auch Stimmen lassen sich auf diese Weise nachbauen, das nennt sich dann Deepvoice.

Der grundlegende Unterschied zu den herkömmlichen Fakes, bei denen etwa der Kopf aus einem Bild in ein anderes Bild eingefügt und dann mit Photoshop noch ein wenig retuschiert wird, ist folgender: Deepfakes hantieren nicht mit bestehenden Daten, sondern erzeugen neues Material.

Der Code für Deepfakes ist Open Source und steht somit jedermann zur Verfügung. Auf GitHub lassen sich mehrere Projekte finden, in denen Entwickler an solchen Algorithmen arbeiten, ein Beispiel ist FakeApp.

Deepfakes erkennen

Deepfakes wirken auf den ersten Blick authentisch, sind aber nicht perfekt. Wenn aus bestimmten Blickwinkeln nicht genügend Daten zur Verfügung stehen, dann muss der Algorithmus auf Details verzichten. Das führt zu leicht schwammigen Bildbereichen. Auch der Haaransatz und die Ohren wirken manchmal bei genauem Hinsehen etwas unscharf oder unecht. Kleine Details sind oft verräterisch: zwei ungleiche Ohrringe, zu viele Schneidezähne, eine unsymmetrische Brille. Das neuronale Netz kennt die echte Welt nicht mal ansatzweise und auch weiß nicht, wie Schärfentiefe oder Schatten physikalisch korrekt aussehen. Menschen fallen „schräge“ Dinge meistens schnell auf.

Mit Hilfe von speziellen Programmen lassen sich zudem Blinzelmuster, die Hautfarbe oder das Pulsieren des Blutes analysieren. Ein Siver Bullet gegen Deepfakes existiert allerdings noch nicht.

Gefahren durch Deepfakes

Um Deepfakes mit einem Programm wie FakeApp zu erzeugen, ist lediglich eine möglichst leistungsstarke Nvidia-Grafikkarte notwendig. Sie stellt die nötige Rechenleistung bereit. Mit einer PC-CPU funktioniert es grundsätzlich auch, dauert aber wesentlich länger. Deepfakes stehen folglich nicht nur Youtube-Trollen zur Verfügung, sondern auch Cyberkriminellen.

„Deepfakes könnten dazu missbraucht werden, um Unternehmen oder Einzelpersonen zu erpressen, indem die Zielperson in eine strafbare Szenerie platziert wird. Gefälschte Manager-Anweisungen, einen bestimmten Betrag zu überweisen, führen womöglich zu finanziellen Verlusten. Auch das im Privatbereich verbreitete Ident-Verfahren per Video ist nicht mehr fälschungssicher,“ erklärt Jelle Wieringa, Security Awareness Advocate bei KnowBe4.

Gesellschaftliche Veränderungen sind zu befürchten, wenn es immer schwieriger wird, die Echtheit eines Videos zu bestimmen. Auch Videobeweise – vor Gericht, nicht im Fußball – verlieren vielleicht ihre Beweiskraft. Letztlich lassen sich Deepfakes und Deepvoice auch für Meinungsmache und Propaganda einsetzen und um die Politik zu beeinflussen. Im Zeitalter von Social Media verbreiten sich Videos schnell, auch wenn es sich dabei offensichtlich um Deepfakes handelt. Man sieht, was man sehen will. Dazu kommt: Deepfakes werden in Zukunft immer glaubwürdiger wirken.

Gesetzliche Maßnahmen – Fehlanzeige in Deutschland

China hat eine neue Regierungspolitik veröffentlicht, welche durch KI gefälschte Nachrichten und irreführende Videos verhindern soll. Die neue Regelung sieht vor, dass bei deren Veröffentlichung im Internet, gekennzeichnet werden soll, dass der betreffende Beitrag mit KI- oder VR-Technologie erstellt wurde. Geschieht dies nicht wird ein Strafverfahren eröffnet. Die Regelung tritt zum Neujahr 2020 in Kraft. Ihre Durchsetzung wird von der Cyberspace Administration of China übernommen.

Die chinesische Regierung zieht mit ähnlichen Gesetzen nach, die bereits in den USA zur Bekämpfung von Cyber-Kriminalität existieren. Im vergangenen Monat war Kalifornien der erste US-Bundesstaat, der die Verwendung von Deepfakes in der Werbung für politische Kampagnen unter Strafe stellte. Das Gesetz, AB 730 genannt und von Gouverneur Gavin Newsom unterzeichnet, macht es zum Verbrechen, Audio-, Bild- oder Videodaten zu veröffentlichen, die einen falschen beziehungsweise schädlichen Eindruck von den Worten oder Handlungen eines Politikers vermitteln. Die Norm gilt für Kandidaten innerhalb von 60 Tagen nach einer Wahl und soll bis 2023 auslaufen, sofern sie nicht ausdrücklich verlängert wird.

In Deutschland existiert kein grundlegendes Gesetz, welches Deepfakes reguliert. Tatsächlich sind aber zwei Gesetzestexte zum Thema heranzuziehen. Zum einen verletzt die Verwendung von Gesichtern das Recht am eigenen Bild, welches im Kunsturheberrechtsgesetz geregelt ist. Demnach sind Bilder von Personen nicht ohne deren Einwilligung zu verwenden. Ergänzend regelt das Grundgesetz das Persönlichkeitsrecht, da die öffentliche Diffamierung dem Ruf der Betroffenen schaden könnte.

Schulung und Sensibilisierung

„Mitarbeiter sind das größte Risiko, und dem sicherheitsbewussten Verhalten jedes Einzelnen kommt eine entscheidende Bedeutung zu. Unternehmen sollten ein Bewusstsein dafür schaffen, dass Deepfake-Attacken jederzeit möglich sind. Wer weiß, dass eine Stimme am Telefon nicht zwangsläufig zu der erwarteten Person gehört, kann möglichen Angriffen besser aus dem Weg gehen. Die alleinige Implementierung von Sicherheitstechnologien wie Firewall, IDS oder Endpoint Protection reicht nicht mehr aus. Zusätzlich sind „menschliche Firewalls“ gefragt“ führt Wieringa aus.

Ein Weg zur Sensibilisierung sind firmenspezifische Schulungen, in denen auf mögliche Social-Engineering- und Deepfake-Angriffe auf das jeweilige Unternehmen eingegangen wird. Generische Awareness-Trainings hingegen werden von den Mitarbeitern oft als lästige Pflichtübung betrachtet und erzielen folglich bestenfalls mäßigen Erfolg. Viele Unternehmen setzen nach wie vor auf den Angstfaktor. Um Verhaltensänderungen zu erzielen, ist es aber erfolgversprechender, die positiven Auswirkungen eines korrekten Verhaltens hervorzuheben. Wieringa erläutert: „Bei Security-Awareness-Training sollte es nicht einfach darum gehen, Wissen zu vermitteln, sondern darum, das Verhalten zu verändern. Das gelingt am besten mit Emotionen. Es muss den Mitarbeitern Spaß machen, sicherheitsbewusstes Verhalten zu erlernen.“

Die Trainings der Schulungsplattform KnowBe4 etwa arbeiten auch mit Comics und Netflix-ähnlichen Videoserien. Cliffhanger sorgen dafür, dass die Kunden von sich aus mehr davon haben wollen. Auch Gamification-Elemente wie zu gewinnende Badges oder Wettkämpfe zwischen mehreren Teams eines Unternehmens sorgen spielerisch für eine Sensibilisierung. Training sollte Spaß machen, interaktiv und auf die aktuellen Bedrohungen zugeschnitten sein.

Fazit

Die Technologie für Deepfakes wird bald so gut sein, dass die Stimme in Echtzeit generiert werden kann. Ein Angreifer kann so direkt mit seinem Opfer interagieren und etwa wie ein Vorgesetzter oder wie der CEO des Unternehmens klingen. Es ist also höchste Zeit, Mitarbeiter wie auch Privatpersonen zu sensibilisieren. Auf der anderen Seite könnte sich Deepvoice auch dazu nutzen lassen, Trainings mit der Stimme des Chefs oder eines beliebten Schauspielers durchzuführen.

Quellen und Referenzen:

[1] https://www.youtube.com/watch?v=5rPKeUXjEvE&feature=youtu.be

 

Andreas Dumont arbeitet seit dem Jahr 2000 als Fachzeitschriftenredakteur und war seitdem in mehreren Verlagen angestellt. 2019 hat er sich als freier Journalist und Autor selbstständig gemacht.