Neue Dimension der Cyberkriminalität

Deepfakes – Was können wir eigentlich noch glauben?

Die Künstliche Intelligenz schreitet voran und bringt nicht nur Erfreuliches: Fotos, Videos, Audios, die total echt aussehen – aber nicht echt sind. Für Kriminelle eröffnen Deepfakes ungeahnte Möglichkeiten.

Weiterlesen

Foto: picture alliance/AP Photo

Keine 48 Stunden nach der Bundestagswahl im vergangenen September posteten die Grünen-Bundesvorsitzenden Annalena Baerbock und Robert Habeck zusammen mit FDP-Chef Christian Lindner sowie dessen Generalsekretär Volker Wissing zeitgleich ein Selfie auf ihren Instagram-Kanälen, das mehr an eine gemütliche Küchenparty als an ernste Sondierungsgespräche erinnerte. Eine Steilvorlage für die Internet-Gemeinde.

Binnen kürzester Zeit fluteten zahlreiche Parodien in Form von Memes (Witzbildern) die sozialen Netzwerke. Zu den erfolgreichsten gehört ein 16 Sekunden langes Video, in dem die vier Zitrus-Sondierer zu dem Lied „We are Family“ des amerikanisches Soul- und Funk-Duos „Sister Sledge“ die Lippen bewegen. Der Clip mit den schlicht animierten Mündern und sich rhythmisch in Wackel-Dackel-Manier bewegenden Köpfen verzeichnet auf Twitter bisher rund 750.000 Aufrufe. Ein viraler Erfolg.

Einer, der dieses Video nur bedingt witzig findet, ist Dr. Thomas-Gabriel Rüdiger. Der Leiter des Instituts für Cyberkriminologie an der Hochschule der Polizei des Landes Brandenburg sagt: „Hinter diesen Deepfakes steckt ein echtes Risiko.“

Deepfakes sind künstlich erzeugte Videos oder auch Audiodateien von realen Personen. Durch Künstliche Intelligenz (KI) kann eine Software nach ausreichendem Training („deep learning“) mit Bild- oder Tonmaterial der realen Person die Mimik und die Stimme täuschend echt nachahmen. Zu den berühmtesten Deepfakes gehört ein Video, das den früheren US-Präsidenten Barack Obama bei einer Rede zeigt, in der er seinen späteren Nachfolger Donald Trump als „Volldepp“ beleidigt.

Dass Obama diese Worte nie sagte, sondern dass sie ihm nur digital in den Mund gelegt wurden, ist für den Zuschauer nicht erkennbar.  

Neue Dimension der Cyberkriminalität

„Bilder können mit Programmen wie Photoshop schon seit Längerem relativ einfach manipuliert werden“, sagt der Cyberkriminologe Rüdiger. „Bei Videos sah das lange anders aus, da war großer technischer Aufwand mit leistungsstarken Computern notwendig, die wochenlang die einzelnen Bilder eines Videos berechneten, das am Ende eine Minute lang ist“, sagt er. Bis jetzt.

Für die „We are Family“-Parodie hat die Smartphone-App „Reface“ gereicht, die das Foto binnen weniger Sekunden in ein mit Musik unterlegtes Video verwandelt hat. Im Messenger „Telegram“ gibt es einen Bot (von Englisch „roboter“), also ein automatisch arbeitendes Computerprogramm, der ihm zugesendete Bilder fälscht. Manipulation für jedermann. „Wer vor wenigen Jahren behauptet hat, dass sowas mal möglich ist, wurde als Spinner abgestempelt“, sagt Rüdiger. Die technische Entwicklung schreite in rasender Geschwindigkeit voran – und eröffnet damit Kriminellen ganz neue Möglichkeiten. Rüdiger fasst das so zusammen: „Deepfakes haben die Fähigkeit, alle kriminologischen Phänomene zu vereinen.“

Ein Überblick

Betrug
Bei der sogenannten Geschäftsführer-Betrugsmasche (Englisch: „CEO-Fraud“) geben sich Betrüger als Vorgesetzte aus und weisen Mitarbeiter in täuschend echt aussehenden Mails an, hohe Geldbeträge auf ein Konto zu überweisen. Das Magazin „Forbes“ berichtete im Oktober von einem Fall, bei dem mithilfe von Deepfake-Technik die Stimme eines Bankdirektors aus Dubai imitiert wurde. Der Angestellte glaubte tatsächlich, mit seinem Chef zu sprechen – und überwies 35 Millionen US-Dollar.

„Innerhalb der Cyberkriminalität kann mit Deepfakes eine völlig neue Dimension erreicht werden, sagt Kriminologe Rüdiger. „Plötzlich ist es nicht nur eine perfekt gefälschte Mail vom Chef, sondern ein Zoom-Anruf mit dem echten Gesicht und der echten Stimme.“ In Echtzeit erstellte Deepfakes sind bisher zwar noch Zukunftsmusik, aber keinesfalls unrealistisch.

Rache
Gerade Frauen werden immer wieder Opfer dieser Onlineübergriffe. Auf vielen einschlägigen Internetseiten finden sich Videos, in denen die Gesichter von meistens prominenten Schauspielerinnen oder Influencerinnen in Porno-Szenen eingesetzt wurden – gegen ihren Willen. Eine der zahlreichen Betroffenen ist die Youtuberin „Malwanne“. „Der nackte Körper ist die einzige Privatsphäre, die man noch wirklich hat. Wenn einem das durch einen Fake weggenommen wird, ist das fies“, sagte sie im Gespräch mit dem Format „Reporter“ des öffentlich-rechtlichen Internetangebots Funk. Was bleibt, ist Ohnmacht. 

Diese Machtlosigkeit könnte in naher Zukunft Tausende weitere Menschen treffen, befürchtet der Kriminologe Dr. Thomas-Gabriel Rüdiger. Es sei gut denkbar, dass Ex-Partner oder auch neidische Kollegen gefakte Pornos ins Netz stellen. Rache 2.0, sozusagen. Um die Künstliche Intelligenz zu füttern, reichen Bilder und Videos von Social-Media-Plattformen.

Denunzieren, verhöhnen, bis hin zur medialen Vernichtung: „Der Missbrauch kann jeden treffen, vom Politiker bis zum Schulkind“, sagt Rüdiger. Die Schulhofpornografie, bei der fragwürdige Bilder in Klassenchats oder untereinander geteilt werden, sei jetzt schon ein riesiges Problem. Vermehrt tauchen auch manipulierte Fotos auf, mit denen sich Kinder mobben. „Mit einfach zu erstellenden Deepfakes ist das nochmal ein ganz anders Kaliber“, sagt er.

Destabilisierung
Bisher galten Video- und Tonaufnahmen als Beleg der Wirklichkeit. Diese Zeiten sind vorbei. Das erleichtert es Kriminellen, sich herauszureden. Als eine alte Tonaufnahme von Donald Trump veröffentlicht wurde, in der er sich abfällig über Frauen äußerte, entschuldigte sich Trump zunächst. Später säte er jedoch Zweifel an der Echtheit der Aufnahme. Viele seiner Anhänger glaubten ihm.

„Große Gefahr für Gesellschaft und Politik“

Spätestens in der Corona-Pandemie ist deutlich geworden, dass Falschmeldungen (Fake News) sich vor allem in den sozialen Netzwerken rasend schnell verbreiten – und seien sie noch so abwegig. Die Marktführer Youtube, Facebook und Twitter haben Deepfakes bereits den Kampf angesagt: Manipulierte Videos sollen als solche gekennzeichnet oder gelöscht werden. Auch in der Politik wird die technische Entwicklung mit Sorge betrachtet. Auf eine Anfrage der FDP im Bundestag im Jahr 2019 antwortete die Bundesregierung (Drucksache 19/15657): „Deep Fakes können eine große Gefahr für Gesellschaft und Politik darstellen, wenn sie dazu genutzt werden, die öffentliche Meinung zu manipulieren und den politischen Prozess gezielt zu beeinflussen.“

Wie schnell das geht, zeigt der Mittelfinger-Skandal um Yanis Varoufakis im Frühjahr 2015 (Video auf Youtube). In einer Politiksendung wurden Ausschnitte einer Rede des damaligen griechischen Finanzministers gezeigt, die zwei Jahre zuvor entstanden sein sollen. In dem kurzen Video ist zu sehen, wie Varoufakis Deutschland symbolisch den Stinkefinger zeigt. Der öffentliche Aufschrei war anschließend groß. Noch in der Nacht bestritt Varoufakis die provozierende Geste – und erhielt Unterstützung von Jan Böhmermann. Der ZDF-Moderator behauptete, er habe das Video manipuliert und sorgte so für vollständige Verwirrung. Erst später stellte das ZDF klar, das Video sei nicht gefälscht worden. Böhmermann hatte alle genarrt.

Bis zu Böhmermanns „Varoufake“ galten Videos und Tonaufnahmen in der Regel als Belege für Realität. Doch der technische Fortschritt lässt die Grenzen zwischen Fiktion und Realität verschwimmen. Was also, wenn wir unseren eigenen Ohren und Augen nicht mehr trauen können?   

Deepfakes erkennen

Besonders schwierig wird es, wenn die gefälschten Videos auf kleinen Smartphone-Bildschirmen konsumiert werden. Verräterische Artefakte, ungewöhnliche Farben, Lichter oder auch Schlieren sind so erst recht schwer zu erkennen.

Sowohl der Cyberkriminologe Rüdiger als auch führende Politiker in der Bundespolitik halten die Stärkung der Medienkompetenz, insbesondere der Nachrichten- und der digitalen Informationskompetenz, für entscheidend, um gegen Desinformation im Allgemeinen und Deep Fakes im Besonderen gewappnet zu sein. Das heißt: Fakten checken, am besten doppelt. Wer hat das Video veröffentlicht? Gibt es noch weitere Quellen, die den Inhalt bestätigen?

Das gilt auch für Medienhäuser. Vor allem in kleineren Regionalredaktionen finden diese Kontrollen aufgrund von Personaleinsparungen und Zeitdruck nicht immer in dem erforderlichen Maße statt.

Ohnmacht der Betroffenen

Wer sich wie die Youtuberin „Malwanne“ in einem gefakten Porno wiederfindet, dem bringt so ein Quellencheck jedoch nichts mehr. Die Videos wieder aus dem Internet zu löschen, ist nahezu unmöglich, auch weil die Anbieter oft im Ausland sitzen und schwer zu ermitteln sind. Bei vielen Betroffenen wie auch der Influencerin Julia Beautx bleibt ein „unglaublich unangenehmes Gefühl“. Der Sendung „Reporter“ sagte sie: „Es ist schlimm, dass ich mich damit abfinden muss und es komplett unfreiwillig und ohne möglichen Einfluss darauf passiert.“ Und dass, obwohl die Täter mit den Fake-Videos oft mehrere Straftaten parallel begehen:

  • Verletzung des Rechts am eigenen Bild
  • Ehrverletzung
  • Verleumdung
  • üble Nachrede

Zur Verantwortung gezogen werden sie in den seltensten Fällen. Anders ist die gesetzliche Situation in Australien. Nachdem sich die damals 17-jährige Noelle Martin zufällig auf gefakten Pornos entdeckte, machte sie ihren Fall öffentlich und kämpfte für eine Gesetzesänderung. Mit Erfolg: Seit 2018 wird die Produktion und Verbreitung von Fake-Pornographie mit bis zu sieben Jahren Haft geahndet.

Dass so ein Gesetz auch in Deutschland verabschiedet wird, hält Dr. Thomas-Gabriel Rüdiger für nicht sehr wahrscheinlich. Der Cyberkriminologe sieht keine Gesetzeslücke, da „die Strafbarkeit durch andere Gesetze gegeben“ sei.

Individualisierte Kinofilme

Bei dem Sondierungs-Video ist schnell ersichtlich, dass es sich um eine Manipulation handelt. Zukünftig dürfte das immer schwieriger werden: Die Technik entwickelt sich in rasender Geschwindigkeit voran, Stichwort: hochgezüchtete Quantencomputer.  

Auf der anderen Seite treiben auch die Filmstudios Warner Bros. und Disney die Deepface-Forschung voran. Zusammen mit der ETH Zürich hat Disney eine Methode entwickelt, um vollautomatisch Gesichter per neuronalem Netzwerk in Videos und Bildern auszutauschen (Artikel auf Slahcam.de). So kann das Gesicht eines Schauspielers durch das einer beliebigen Person ausgetauscht und täuschend echt animiert werden.

Warner Bros. hat die Möglichkeiten der innovativen Technik im Sommer 2021 erstmals zur Bewerbung des Films „Reminiscene“ mit Hugh Jackman umgesetzt: Fans können Portraits von sich (oder anderen Personen) auf einer Internetseite hochladen, die dann animiert in eine individualisierte Version eines Filmtrailers integriert werden. Die Promo-Aktion gibt einen kleinen Vorgeschmack auf vermutlich noch kommende Entwicklungen wie personalisierbare Spielfilme, in denen die Zuschauer selbst in einer Haupt- oder Nebenrolle mitspielen können. Völlig freiwillig.

Christian J. Ahlers

Kriminalität im Netz – Tipps des WEISSEN RINGS