c't 8/2018
S. 100
Hintergrund
Deepfakes
Aufmacherbild

Deep/Fakes

Warum man keinem Video trauen kann – und was das Ganze mit Pornos zu tun hat

Anders als Fotos ließen sich Videos bislang nur sehr aufwendig manipulieren. Spätestens seit dem Siegeszug des Machine Learnings ist das vorbei: Per „Deepfake“-Skript lässt sich ein Gesicht in einem Video einfach durch ein anderes austauschen – zumindest, wenn man genug Fotos hat. Populär wurde die fragwürdige Technik ausgerechnet durch Pornos.

Mit „Komprimierte Charakterköpfe“ war im April 2002 ein Artikel in der c’t überschrieben: Ein neuer Videokompressions-Codec mache es möglich, Schauspielergesichter in Filmen einfach auszutauschen. Man müsse lediglich „die Facelet-Datei von Julia Roberts in arnold_schwarzenegger.m4f“ umbenennen, schon kann man sich „Notting Hill“ mit dem österreichischen Haudegen in der Hauptrolle anschauen. Das Ganze war so absurd, dass die meisten c’t-Leser den Artikel korrekterweise als Aprilscherz erkannten. Heute, 16 Jahre später, wird der harmlose Technikspaß Wirklichkeit – und zwar unter deutlich ernsteren Vorzeichen.

Es begann im Dezember letzten Jahres: Ein Reddit-Nutzer mit dem Pseudonym „deepfakes“ (offenbar ein Kofferwort aus „Deep Learning“ und „Fake“) veröffentlichte einen Porno-Clip, in dem „Wonder Woman“-Hauptdarstellerin Gal Gadot zu sehen war. Er hatte das Gesicht der Schauspielerin mithilfe der Machine-Learning-Bibliothek Keras (plus Googles TensorFlow als Backend) auf den Körper der Pornodarstellerin montiert. Den Algorithmus trainierte er zuvor mit Pornovideos und tausenden Fotos von Gal Gadots Gesicht, die er automatisiert aus Google Photos und YouTube-Videos gezogen hatte.

Wie bei Frankenstein

Kurze Zeit später tauchte mit „FakeApp“ ein einigermaßen leicht zu bedienendes Frontend für den Machine-Learning-Gesichtertausch auf. Zeitgleich fluteten weitere Fake-Pornos mit bekannten Schauspielerinnen das Netz. Dass die Gesichter falsch waren, konnte man bei genauem Hinschauen zwar erkennen; dennoch war die Realitätsnähe in vielen Videos beeindruckend. Solche Tricks beherrschten bislang nur Hollywood-Effektschmieden mit viel Know-how und Handarbeit.

Das blieb auch den Medien nicht verborgen. Mit einer Mischung aus Faszination und Abscheu berichteten etliche Zeitungen und Websites über das Thema – unter anderem auch heise online. Hin und wieder schwang ein bisschen Technikbegeisterung mit („Was heutzutage alles geht!“); generell standen aber wie bei der alten Diskussion über Bildmontagen und Photoshop ethische Fragen im Mittelpunkt: Darf ein Algorithmus frei verfügbare Video- und Fotodaten so zusammensetzen, dass hinterher ein Gesicht auf einem fremden Kopf sitzt? Ist das überhaupt legal? Und was kann man heutzutage überhaupt noch glauben?

Mobbing per AI

Die Leidtragenden der Technik sind nicht nur die Medienkonsumenten, die künftig bei „Beweisvideos“ noch genauer hinschauen müssen, sondern vor allem die unfreiwilligen (Porno-)Darsteller. „Es zeigt, dass einige Männer Frauen ausschließlich als Objekte sehen, die sie manipulieren und zu allem zwingen können“, zitiert das Vice-Magazin die langjährige Pornodarstellerin Alia Janine: „Diesen Männern fehlt der Respekt vor Schauspielerinnen und Pornodarstellerinnen.“

Weil ja theoretisch nicht nur Prominente in Pornovideos montiert werden können, sondern auch Ex-Freundinnen oder Kolleginnen, sieht „Die Welt“ noch ganz andere ethische Probleme. Die Technik würde „perfidem Cybermobbing“ Tür und Tor öffnen. So etwas wäre allerdings definitiv illegal: Nicht nur wegen des Rechts am eigenen Bild, sondern auch wegen der klaren Verletzung des Persönlichkeitsrechts. Wer unfreiwillig in peinlichen Videos landet, kann die Produzenten obendrein wegen Beleidigung, Verleumdung und übler Nachrede anzeigen – Deepfakes können also sogar strafrechtlich relevant sein.

Die Dame sieht aus wie „Wonder Woman“-Darstellerin Gal Gadot – in Wirklichkeit war ein Algorithmus am Werk, der das Gesicht von Gadot auf den Körper einer Pornodarstellerin montiert hat.

Das Online-Magazin „The Outline“ macht ein noch größeres Fass auf: „Experten befürchten, Gesichtstausch-Technik könnte einen internationalen Konflikt auslösen“ lautet die Überschrift eines Artikels zum Thema. Noch sei es einfach, verändertes Videomaterial zu erkennen. Aber das könne sich schnell ändern, hieß es bei einer Medien-Forensik-Konferenz der US-amerikanischen DARPA (Defence Advanced Research Agency). Der Informatik-Professor Hany Farid, einer der Konferenzteilnehmer, entwarf gegenüber Outline ein regelrechtes Horrorszenario: Nämlich dass ein Fake-Video, in dem Donald Trump den Abschuss von Nuklearwaffen gegen Nordkorea ankündigt, einen Atomkrieg auslöst. Schließlich lassen sich nicht nur Videos manipulieren, sondern auch Sprache (siehe S.  110). „Ich neige nicht zu Hysterie oder Übertreibung, aber wir können uns vermutlich darauf einigen, dass so etwas nicht komplett ausgeschlossen ist“, so Hany Farid.

Was stimmt?

Aber ist die Situation wirklich so dramatisch? Ist es wirklich so einfach, solche Videos selbst zu basteln? Und vor allem: Klappt das nur mit Gesichtern, die man im Netz in allen erdenklichen Ausdrücken, Positionen und Beleuchtungssituationen findet? Oder geht das auch einem Otto-Normalverbraucher-Gesicht?

Zum Kasten: Meinungen zu Deepfake-Videos

In der c’t-Redaktion haben wir lange darüber diskutiert, ob wir uns mit „Deepfakes“ beschäftigen wollen. Am Ende war klar: Ja, wollen wir. Nicht nur, weil die Technik für sich genommen völlig unschuldig ist. Sie kann nichts dafür, dass man sie für unethische Zwecke verwendet. Sondern auch, weil man die technischen Hintergründe kennen muss, um sich über das Thema eine differenzierte Meinung bilden zu können – und um gefälschte Videos zu erkennen. Wir sind uns auf alle Fälle sicher: Das Thema wird die Welt auch in Zukunft beschäftigen. Ob wir wollen oder nicht. (jkj@ct.de)