c't 25/2019
S. 26
Titel
Fake News: Multimediaforensik
Aufmacherbild

Digitaldetektive

Fälschungen an Bild und Video erkennen und nachweisen

In sozialen und anderen Medien tauchen immer wieder dubiose Bilder und Videos auf, die eine politische Botschaft transportieren sollen. Bildforensiker entwickeln Techniken, um Manipulationen automatisch zu erkennen – und sehen sich im Wettrüsten mit Hightech-Firmen und den weltbesten KI-Experten.

Während den Schulferien findet unsere Klimademo nicht statt“ (sic!) verkündet das Wahlplakat einer Fridays-for-Future-Demonstrantin. Die Facebook-Seite „Fehler im System“ hatte es im April dieses Jahres gepostet, garniert mit dem süffisanten Kommentar „Ja, wer hätte das für möglich gehalten.“ Das Bild wurde ein paar hundertmal geteilt, war aber gefälscht, wie der Faktencheck von correctiv.org per Rückwärts-Bildersuche rasch herausfand.

War doch klar, dass Schüler ihre Ferien nicht für Klimademos opfern, suggeriert dieser Facebook-Post. Stimmt nur nicht: Die Schrift auf dem Plakat ist gefälscht und in den Ferien fanden sehr wohl Klimademos statt, wie correctiv.org herausfand. Bilder: correctiv.org

Nicht immer sind Manipulationen so einfach zu erkennen. Professionellen Fälschern kommt man nur mit einer guten Portion detektivischem Gespür sowie einem Arsenal an Spezialsoftware auf die Schliche. Doch auch die Fälscherwerkstätten rüsten technisch auf – und können mittlerweile auf ein beachtliches Repertoire (halb-)automatischer Manipulationsmethoden zugreifen. Maschinell trainierte Bildgeneratoren – sogenannte Generative Adversarial Networks – legen aktuell eine derart rasante Entwicklung hin, dass der KI-Experte Hao Li bereits in sechs bis zwölf Monaten mit Fälschungsergebnissen rechnet, die der Mensch mit bloßem Auge nicht mehr erkennen kann. Vor Kurzem hatte er noch von einigen Jahren gesprochen.

Diese Deep Fake genannte Technik tauscht Köpfe und Gesichter in Fotos und Videos aus, synchronisiert die Lippenbewegungen einer Person – etwa eines Politikers – zu einem beliebigen Text oder überträgt die komplette Mimik eines Schauspielers auf die Zielperson (Puppet Master): Eine eindrucksvolle Demonstration stammt vom US-amerikanischen Schauspieler und Regisseur Jordan Peele, der mit seiner eigenen Mimik die Gesichtszüge von Barack Obama in einem vorhandenen Video manipulierte – und ihn so eine deftige Rede gegen seinen Nachfolger Donald Trump halten ließ, siehe Bild rechts.

Noch verraten sich die meisten Deep Fakes durch auffällige Montageartefakte oder unstimmige Mimik und (Kopf-)Bewegungen. Doch der letzte Schrei der Szene, die chinesische Deep-Fake-App Zao, montiert bereits binnen weniger Sekunden beliebige Gesichter in Videoclips von Prominenten – mit erschreckend realistischen Ergebnissen. Noch sind Zao aber enge Grenzen gesetzt. Das System arbeitet vermutlich auch deshalb so perfekt, weil es auf eine begrenzte Auswahl von Prominentenvideos trainiert wurde.