c't 20/2023
S. 112
Wissen
Fake News mit Bild-KI
Bild: KI generiert von Santa Al, Eliot Higgins | Bearbeitung: c‘t

Wenn Bilder lügen

Gefahren generativer Bild-KI: Fake News erkennen

Bildretusche gibt es mindestens seit Erfindung der Fotografie, aber Bildgeneratoren wie Midjourney haben die Bildfälscherei demokratisiert: Jeder kann sie einsetzen. Generative KI lernt stetig dazu, und so dürfte es künftig schwer werden, dokumentarische Fotos von digitalen Träumereien zu unterscheiden. Noch entlarven KI-Bilder sich aber meist selbst.

Von André Kramer

Bildgeneratoren wie Midjourney, Dall-E 2, Stable Diffusion und Firefly haben in kürzester Zeit gelernt, täuschend echte Bilder zu erzeugen. Diese finden sich zum Beispiel auf Instagram-Profilen oder in Reddit-Foren wieder. Weltweit wird fleißig probiert, was mit der neuen Technik alles geht. Auch Fake-News-Kampagnen machen sich das Potenzial generativer KI zunutze, nämlich um Vorgänge zu zeigen, die nie stattgefunden haben. Die Zielpersonen sind oft dieselben: Donald Trump, Papst Franziskus, Elon Musk, Angela Merkel, aber auch Bundeskanzler Olaf Scholz, US-Präsident Joseph Biden und der französische Staatspräsident Emmanuel Macron. Je mehr echte Fotos von der Person existieren, desto überzeugender gerät das KI-Resultat.

Eine Reihe mit Midjourney generierter Bilder zeigten Joe Biden, Ron DeSantis und andere Politiker mit imaginären Affären in Hotelzimmern. Solche Bilder können den Karrieren der Betroffenen erheblichen Schaden zufügen. Midjourney schloss den dafür verantwortlichen Satiriker Justin T. Brown von seinem Dienst aus. Auf Twitter, neuerdings X, erklärte er, auf das zerstörerische Potenzial von KI-generierter Desinformation hinweisen zu wollen.

Kommentieren