c't 29/2023
S. 148
Wissen
Angriff auf KI-Bildgeneratoren
Bild: KI Midjourney | Collage c’t

Ein Körnchen Lüge

Unmerklich manipulierte Bilder verfremden die Ergebnisse von Bildgeneratoren

Forscher haben Methoden entwickelt, mit der Künstler ihre Werke vor Nachahmung durch KIs schützen können. Sie bringen Bildgeneratoren dazu, Objekte und Kunststile visuell anders zu interpretieren als der Mensch. Dabei nutzen sie einige Schwächen und Lücken im Trainingsprozess geschickt aus.

Von Andrea Trinkwalder

Maler, Fotografen, Schriftsteller und andere Urheber haben ein gravierendes Problem: Ihre im Internet veröffentlichten Werke werden zuhauf zusammengetragen und zu Trainingszwecken an KI-Bild- und Textgeneratoren verfüttert. Midjourney, Dall-E, Stable Diffusion & Co. lernen daraus nicht nur, Hunde, Katzen und andere Objekte zu malen und überzeugend zu arrangieren. Sie können auch die über Jahre hinweg kultivierten Stile aller historischen und zeitgenössischen Künstler dieser Welt imitieren und sie en masse auf beliebige neue Motive übertragen – unermüdlich, wie am Fließband. Was Millionen mit überschaubarem künstlerischen Talent gesegnete Normalsterbliche begeistert, kommt bei vielen Kreativen nicht sonderlich gut an. Sie sehen den künstlichen Kunstkopierer als existenzielle Bedrohung, können sich gegen die Vereinnahmung bisher aber kaum wirksam wehren.

Erste Hilfe zur Selbsthilfe kommt von Wissenschaftlern der University of Chicago rund um Ben Zhao, der dort das Security, Algorithms, Networking and Data Lab, kurz SAND Lab leitet. Mit den dort entwickelten Methoden können Künstler ihre Werke so manipulieren, dass die KI ihren individuellen Stil nicht erkennen beziehungsweise reproduzieren kann. Dazu streuen sie mithilfe eines im Juni dieses Jahres veröffentlichten Tools namens Glaze spezifische Störmuster in ihre Bilder ein. Diese nimmt das menschliche Auge kaum wahr, ein nach Stand der Technik als Diffusionsmodell konstruierter Bildgenerator hingegen umso stärker: Die subtilen Änderungen gaukeln dem KI-Modell unter Umständen eine komplett andere Anmutung vor. Gelangt das vergiftete Material in ausreichender Menge in den Trainingspool der Bildgeneratoren, eignen sich diese nur den manipulierten Stil an.

Kommentieren