c't 2/2022
S. 56
Titel
CSAM: Perzeptive Hashes
Bild: Composing | Quellen: Nichizhenova Elena, WALL-E | stock.adobe.com

Bild(wieder)erkennung

Erkennung von Missbrauchsbildern: So funktionieren die Algorithmen

Perzeptive Hashes wie Apples NeuralHash werden schon lange zur Erkennung von Material aus Kindesmissbrauch genutzt. Risikolos sind die Verfahren nicht, für Endnutzer ist besonders kritisch, wenn harmlose Bilder fälschlich als illegal klassifiziert werden. Ein technischer Überblick.

Von Sylvester Tremmel

Um sexuellen Missbrauch von Kindern zu bekämpfen, nutzen Strafverfolgungsbehörden, Kinderschutzorganisationen und Cloud-Provider verschiedene technische Systeme. Ein zentrales Werkzeug ist die automatische Erkennung von Bild- und Videomaterial, das solche Handlungen zeigt (Child Sexual Abuse Material, CSAM). Die manuelle Auswertung von Bildern und Videos durch Menschen kommt in vielen Fällen schon aufgrund der schieren Menge von zu inspizierendem Material nicht infrage. Auch unter den Gesichtspunkten Datenschutz und Privatsphäre ist so eine (anlasslose) manuelle Sichtung unerwünscht.

Bei der automatisierten Suche nach CSAM nutzt man unter anderem maschinelle Bilderkennung auf Basis tiefer neuronaler Netze. Also dieselben Verfahren, die sich beispielsweise bereits bei der Bildersuche im Internet etabliert haben und die erkennen sollen, ob auf einem Bild eine Katze zu sehen ist. Solche Systeme weisen jedoch erhebliche Probleme und Fehlerraten auf [1,2], weshalb sie im Kontext von CSAM eher als Vorfilter vor einer manuellen Inspektion dienen. Sie eignen sich beispielsweise für Ermittlungsbehörden, um sichergestellte Datenbestände schneller zu sichten.

Kommentieren