c't 2/2022
S. 62
Titel
CSAM: Recht auf Inhaltskontrolle
Bild: Composing | Quellen: Nichizhenova Elena, WALL-E | stock.adobe.com

Alles geht ausnahmsweise

Wie die EU für die Suche nach Kindesmissbrauch-Darstellungen den Datenschutz aushebelt

Vertrauliche Kommunikation gilt in der EU als Grundrecht – eigentlich. Denn geht es um vermeintlich effektiven Kampf gegen Kindesmissbrauch, ist Anbietern sogar die automatische Kontrolle von Inhalten erlaubt. Der Artikel stellt die neu konstruierte Ausnahmeregelung dafür vor.

Von Holger Bleich und Joerg Heidrich

Eigentlich ist es kaum zu glauben: Betreiber von Cloudspeicher- oder Kommunikationsdiensten dürfen vorauseilend alle Inhalte ihrer Kunden automatisiert daraufhin untersuchen, ob sich darunter Darstellungen von Kindesmissbrauch (CSAM, Child Sexual Abuse Material) befinden könnten. Und nicht nur das: Es ist ihnen sogar gestattet, vermeintliche oder tatsächliche Treffer an Dritte zu melden, ohne ihre Kunden darüber zu informieren. Diese Rechtslage gilt derzeit in allen Staaten der Europäischen Union.

Das steht im Gegensatz zu allem, was der EU nach eigener Darstellung heilig ist. Denn kaum zu bestreiten handelt es sich bei der Erlaubnis für Inhalte-Scans um einen massiven Eingriff in das Fernmeldegeheimnis und die Kommunikationsfreiheit der EU-Bürger, deren Rechte sowohl in Art. 10 des deutschen Grundgesetzes als auch europaweit in Art. 7 der EU-Grundrechtecharta festgeschrieben sind. An diesen elementaren Rechten orientiert sich die gesamte deutsche und EU-Gesetzgebung auch im datenschutzrechtlichen Bereich. Ein besonderes Augenmerk galt dabei zuletzt automatisierten Datenverarbeitungen, bei denen der Betreiber Algorithmen und KI einsetzt.

Kommentare lesen (1 Beitrag)