c't 6/2024
S. 116
Wissen
Massenscreenings
Bild: Collage c’t

Wider den gesunden Statistikverstand

AI Act: Was aus rein mathematischen Gründen gegen anlasslose Überwachung spricht

Nach langem Gezerre ist die europäische KI-Verordnung abgenickt. Doch der AI Act öffnet eine Hintertür für biometrische Massenüberwachung. Befürwortern und Entscheidern ist oft nicht bewusst, dass eine solche Verwendung aufgrund mathematisch-statistischer Gesetze unangemessen hohe Risiken birgt.

Von Andrea Trinkwalder

Wie groß darf die Fehlerquote einer Gesichtserkennung maximal sein, damit biometrische Massenüberwachung keinen unverhältnismäßig hohen Schaden anrichtet? 1 Prozent? 0,1 Prozent? 0,01 Prozent? Wie viele Fehler darf sich ein sogenannter CSAM-Scanner (Child Sexual Abuse Material) erlauben, der die gesamte Kommunikation jedes EU-Bürgers daraufhin analysiert, ob sie Darstellungen von sexualisierter Gewalt gegen Kinder enthält? Diese und ähnliche Fragen stellen Abgeordnete und Mitglieder von Ausschüssen, die in der EU über die Einführung solch flächendeckender Überwachungsmethoden entscheiden.

Doch es sind die falschen Fragen, mahnen Experten wie Gerd Gigerenzer, Direktor des Harding-Zentrums für Risikokompetenz an der Universität Potsdam und die Politikwissenschaftlerin Vera Wilde vom Hertie School Centre for Digital Governance. Selbst eine verschwindend gering wirkende Fehlerquote von 0,001 Prozent – also eine als nahe hundert Prozent wahrgenommene Trefferquote von 99,999 Prozent – kann einen verheerenden Schaden in der Gesellschaft anrichten. De facto liegt die Trefferquote aber deutlich darunter, insbesondere wenn sich die Technik im echten Leben, also auf Bahnhöfen oder anderen öffentlichen Plätzen, beweisen muss.

Kommentare lesen (2 Beiträge)