c't 22/2018
S. 136
Hintergrund
Künstliche Intelligenz
Aufmacherbild

Interpretierbare KI

Neue Methoden zeigen Entscheidungswege künstlicher Intelligenz auf

Machine Learning erzeugt heute KI-Systeme, die Entscheidungen schneller treffen als ein Mensch. Darf dieser sich aber entmündigen lassen? Neue Methoden machen Entscheidungswege transparent und nachvollziehbar und schaffen damit Vertrauen und Akzeptanz – oder sie decken Missverständnisse auf.

Autonomes Fahren, Gesichtserkennung, Sprachverstehen und Empfehlungssysteme werden heute als KI-Systeme verwirklicht, zumeist in Form neuronaler Netze. Diese entstehen nicht durch manuelle Programmierung, sondern durch maschinelles Lernen, indem sie automatisiert mit vorgegebenen großen Mengen an Beispieldaten trainiert werden – das sogenannte Deep Learning. Am Ende ist allerdings nur sehr schwer nachzuvollziehen, wie neuronale Netze tatsächlich Entscheidungen treffen, zahlreiche versteckte Ebenen zwischen Eingabe- und Ausgabeschicht und Millionen von Parametern machen sie zu äußerst schwer zu durchschauenden Black-Box-Modellen.

Der Grund, warum Deep-Learning-Verfahren trotzdem zunehmend eingesetzt werden: Abstrakte Algorithmen finden in komplexen und hochdimensionalen Datenmengen Muster, die kein Mensch jemals in der Lage wäre zu entdecken. Also wird den Algorithmen die Lösungsfindung zwangsläufig überlassen.