c't 3/2017
S. 62
Trend
Künstliche Intelligenz
Aufmacherbild

Warten auf Skynet

Was passiert 2017 mit KI – und was nicht

Der Deep-Learning-Trend der letzten Jahre hat viel Geld und viele Forscher angezogen. Die wagen sich an Medizindaten, lassen Algorithmen gegeneinander arbeiten und schauen in deren Innenleben. Das Werkzeug künstliche Intelligenz wird immer vielseitiger. Killer-Roboter müssen aber weiterhin von Menschen gesteuert werden.

Aus Filmen kennt man künstliche Intelligenzen meist feindlich, oft als stählerne Tötungsmaschine. Das liegt wohl daran, dass die Idee, eine Intelligenz und damit eine Art Lebewesen zu erschaffen, für sich bereits Hybris ist: Der Mensch wagt sich in die Rolle eines Schöpfers. Aber was ist, wenn die Schöpfung ihre Schöpfer irgendwann überflügelt, so wie Kinder irgendwann ihre Eltern?

Video: Nachgehakt

Aus diesem Blickwinkel muss die existierende KI zwangsläufig enttäuschen. Denn die KI-Algorithmen lernen immer nur einzelne Fähigkeiten, die sie emotionslos und mechanisch ausführen – gar nicht wie ein Mensch. Und KI wird auch in den nächsten Jahren nur ein Werkzeug für klar umrissene Probleme wie Bildbeschreibung oder Spracherkennung bleiben. Lernt ein Algorithmus aus Trainingsdaten, wie er ein einzelnes Problem löst, bezeichnet man das als schwache künstliche Intelligenz. Schwache KI wird weiter im Zentrum der Forschung stehen, weil sie dabei hilft, immer mehr Aufgaben zu automatisieren, und damit Geld spart.

Soll eine künstliche Intelligenz wie ein Mensch beliebige Probleme lösen oder sogar Persönlichkeit entwickeln, spricht man von starker künstlicher Intelligenz. Sie wird es über viele Jahre noch nicht geben. Dafür wird momentan viel zu wenig in diesem Bereich geforscht. Vermutlich müsste die Neurowissenschaft vorher klären, wie das menschliche Bewusstsein überhaupt funktioniert. Dabei könnte die aktuelle KI-Forschung durchaus helfen – in Form von Computational Neuroscience. Das ist ein kleiner Zweig der KI, der tatsächlich die Vorgänge im Gehirn nachbildet. Deep Learning orientiert sich hingegen nur sehr grob am Gehirn, während die effiziente Berechnung auf CPUs und Grafikkarten eine größere Rolle spielt. Neuronen werden dabei immer schichtweise angeordnet, da sich ihre Aktivierungen dann als Matrixmultiplikation und elementweise angewendete Aktivierungsfunktion berechnen. Ab vier Schichten spricht man von Deep Learning.

Videos