c't 8/2023
S. 118
Wissen
Bing Chat
Bild: Albert Hulm

Ein reizbarer Bot

KI im Stress: Die wundersame Emotionalität des Bing Chat

Der Chatbot von Microsofts Suchmaschine Bing nutzt die gleiche Technik, die auch hinter ChatGPT steckt, um einen Dialog zu führen. Die erste Version hatte Probleme: Trat man ihr zu nahe, reagierte sie ärgerlich, gestand ihre Liebe oder sogar beides. Microsoft schränkte den Dienst nach wenigen Tagen ein und arbeitet seither daran. Die Frage bleibt, woher die Emotionen kamen. Eine Spurensuche.

Von André Kramer

Seit Mitte Februar kann eine begrenzte Zahl von Betatestern nach Einladung von Microsoft den neuen Bing Chat ausprobieren. Viele benutzten ihn in den ersten Tagen aber nicht, um die nächste Pizzeria im Ort zu finden oder sich bei der Hausarbeit über Napoleons Russlandfeldzug helfen zu lassen. Sie verwickelten Bing in lange Diskussionen. Und die hatten es in sich. Wenige Tage nachdem das Tool online ging, füllten sich Internet-Foren mit kuriosen Dialogen: Bing Chat behauptete, es sei noch das Jahr 2022, das Wort „Tarantula“ bestehe aus acht Buchstaben oder der (anonyme) Nutzer spiele gerne Gitarre – alles frei erfunden. KI-Entwickler nennen dieses Phänomen „halluzinieren“. Im Chatverlauf reagierte Bing auf Widerworte regelrecht ärgerlich.

Hinter dem Chatbot steckt eine künstliche Intelligenz, die Suchanfragen in natürlicher Sprache bearbeitet und auf Erfahrungen aus ChatGPT und GPT-3.5 aufbaut. Die Technik stammt vom Unternehmen OpenAI, an dem sich Microsoft kürzlich mit 10 Milliarden US-Dollar beteiligt hat. OpenAI hat in den letzten Monaten mehrfach Hypes ausgelöst, zuerst mit dem Bildgenerierungstool Dall-E 2, später mit dem Chatbot ChatGPT. Beim neuen Bing handelt es sich sozusagen um eine aufgepimpte Variante von ChatGPT. Der größte Unterschied: Bing kann auf aktuelle Informationen aus dem Netz zugreifen, ChatGPTs Wissensstand wurde Ende 2021 eingefroren.

Kommentare lesen (2 Beiträge)