Microsoft ist einer der ersten großen Player am Markt, der ChatGPT in seine Produkte eingebaut hat. Nun muss der Konzern zumindest ein bisschen zurückrudern – denn der Bot geriet außer Kontrolle.
Mit – vorsichtig gesagt – problematischen Chat-Bots hat Microsoft bereits Erfahrung: Bereits 2016 versuchte sich der Software-Riese an diesem komplexen Unterfangen, stellte „Tay“ online und ließ ihn auf einem eigens eingerichteten Account twittern.
Nur 16 Stunden später musste „Tay“ vom Netz genommen werden – er hatte sich negativ über Rassismus und Extremismus geäußert und unter anderem getwittert: „Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump“.
In der Folge versuchte es Microsoft mit einer anderen Strategie: Der Konzern beteiligte sich früh am KI-Startup OpenAI, das zuletzt mit den Anwendungen Dall-E für computergenerierte Bilder und ChatGPT für die automatische Beantwortung von Nutzerfragen auf sich aufmerksam machte. Auch Microsoft leckte dadurch Blut: Bislang war der Software-Riese mit einer Milliarde Dollar an OpenAI beteiligt, nun sollen laut Medienberichten bis zu zehn Milliarden fließen.
Zudem stellte Microsoft kürzlich neue Versionen des Google-Konkurrenten Bing und des hauseigenen Browsers Edge vor – in beide waren Funktionen von ChatGPT eingebaut, die die bisherige Benutzung von Suchmaschinen und Browser revolutionieren sollten. Als dann auch noch Google mit „Bard“ eine eigene Lösung vorstellte, sich „Bard“ aber vor laufenden Kameras einen Fehler erlaubte, schien für Microsoft alles bestens zu laufen.
ChatGPT droht Nutzern, Microsoft legt den Bot an die kurze Leine
In den vergangenen Tagen fiel nun allerdings der Bing-Chatbot selbst mit Patzern auf: So hatte der Chatbot gegenüber einem Reporter der „New York Times“ behauptet, dass er den Journalisten liebe. Außerdem solle sich der Reporter von seiner Frau trennen. Einen Philosophieprofessor bedrohte die Anwendung zudem mit den Worten „Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren“.
In der Folge hat Microsoft daher den Bot nun an die kurze Leine gelegt: Bing-Chats sollen ab sofort auf 50 Fragen pro Tag und fünf pro Sitzung begrenzt sein. Sobald Nutzer das Limit überschreiten, fordert Bing sie auf, ein neues Thema zu beginnen.
Laut Microsoft sind vor allem längere Konversationen wie die zwei Stunden dauernde Unterhaltung der „New York Times“ schuld an den problematischen Antworten der Software. Sie könnten dazu führen, dass Bing „sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen.“
Auf ähnliche Art und Weise hatte sich Microsoft auch im Falle von „Tay“ geäußert: Das Programm sei von Trollen manipuliert und durch gezielte Fragen attackiert worden.
Quellen:„Tagesschau“, Wikipedia, mit dpa