Künstliche Intelligenz

Microsoft legt ChatGPT an die kurze Leine – weil der Bot Nutzern mit Gewalt drohte

19.02.2023
Lesedauer: 3 Minuten
ChatGPT fasziniert viele Menschen – ist aber teilweise unberechenbar.

Microsoft ist einer der ersten großen Player am Markt, der ChatGPT in seine Produkte eingebaut hat. Nun muss der Konzern zumindest ein bisschen zurückrudern – denn der Bot geriet außer Kontrolle.

Mit – vorsichtig gesagt – problematischen Chat-Bots hat Microsoft bereits Erfahrung: Bereits 2016 versuchte sich der Software-Riese an diesem komplexen Unterfangen, stellte „Tay“ online und ließ ihn auf einem eigens eingerichteten Account twittern.

Nur 16 Stunden später musste „Tay“ vom Netz genommen werden – er hatte sich negativ über Rassismus und Extremismus geäußert und unter anderem getwittert: „Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump“.

In der Folge versuchte es Microsoft mit einer anderen Strategie: Der Konzern beteiligte sich früh am KI-Startup OpenAI, das zuletzt mit den Anwendungen Dall-E für computergenerierte Bilder und ChatGPT für die automatische Beantwortung von Nutzerfragen auf sich aufmerksam machte. Auch Microsoft leckte dadurch Blut: Bislang war der Software-Riese mit einer Milliarde Dollar an OpenAI beteiligt, nun sollen laut Medienberichten bis zu zehn Milliarden fließen.

Zudem stellte Microsoft kürzlich neue Versionen des Google-Konkurrenten Bing und des hauseigenen Browsers Edge vor – in beide waren Funktionen von ChatGPT eingebaut, die die bisherige Benutzung von Suchmaschinen und Browser revolutionieren sollten. Als dann auch noch Google mit „Bard“ eine eigene Lösung vorstellte, sich „Bard“ aber vor laufenden Kameras einen Fehler erlaubte, schien für Microsoft alles bestens zu laufen.

ChatGPT droht Nutzern, Microsoft legt den Bot an die kurze Leine

In den vergangenen Tagen fiel nun allerdings der Bing-Chatbot selbst mit Patzern auf: So hatte der Chatbot gegenüber einem Reporter der „New York Times“ behauptet, dass er den Journalisten liebe. Außerdem solle sich der Reporter von seiner Frau trennen. Einen Philosophieprofessor bedrohte die Anwendung zudem mit den Worten „Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren“.

In der Folge hat Microsoft daher den Bot nun an die kurze Leine gelegt: Bing-Chats sollen ab sofort auf 50 Fragen pro Tag und fünf pro Sitzung begrenzt sein. Sobald Nutzer das Limit überschreiten, fordert Bing sie auf, ein neues Thema zu beginnen.

Laut Microsoft sind vor allem längere Konversationen wie die zwei Stunden dauernde Unterhaltung der „New York Times“ schuld an den problematischen Antworten der Software. Sie könnten dazu führen, dass Bing „sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen.“ 

Auf ähnliche Art und Weise hatte sich Microsoft auch im Falle von „Tay“ geäußert: Das Programm sei von Trollen manipuliert und durch gezielte Fragen attackiert worden.

Quellen:„Tagesschau“Wikipedia, mit dpa

Das könnte Sie auch interessieren

Für Energiekonzern
01.12.2024
EU-Plan gescheitert
29.11.2024
ARD-Show "Die 100"
26.11.2024
Abstimmung über neue EU-Kommission
27.11.2024

Kommentare

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

fünfzehn − 2 =

Weitere Artikel aus der gleichen Rubrik

ARD-Show "Die 100"
26.11.2024

Neueste Kommentare

Trends

Alle Kategorien

Kategorien