Gemini

Google stoppt KI-generierte Bilder von Menschen – das steckt dahinter

25.02.2024
Lesedauer: 3 Minuten
Auf den Prompt „Zeige einen deutschen Soldaten aus dem Jahr 1943“ erzeugte Gemini diese Bilder. Foto: Screenshot Twitter/@qorgidaddy

Der Tech-Konzern hatte mit übertrieben diversen Darstellungen historischer Personen für Aufregung gesorgt. Nun arbeitet Google an einer verbesserten Version des Chatbots. 

Mit Googles KI-Modell Gemini lassen sich vorübergehend keine Bilder von Menschen mehr generieren. Der US-Tech-Konzern reagierte damit am Donnerstag auf Kritik in den sozialen Medien an ungenauen historischen Darstellungen, die der Chatbot erzeugt hatte.

So hatte Gemini beispielsweise Bilder der US-Gründerväter und deutscher Soldaten aus dem Zweiten Weltkrieg generiert, die auch Frauen und Personen verschiedener Ethnien zeigten.

KI-Modelle wie Gemini sind darauf trainiert, nicht auf anstößige oder radikale Prompts einzugehen und auf Diversität zu achten. Genau das bereitet dem Sprachmodell jetzt Probleme. Nutzer warfen Google vor, die Geschlechter- und Rassenstereotypen generativer Künstlicher Intelligenz unterbinden zu wollen, dabei aber neue Fehler produziert zu haben. Zuerst hatte das Tech-Magazin „The Verge“ berichtet.

Wie es in einem Statement des Konzerns auf X heißt, arbeitet Google bereits an einer neuen, verbesserten Version des Chatbots. Am Vortag hatte das Unternehmen sich bereits für derartige „Ungenauigkeiten in einigen historischen Darstellungen“ entschuldigt.

Einige Nutzer verbreiteten auf X bereits die Verschwörungstheorie, Google lasse seine KI absichtlich keine Bilder mit weißen Menschen erstellen.

Entwickler haben den KI-Modellen Vorurteile abtrainiert

Der Grund, weshalb Googles Sprachmodell aber Bilder in historisch falschen Kontexten generiert, ist ein anderer. In der Vergangenheit hatten KI-Modelle wie Dall-E von Open AI, Midjourney oder Stable Diffusion mit Vorurteilen zu kämpfen. Sie zeigten beispielsweise nicht-weiße Menschen, wenn sie nach Bildern von Gefangenen gefragt wurden, oder ausschließlich weiße Menschen, wenn sie aufgefordert wurden, Konzernchefs zu zeigen. Entwickler trainierten den Bild-Generierungsprogrammen diese Vorurteile in der Folge ab.

Sasha Luccioni, Forscher beim KI-Start-up Hugging Face, erklärte gegenüber dem Onlinemagazin „Wired“: „Bildgenerierungsmodelle haben eigentlich keine Vorstellung von Zeit, daher ist jede Art von Diversifizierungstechnik, die die Entwickler von Gemini angewandt haben, auf jedes vom Modell erzeugte Bild übertragen worden.“

Gary Marcus, Professor für Psychologie und Neurowissenschaften an der New York University, ging in seinem Newsletter härter mit den Google-Entwicklern ins Gericht: „Ich denke, es ist einfach eine lausige Software.“ Google wird Gemini jetzt beibringen müssen, zwischen historischen und aktuellen Anfragen zu unterscheiden. 

Dabei hatte Google seine Dienste erst vor wenigen Wochen neu geordnet und unter der Marke Gemini zusammengefasst. Von Entwicklern weltweit wurde Gemini als Vorzeigemodell gefeiert, weil es nicht nur darauf trainiert wurde Texteingaben zu verarbeiten, sondern auch Bilder und Tondaten. Viele der damals angekündigten neuen Funktionen waren zunächst in der EU und Kanada noch nicht freigeschaltet, darunter auch die Bildgenerierung.

Mit Agenturmaterial

Mehr: Google stellt neue KI-Modelle vor – und könnte der Konkurrenz damit den Rang ablaufen

Erstpublikation: 22.02.2024, 19:19 Uhr

Das könnte Sie auch interessieren

Rechtsextremes Blatt
17.07.2024

Kommentare

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

acht + dreizehn =

Weitere Artikel aus der gleichen Rubrik

Rechtsextremes Blatt
17.07.2024
Kriegsbegeisterung beim ZDF?
10.07.2024

Neueste Kommentare

Trends

Alle Kategorien

Kategorien