Bleiben Sie mit kostenlosen Updates auf dem Laufenden
Melden Sie sich einfach an Künstliche Intelligenz myFT Digest – direkt in Ihren Posteingang geliefert.
Google hat sein neuestes Modell für künstliche Intelligenz, Gemini, vorübergehend daran gehindert, Bilder von Menschen zu erstellen, da es zu Gegenreaktionen wegen der Darstellung verschiedener Ethnien und Geschlechter kam.
Gemini erstellt realistische Bilder basierend auf Benutzerbeschreibungen, ähnlich wie ChatGPT von OpenAI. Wie andere Modelle ist es darauf trainiert, nicht auf gefährliche oder hasserfüllte Aufforderungen zu reagieren und Vielfalt in seine Ergebnisse einzuführen.
Einige Benutzer haben sich jedoch darüber beschwert, dass es bei der Generierung von Bildern von Frauen und farbigen Menschen zu stark korrigiert wurde, sodass diese in historischen Kontexten ungenau dargestellt werden, beispielsweise in Darstellungen von Wikingerkönigen oder deutschen Soldaten aus dem Zweiten Weltkrieg.
„Wir arbeiten daran, diese Art von Darstellungen sofort zu verbessern“, sagte Google. „Die Image-Generierung von Gemini bringt tatsächlich ein breites Spektrum an Menschen hervor. Und das ist im Allgemeinen eine gute Sache, denn Menschen auf der ganzen Welt nutzen es. Aber hier fehlt das Ziel.“
Es fügte hinzu, dass es „die Bildgenerierung von Menschen unterbrechen und bald eine verbesserte Version erneut veröffentlichen wird“.
Der Suchriese bezeichnete Gemini als sein „größtes, leistungsfähigstes und allgemeinstes“ KI-System und fügte hinzu, dass es über ausgefeilte Argumentations- und Codierungsfähigkeiten verfüge.
Das Modell folgt der Veröffentlichung anderer anspruchsvoller Produkte von Konkurrenten wie OpenAI, Meta und den Start-ups Anthropic und Mistral.
Ein Kernmerkmal generativer KI-Modelle ist ihre Tendenz, Namen, Daten und Zahlen zu „halluzinieren“ oder zu erfinden. Dies liegt daran, dass die Software darauf ausgelegt ist, Muster zu erkennen und die beste nächste Option in einer Sequenz zu erraten.
Aufgrund dieser prädiktiven Natur können die von diesen Modellen generierten Bilder und Texte ungenau oder sogar absurd sein – ein Problem, an dessen Minimierung KI-Unternehmen wie OpenAI und Google arbeiten.
In einer aktuellen Studie der Stanford University über Antworten, die von drei KI-Modellen auf 200.000 juristische Anfragen generiert wurden, stellten Forscher fest, dass Fragen zu zufälligen Fällen vor Bundesgerichten zu weit verbreiteten Fehlern führten. ChatGPT-3.5 von OpenAI lieferte in 69 Prozent der Fälle erfundene Antworten, während das Llama-2-Modell von Meta 88 Prozent erreichte.
Um Fehler und Verzerrungen in generativen Modellen zu reduzieren, nutzen Unternehmen einen Prozess namens „Fine-Tuning“. Dies beruht häufig auf menschlichen Prüfern, die berichten, ob sie die Eingabeaufforderungen und Antworten der KI für ungenau oder beleidigend halten.
Google sagte, sein Ziel bestehe nicht darin, eine ideale demografische Aufteilung der Bilder festzulegen, sondern vielmehr darin, die Vielfalt zu maximieren, was seiner Meinung nach zu qualitativ hochwertigeren Ergebnissen für ein breites Spektrum von Eingabeaufforderungen führe.
Es wurde jedoch hinzugefügt, dass das Modell manchmal übereifrig dabei sein könnte, Leitlinien zur Vielfalt zu berücksichtigen, was zu einer Überkorrektur führen könnte.
Untersuchungen der University of Washington, der Carnegie Mellon University und der Xi’an Jiaotong University im August ergaben, dass KI-Modelle, darunter GPT-4 von OpenAI und LLaMA von Meta, je nach ihrer Entwicklung unterschiedliche politische Vorurteile haben.
Beispielsweise stellte das Papier fest, dass die Produkte von OpenAI tendenziell linksgerichtet seien, während die Produkte von Metas LLaMA eher einer konservativen Position zuzuordnen seien.
Rob Leathern, der bis letztes Jahr bei Google an Produkten im Zusammenhang mit Datenschutz und Sicherheit arbeitete, sagte auf X: „Man sollte auf keinen Fall davon ausgehen, dass es sich bei bestimmten generischen Suchanfragen um ein bestimmtes Geschlecht oder eine bestimmte Rasse handelt (z. B. Softwareentwickler), und das habe ich gerne getan.“ Sehen Sie sich diese Veränderung an.“
Er fügte hinzu: „Aber wenn es ausdrücklich hinzufügt [a gender or race] Bei spezifischeren Abfragen wirkt es ungenau. Und wenn die Leute verärgert sind, kann es tatsächlich der positiven Absicht des ersten Falles schaden.“