OpenAI hat GPT-4 veröffentlicht, sein neuestes Modell für künstliche Intelligenz, von dem es behauptet, dass es bei mehreren akademischen und beruflichen Benchmarks wie der US-Anwaltsprüfung, fortgeschrittenen Einstufungstests und den SAT-Schulprüfungen „Leistung auf menschlicher Ebene“ aufweist.
Das neue Modell, auf das über die 20-Dollar-Version von ChatGPT zugegriffen werden kann, ist multimodal, was bedeutet, dass es Eingaben sowohl in Text- als auch in Bildform akzeptieren kann. Es kann diese Abfragen dann analysieren und mithilfe von Text beantworten.
OpenAI sagte, es habe seine neue Software in eine Vielzahl von Apps eingebettet, darunter die Sprachlern-App Duolingo, die sie verwendet, um Bots für Konversationssprache zu erstellen; Bildungsunternehmen Khan Academy, das einen Online-Tutor entwickelt hat; und Morgan Stanley Wealth Management, das einen internen Chatbot mit GPT-4 testet, um Informationen für seine Mitarbeiter abzurufen und zu synthetisieren.
Die Fähigkeit des Modells, Bilder und Text als Eingabe zu akzeptieren, bedeutet, dass es jetzt detaillierte Beschreibungen erstellen und Fragen basierend auf dem Inhalt eines Fotos beantworten kann. Das Unternehmen sagte, es habe sich mit dem dänischen Start-up Be My Eyes zusammengetan, das Menschen mit Sehbehinderungen mit menschlichen Freiwilligen verbindet, um einen GPT-4-basierten virtuellen Freiwilligen aufzubauen, der Blinde oder Sehbehinderte führen oder ihnen helfen kann.
Der Vorgänger von GPT-4, GPT-3.5, beflügelte Ende letzten Jahres die Fantasie von Millionen von Menschen, die mit dem Frage-und-Antwort-Chatbot ChatGPT experimentierten.
Laut OpenAI, GPT-4 ist das „bisher fortschrittlichste System“. Es behauptet, es sei zuverlässiger und in der Lage, nuancierte Abfragen weitaus besser zu handhaben als sein Vorgänger. So erzielte GPT-4 beispielsweise beim Uniform Bar Exam, das von angehenden Anwälten in den USA abgelegt wird, im 90. Perzentil, im Vergleich zu ChatGPT, das nur das 10. Perzentil erreichte.
Das Unternehmen stellte jedoch einige Probleme fest: „Trotz seiner Fähigkeiten hat GPT-4 ähnliche Einschränkungen wie frühere GPT-Modelle: Es ist nicht vollständig zuverlässig (z. B. kann es an ‚Halluzinationen‘ leiden), hat ein begrenztes Kontextfenster und lernt nicht daraus Erfahrung.“
„Bei der Verwendung der Ergebnisse von GPT-4 ist Vorsicht geboten, insbesondere in Kontexten, in denen Zuverlässigkeit wichtig ist“, fügte das Unternehmen hinzu.
Anfang dieses Jahres bestätigte Microsoft eine „Multimilliarden-Dollar-Investition“ in OpenAI über mehrere Jahre und setzte damit auf die Zukunft der generativen KI – Software, die auf komplexe menschliche Anfragen in natürlich klingender Sprache antworten kann. GPT-4 wird Microsofts Bing-Chatbot unterstützen, der Anfang dieses Jahres eine begrenzte Veröffentlichung hatte. Es wird auch erwartet, dass Microsoft in den kommenden Tagen seine Integration in seine Verbraucherprodukte bekannt gibt.
In der Zwischenzeit hat Google seinen eigenen Konversations-Chatbot Bard für einen begrenzten Pool von Testern geöffnet und angekündigt, dass es Kunden von Google Cloud zum ersten Mal den Zugriff auf sein großes Sprachmodell PaLM ermöglichen wird, um Anwendungen zu erstellen.
OpenAI, das einige Details früherer Modelle wie GPT-3 veröffentlicht hatte, gab an, keine Details zu den technischen Aspekten von GPT-4 preiszugeben, einschließlich der Architektur des Modells, der Daten, auf denen es trainiert wurde, oder der Hardware und des Computing aufgrund von Wettbewerbs- und Sicherheitsbedenken die für den Einsatz genutzte Kapazität.
Um die Schäden der Technologie zu testen, hat das Unternehmen GPT-4 Stresstests unterzogen und die Risiken dargelegt, die es in Bezug auf Voreingenommenheit, Desinformation, Datenschutz und Cybersicherheit vorhersieht. Es zeigte sich, dass GPT-4 „potenziell schädliche Inhalte generieren kann, wie beispielsweise Ratschläge zur Planung von Angriffen oder Hassreden. Es kann verschiedene Vorurteile und Weltanschauungen darstellen. . . Es kann auch Code generieren, der kompromittiert oder anfällig ist.“ OpenAI sagte, es könne detaillierte Informationen darüber liefern, wie man illegale Aktivitäten durchführt, einschließlich der Entwicklung biologischer Waffen.
Das Unternehmen sagte, es habe auch mit einer externen Organisation zusammengearbeitet, um zu testen, ob GPT-4 in der Lage sei, autonome Aktionen ohne menschliches Zutun auszuführen, und kam zu dem Schluss, dass es dazu „wahrscheinlich“ noch nicht in der Lage sei.
Zusätzliche Berichterstattung von Richard Waters