ChatGPT ist von sich aus weniger begeistert als wir

ChatGPT ist von sich aus weniger begeistert als wir


Der Autor ist Gründer von Gesiebtein von FT unterstütztes Medienunternehmen für europäische Start-ups

Was sollen wir von ChatGPT halten, der neuesten Iteration der „generativen künstlichen Intelligenz“, die die Tech-Welt elektrisiert? Obwohl es erst letzte Woche vom in San Francisco ansässigen Forschungsunternehmen OpenAI veröffentlicht wurde, haben bereits mehr als 1 Million Benutzer mit dem Chatbot experimentiert, der dazu aufgefordert werden kann, Unmengen an plausiblem Text mit erstaunlicher Geschwindigkeit zu produzieren.

Begeisterte Benutzer sagen voraus, dass ChatGPT die Erstellung von Inhalten, die Softwareproduktion, digitale Assistenten und Suchmaschinen revolutionieren und sogar die digitale Unterstruktur des menschlichen Wissens verändern wird. Einer twitterte, dass die Bedeutung von ChatGPT mit der Spaltung des Atoms vergleichbar sei.

Solche wilde Rhetorik bringt einige Informatiker dazu, sich die Haare zu raufen, wenn sie argumentieren, dass ChatGPT nichts anderes als ein ausgeklügeltes maschinelles Lernsystem ist, das zwar unglaublich gut in der Mustererkennung und -replikation ist, aber keinen Schimmer von Intelligenz aufweist. Außerdem ist ChatGPT nicht einmal eine neue Technologie. Es ist eine optimierte Version von GPT-3, einem sogenannten Large Language- oder Foundation-Modell, das 2020 von OpenAI veröffentlicht wurde und für den Dialog mit menschlicher Führung optimiert und für mehr Benutzer geöffnet wurde.

Faszinierend, ChatGPT selbst scheint von seinen eigenen Fähigkeiten viel weniger beeindruckt zu sein. Als ich es aufforderte, seine Fehler zu identifizieren, listete ChatGPT ein begrenztes Verständnis des Kontexts, einen Mangel an gesundem Menschenverstand, voreingenommene Trainingsdaten und ein Potenzial für Missbrauch auf, indem beispielsweise Fehlinformationen verbreitet wurden, um Finanzmärkte zu manipulieren. „Während ChatGPT eine leistungsstarke und beeindruckende Technologie ist, ist sie nicht ohne Einschränkungen und potenzielle Mängel“, antwortete sie. Ein Forscher ist unverblümter. „Es halluziniert Tatsachen“, sagt er.

Während sich das meiste öffentliche Interesse an ChatGPT auf seine Fähigkeit konzentriert, Text zu generieren, kann seine größte geschäftliche und gesellschaftliche Wirkung von seiner entsprechenden Fähigkeit, ihn zu interpretieren, ausgehen. Diese Modelle stärken jetzt semantische Suchmaschinen und versprechen den Benutzern weitaus personalisiertere und relevantere Inhalte.

Während herkömmliche Suchmaschinen Ergebnisse entsprechend der Anzahl und Qualität der Links zu einer Seite liefern – die als Indikator für die Wichtigkeit angesehen werden –, durchkämmen semantische Suchmaschinen die Relevanz des Seiteninhalts. Google entwickelt sein eigenes leistungsstarkes LaMDA-Grundlagenmodell, während Microsoft, das die Suchmaschine Bing betreibt, stark in OpenAI investiert hat.

Die Art und Weise, wie Grundlagenmodelle zum Interpretieren und Generieren von Inhalten in großem Maßstab verwendet werden können, war demonstriert von einem Forschungsteam der McGill University. Sie verwendeten ein früheres GPT-2-Modell, um 5.000 Artikel über die Pandemie zu lesen, die von der Canadian Broadcasting Corporation produziert wurden, und veranlassten sie, „kontrafaktischen Journalismus“ über die Krise zu erstellen.

Die Berichterstattung des GPT-2-Modells war alarmierender und betonte die biologischen und medizinischen Aspekte der Pandemie, während sich der ursprüngliche, menschliche Journalismus mehr auf Persönlichkeiten und Geopolitik konzentrierte und ein „Rally-around-the-Flag“-Element erzwungener Positivität einbrachte. „Wir verwenden KI, um menschliche Vorurteile hervorzuheben“, sagt Andrew Piper, der das McGill-Forschungsprojekt leitete. „Wir nutzen Simulationen, um die Realität zu verstehen.“

Aber durch das Einfügen nicht spezifizierter menschlicher Eingaben in ChatGPT fügt OpenAI eine neue Dimension der Kontroverse hinzu. Vernünftigerweise hat OpenAI Leitplanken hinzugefügt, um zu verhindern, dass ChatGPT giftige oder gefährliche Inhalte generiert. So weigerte sich beispielsweise ChatGPT, mir zu sagen, wie man eine Atombombe baut.

Solche Leitplanken sind unerlässlich, um den Missbrauch von Gründungsmodellen zu verhindern, aber wer entscheidet, wie diese Sicherheitsvorkehrungen gestaltet und betrieben werden, fragt Percy Liang, Direktor des Forschungszentrums für Gründungsmodelle der Stanford University. Diese Modelle können für die wissenschaftliche und medizinische Forschung und die Automatisierung mühsamer Aufgaben unglaublich nützlich sein. „Aber sie können auch das Informationsökosystem zerstören“, sagt er.

Die Konturen der Debatte zwischen paternalistischer und libertärer KI zeichnen sich schnell ab. Sollten solche Modelle kontrolliert oder „demokratisiert“ werden? „Das Ausmaß des Zensurdrucks, der auf KI zukommt, und die daraus resultierende Gegenreaktion werden das nächste Jahrhundert der Zivilisation bestimmen“, twitterte Marc Andreessen, der Tech-Unternehmer und Investor.

Andreessen übertreibt vielleicht, aber es ist zweifellos wahr, dass Stiftungsmodelle zunehmend die Art und Weise prägen werden, wie wir Online-Inhalte sehen, darauf zugreifen, sie generieren und interpretieren. Wir müssen hinterfragen, wer diese neuen digitalen Portale zu menschlichem Wissen betreibt und wie sie genutzt werden. Aber es ist zweifelhaft, ob irgendjemand außerhalb der Pionierunternehmen dieser Technologie ihre gespenstisch schnelle Entwicklung wirklich verstehen, geschweige denn gestalten kann.



ttn-de-58

Schreibe einen Kommentar