ChatGPT ist fließend, clever und gefährlich kreativ

ChatGPT ist fliessend clever und gefaehrlich kreativ


Diese Woche habe ich bei einem vielversprechenden jungen Dichter, dem Chatbot für künstliche Intelligenz ChatGPT, ein Haiku über den großen Brand von London im Jahr 1666 in Auftrag gegeben. Ein paar Sekunden später kam folgendes heraus: „Asche fällt wie Schnee/Großes Feuer fegt durch die Londoner Stadt/Zerstörung herrscht über alles.“

Nun, nicht schlecht. In der ersten Zeile gibt es ein jahreszeitliches Gleichnis. Weniger überzeugt bin ich von der zweiten, die sich verdächtig nach der Aufgabe selbst liest. Der dritte enthält zu viele Silben aber auch ein doppeltes Wortspiel zu „Reigns“, das sowohl die englische Monarchie als auch den Ascheregen beschwört. War es Absicht?

Es übertraf das Sonett, das ich ChatGPT zum selben Thema zu schreiben bat, das einen zwielichtigen Versmaßstab und schwerfällige Reime hatte („Am Ende wurde das Feuer endgültig gelöscht/Ein Vermächtnis von Mut und Stärke hinterlassen“). Denken Sie auch an den Country-Refrain über Silvester: „Ich werde ein Glas auf das Alte erheben/Und auf das Neue anstoßen/Bringt das Feuerwerk und Prost/Es ist Zeit, neu anzufangen.“

Woher all die Ersatzkreativität kam, ist schwer zu sagen. Wie ChatGPT auf meine Frage antwortete: „Große Sprachmodelle wie ich werden mit riesigen Mengen an Textdaten trainiert, die von Hunderten von Gigabyte bis zu mehreren Terabyte groß sein können.“ Aber da draußen gibt es noch viel mehr: Als ich verschiedene Befehle in ein Textfeld eingab, erfüllte es die meisten von ihnen schnell.

Viele andere haben mit ChatGPT herumgespielt, seit es letzte Woche von OpenAI, einem Unternehmen in Kalifornien, gestartet wurde. Das maschinell lernende Orakel knarrte unter der Belastung der Anforderungen von mehr als 1 Million Benutzern, die von der Erstellung kurzer Aufsätze bis zur Beantwortung von Fragen reichten. Es schrieb Briefe, erteilte grundlegende medizinische Ratschläge und fasste die Geschichte zusammen.

ChatGPT ist unheimlich beeindruckend, ebenso wie Dall-E, der KI-Generator für digitale Bilder aus Texteingabeaufforderungen, der letztes Jahr erstmals von OpenAI vorgestellt wurde. Hat man beide einmal ausprobiert, kann man sich des Gefühls nicht erwehren, dass Agenten natürlicher Sprache viele Bereiche revolutionieren werden, von Musik und Videospielen bis hin zu Recht, Medizin und Journalismus. Die Chatbots kommen schnell für uns Profis.

Aber ChatGPT ist auch wie einige Leute, die ich kenne: Es kann skizzenhafte Informationen in fließende und überzeugende Antworten verwandeln. Es klingt richtig, selbst wenn es Dinge auf der Grundlage von etwas erfindet, das es irgendwo gelesen hat und das selbst aus anderen Quellen wieder herausgewürgt wurde. Seine glatte, artikulierte Stimme ist normalerweise überzeugend, aber man kann sich nicht voll und ganz auf sie verlassen.

Nehmen Sie den Aufsatz mit fünf Absätzen, den er produzierte, als ich ihn bat, Hamlets Behandlung von Ophelia in Shakespeares Stück zu beschreiben. Dies hatte eine faire Präzisierung („Während des gesamten Stücks ist Hamlet zwischen seiner Pflicht, den Mord an seinem Vater zu rächen, und seiner Liebe zu Ophelia“), behauptete jedoch, dass „Hamlets Handlungen von dem Wunsch motiviert sind, diejenigen zu beschützen, die er liebt“. Wirklich?

Dann war da noch der Rechtsbrief, den sie auf meinen Befehl hin an den anderen Fahrer bei einem fiktiven Autounfall verfasst hatte. „Laut Polizeibericht waren Sie zu schnell und haben an einer roten Ampel nicht angehalten, wodurch Sie mit meinem Auto kollidierten. . . Ich fordere Sie daher auf, den Schaden, den ich erlitten habe, vollständig und fair zu entschädigen“, schrieb sie. Klar, aber imaginär.

Die Gefahr besteht darin, dass ChatGPT und andere KI-Agenten eine Technologieversion von Greshams Gesetz über die Verfälschung des 16. Jahrhunderts erstellen Prägung, dass „schlechtes Geld das Gute verdrängt“. Wenn ein unzuverlässiges sprachliches Mashup frei zugänglich ist, während die ursprüngliche Recherche kostspielig und mühsam ist, wird ersteres gedeihen.

Aus diesem Grund hat Stack Overflow, ein Beratungsforum für Coder und Programmierer, diese Woche ein vorübergehendes Verbot für seine Benutzer verhängt, Antworten von ChatGPT zu teilen. „Das Hauptproblem ist, dass die Antworten, welche [it] Produkte haben eine hohe Rate an Fehlern, sie sehen normalerweise so aus, als könnten sie gut sein“, schrieben die Moderatoren.

Die kreativen Arbeiten von ChatGPT sind weniger anfällig dafür, als phantasievoll entlarvt zu werden. Selbst wenn sie mittelmäßig sind, sind ihre Sonette und die Bilder von Dall-E nicht definitiv falsch. Aber Sam Altman, CEO von OpenAI, glaubt, dass sich sein Agent zu einem nützlichen Forschungswerkzeug entwickeln wird. „Wir können uns einen ‚KI-Büroangestellten‘ vorstellen, der wie ein Mensch Anfragen in natürlicher Sprache entgegennimmt“, sagt er schrieb.

Das stelle ich mir schon vor: Es fühlt sich schon fast so an. Tiefgründige Essays über Hamlet erweisen sich als langwierig, könnten aber die Szenen, in denen Hamlet und Ophelia beide vorkommen, genau auflisten. Es gab auch eine prägnante Zusammenfassung der Top-Fahrer der Formel 1 in der Vergangenheit. Diese Art der Grundlagenforschung spart dem Menschen Zeit.

Aber es muss vorsichtig eingesetzt werden, und da ist der Haken. ChatGPT ist wie eine urbane, übermütige Version von Wikipedia oder der Google-Suche: nützlich als Ausgangspunkt, aber nicht für vollständige Antworten. Es entspricht zu genau der Zusammenfassung des Journalisten Nicholas Tomalin über die wesentlichen Eigenschaften für seinen Job: „Rattenartige List, ein plausibles Auftreten und ein wenig literarisches Talent.“

Es hat keinen Sinn, zu versuchen, ChatGPT zu stoppen, denn es wurde jetzt entfesselt und wird wahrscheinlich besser werden. Mit der Zeit werden wir Anwendungen für natürlichsprachliche KI-Agenten entdecken, die wir uns noch nicht vorstellen können. In der Zwischenzeit hoffe ich, dass die Zerstörung nicht an oberster Stelle steht.

[email protected]



ttn-de-58

Schreibe einen Kommentar