Bedenken bezüglich ChatGPT: Versinken wir in einem Sumpf von Desinformation?

Bedenken bezueglich ChatGPT Versinken wir in einem Sumpf von Desinformation


In kurzer Zeit eroberte die beeindruckende KI-Software ChatGPT die Welt. Sowohl die Öffentlichkeit als auch die Wirtschaft haben hohe Erwartungen. Kritiker sehen etliche Bären auf der Straße.

Laurent Verhagen

‚Es Jurassic ParkMoment der künstlichen Intelligenz‘, nannte es der amerikanische KI-Experte Gary Marcus kürzlich in einem Podcast. Er spricht über das viel diskutierte Stück KI-Werkzeuge ChatGPT. Das ist nichts, was Dinosaurier zum Leben erwecken kann, sondern ein zugängliches Chat-Programm, das unschuldig aussieht.

Es ist schwer vorstellbar, dass ChatGPT erst vor zwei Monaten gestartet wurde. Zum ersten Mal kann die breite Öffentlichkeit bewusst mit KI beginnen, indem sie dem Programm Aufgaben gibt, von der Zusammenfassung eines Textes über die Verbesserung des Programmiercodes bis hin zum Schreiben eines Rezepts in poetischer Form. Microsoft hat vergangene Woche zugesagt, weitere Milliarden Dollar zu investieren und die Technologie in seine Suchmaschinen- und Office-Suiten zu integrieren.

Von der anfänglichen Bewunderung und Verwunderung („Wow, das ist ziemlich gut“) über ChatGPT ging es über Verachtung („Das ist ziemlich dumm“) zu Angst („Moment mal, das könnte wirklich groß werden“) und Panik („ Hilfe Bildung! Hilfe unsere Jobs!‘). Während sich ein Großteil der Diskussion bisher darauf konzentriert hat, was ChatGPT für die Bildung bedeutet, gibt es auch andere Aspekte, die Experten beschäftigen.

„Petes Mutter hat vier Kinder. Drei heißen Sophie, Anna und Sem. Wie heißt der vierte?« Das Programm hat keine Ahnung, obwohl kein Wissen über diesen Satz hinaus erforderlich ist, um die Frage zu beantworten: „Wenn ich nur drei Namen kenne, kann ich den vierten unmöglich vorhersagen“, antwortet die KI-Software ChatGPT.

So gut ChatGPT oft auch erscheinen mag, Beispiele wie dieses beweisen, dass die KI noch weit von echtem Verständnis oder menschlicher Intelligenz entfernt ist.

„ChatGPT kann nur bedingt logisch argumentieren“, erklärt KI-Experte Laurens Vreekamp. „Es ist keine deterministische, sondern eine Vorhersagemaschine.“ Also Statistik: Wie hoch ist die höchstmögliche Wahrscheinlichkeit, dass eine Person Wort B nach Wort A in einem bestimmten Kontext verwendet? Nicht umsonst bezeichnen Experten ein Sprachmodell wie ChatGPT als „stochastischer Papageiein System, das Fragmente aus anderen Texten basierend auf zufälligen Ergebnissen neu erstellt.

Inzwischen sind die Erwartungen der Öffentlichkeit viel höher, vermutlich angeheizt durch die täuschend gut formulierten Antworten, die der Sendung einen Hauch von echter Intelligenz verleihen. Und vielleicht auch wegen der sonnigen Aussichten, die OpenAI-Gründer Sam Altman skizziert hat, dessen Sprache die des archetypischen Tech-Optimisten ist. Altman gehört wie beispielsweise Elon Musk zu den Menschen, für die klar ist, dass AGI (Künstliche allgemeine Intelligenz) kommt; die Art von künstlicher Intelligenz, die sich nicht in einem bestimmten Bereich auszeichnet, aber dem Menschen in allen Bereichen überlegen ist.

ChatGPT sei nur ein unbedeutender Zwischenstopp auf diesem Traumpfad, sagt Altman. Die technologische Revolution, die jetzt begonnen hat, ist seiner Meinung nach unaufhaltsam. Im Gegensatz zu seinen Skeptikern sieht Altman eine glänzende Zukunft, in der Maschinen aus eigener Initiative wissenschaftliche Entdeckungen machen, der Preis für (von Maschinen bereitgestellte) Arbeitskraft gegen Null geht und die gesamte Menschheit von einem beispiellosen Reichtum an Freizeit profitiert.

Es ist unsere Mission sicherzustellen, dass die gesamte Menschheit von AGI profitiert Motto von OpenAI. Nichts Neues unter der Sonne des Silicon Valley: Google wollte schon immer das Richtige tun (Sei nicht böse), während Facebook die Welt schöner machen wollte, indem es alle Menschen miteinander verbindet. Kurz gesagt, Technologie ist dazu da, Probleme zu lösen und die Welt zu einem besseren Ort zu machen. Die techno-utopische Rhetorik von OpenAI kommt bei Investoren gut an, hat sich aber noch nicht in der Praxis bestätigt.

Aus peinlichen Beispielen aus der Vergangenheit gelernt – denken Sie an den Microsoft-Chatbot, der sich in kürzester Zeit in einen aggressiven Nazi verwandelte – hat OpenAI Angst davor, mit hasserfüllten, sexistischen, aggressiven oder rassistischen Texten etwas falsch zu machen. Aus diesem Grund stellt OpenAI, dessen Wert bereits auf etwa 30 Milliarden US-Dollar geschätzt wird, eine Armee von Kenianern ein, um das Sprachmodell für einen sehr niedrigen Stundenlohn (zwischen 1,24 und 1,85 Euro pro Stunde) weniger giftig zu machen. also offenbart Times-Magazin. Schmerzhaft für ein Unternehmen, das gleichzeitig sagt, dass die gesamte Menschheit von KI profitieren wird. „Milliardäre, die ihren Altruismus zur Schau stellen, das ist auch zu schön, um wahr zu sein“, sagt Gys-Walt van Egdom, Dozent für Übersetzungswissenschaft an der Universität Utrecht. „Letztendlich geht es bei OpenAI auch um Geld.“

Es ist nicht die einzige Sorge. Wissenschaftler beschweren sich zum Beispiel über die – oh, Ironie – geschlossene Natur von OpenAI, die Microsoft exklusiven Zugriff auf seinen Quellcode verschafft hat. Und gibt es Bedenken hinsichtlich der Auswirkungen auf das Klima der gigantischen Sprachmodelle, die OpenAI verwendet, weil deren Training und Verwendung enorm viel Rechenleistung und damit Energie kostet. Dies führte dazu, dass die Nijmegener KI-Professorin Iris van Rooij ihre Kollegen aufsuchte dem ChatGPT-Hype nicht beizutreten: „Warum lassen wir unsere wissenschaftliche Forschung und Debattenagenden von profitorientierter KI-Technologie diktieren? Dem sollten wir entgegentreten und kritisch darüber nachdenken.‘

KI hat das Potenzial, Ihnen viel Arbeit abzunehmen und die Kosten gegen null zu senken, prognostiziert OpenAI-Gründer Altman. Das ist richtig, aber es werden nicht nur die aufrichtigen Unternehmen profitieren. Der Übersetzungswissenschaftler Van Egdom zitiert die notorisch ungeschickten Phishing-E-Mails aus der Vergangenheit, in denen „nigerianische Prinzen“ naive Opfer dazu verführen, Geld zu überweisen. Diese knatternden Nachrichten lassen sich mit Hilfe von ChatGPT in Kombination mit einer passenden Seite im Handumdrehen zu überzeugenden und gut laufenden Texten aufwerten.

Eine weitere Form des Missbrauchs besteht darin, dass die künstliche Intelligenz genutzt wird, um Desinformationskampagnen beispielsweise durch staatliche Akteure wie Russland durchzuführen. Es war noch nie so einfach, eine Nachrichtenseite mit scheinbar überzeugenden, aber fehlerhaften Informationen auf dem Laufenden zu halten. Kurzum: Auch der Selbstkostenpreis von Unsinn und Desinformation bewegt sich gegen Null.

In etwa drei Jahren werden bis zu 90 Prozent aller Inhalte im Internet von Computern produziert, prognostiziert Deepfake-Spezialistin Nina Schick. Das können Texte, aber auch Audio-, Foto- oder Videomaterial sein. Das Problem dabei: Die KI wird in den kommenden Jahren zwar schnell besser darin, flüssige Texte zu erstellen, aber nicht unbedingt ein besseres Verständnis der Wahrheit.

Auch jetzt läuft es nicht immer rund und ChatGPT gibt falsche Informationen, obwohl das Sprachmodell mit großen Mengen von Menschen geschriebener Texte gefüttert wird. Aber was passiert, wenn der Input mit – wenn auch gut geschriebenem – Unsinn verseucht ist? Ein ‚Tsunami von Bullshit‘, gewarnt Phil Libin, der Gründer der Notiz-App Evernote, kürzlich. Der Übersetzungswissenschaftler Van Egdom unterstützt dieses Problem und skizziert ein neues Kapitel in der Post-Wahrheit, in dem sich die KI darum kümmern wird, ob sie eine Wahrheit oder eine Lüge verbreitet. Quatsch Anrufe Der amerikanische Philosoph Harry Frankfurt hält dieses Verhalten für eine größere Drohung als für eine Lüge, denn der Lügner verschleiert die Wahrheit, respektiert sie aber dennoch.

Skulptur Joren Joshua

Und dieser Bullshit wird sich schnell vermehren, prognostiziert Van Egdom: „Die Sprachmodelle, die wir jetzt sehen, sind so effizient, dass die digitale Welt die reale Welt zunehmend überlagern wird, bis die Konturen der realen Welt kaum noch zu sehen sind .‘ Van Egdom bezieht sich auf den französischen Philosophen Jean Baudrillard, der vor Jahrzehnten den Begriff „Hyperrealität“ prägte, um eine Situation zu beschreiben, in der die Realität so von ihren Darstellungen („Simulationen“) durchdrungen ist, dass es unmöglich ist, die beiden zu unterscheiden.

Im Falle einer Zunahme von Texten, die von ChatGPT ausgespuckt werden, könnte dies bedeuten, dass Verbraucher nicht mehr zwischen „echtem“ (künstlichem) Material und den synthetischen Kopien unterscheiden können, die nur eine Illusion von Authentizität und Verständnis der Welt vermitteln.

Gibt es noch einen Ausweg aus diesem Wirrwarr von Darstellungen, Konturen, Präsentationen und Imitationen? „Wir lassen all das geschehen und versinken in der Zwischenzeit im Sumpf der Technologie“, sagt Van Egdom. Digitalkompetenz könnte Teil der Lösung sein, hofft er.

KI-Experte Vreekamp bleibt positiv eingestellt: „Die Öffentlichkeit ist sich jetzt der Risiken und Grenzen technologisch getriebener Lösungen bewusst, was mit dem Aufkommen von Social Media anders war.“ Er erwartet, dass synthetische und künstliche Texte weiterhin nebeneinander oder in hybrider Form existieren werden. Dienste wie ChatGPT erweisen sich daher nicht als Gesamtlösung, sondern vor allem als äußerst nützliche Hilfestellung beispielsweise in einer Suchmaschine, einem Mailprogramm oder einer Textverarbeitung.





ttn-de-23

Schreibe einen Kommentar