Die „KI-Doomer“ haben diesen Kampf verloren


Bleiben Sie mit kostenlosen Updates auf dem Laufenden

Der Autor ist ein Technologieanalyst

In der vergangenen Woche hat der Vorstand von OpenAI innerhalb von fünf Tagen vier CEOs durchlaufen. Sie beschuldigte den ursprünglichen Vorstandsvorsitzenden Sam Altman der Lüge, machte jedoch später einen Rückzieher und weigerte sich zu sagen, was das bedeutete. Neunzig Prozent der Mitarbeiter der Organisation unterzeichneten einen offenen Brief, in dem sie erklärten, sie würden austreten, wenn der Vorstand dies nicht täte. Das Silicon Valley war sowohl gefesselt als auch entsetzt. Am Mittwoch war Altman zurück, zwei der drei externen Vorstandsmitglieder waren ersetzt worden und alle konnten etwas schlafen.

Man könnte leicht sagen, dass dieses Chaos zeigte, dass sowohl der Vorstand von OpenAI als auch seine seltsam unterteilte gemeinnützige und gewinnorientierte Struktur nicht ihren Zweck erfüllen. Man könnte auch vermuten, dass die externen Vorstandsmitglieder nicht über den entsprechenden Hintergrund oder die entsprechende Erfahrung verfügten, um ein 90-Milliarden-Dollar-Unternehmen zu beaufsichtigen, das die Agenda für einen äußerst wichtigen technologischen Durchbruch festgelegt hat. Man könnte wahrscheinlich auch weniger höfliche Dinge sagen, und das alles mag wahr sein, aber es wäre auch unvollständig.

Soweit wir wissen (und die Tatsache, dass ich sagen muss, dass dies auch ein Problem darstellt), war der zugrunde liegende Konflikt innerhalb von OpenAI einer, auf den viele Leute im vergangenen Jahr hingewiesen und über den sie sich sogar lustig gemacht haben. OpenAI wurde entwickelt, um zu versuchen, eine maschinelle Version von etwas zu erstellen, das der menschlichen Intelligenz nahekommt (sogenannte „AGI“ oder künstliche allgemeine Intelligenz). Die Prämisse war, dass dies innerhalb von Jahren statt Jahrzehnten möglich und möglicherweise sehr gut, aber möglicherweise auch sehr gefährlich sei, nicht nur für alltägliche Dinge wie Demokratie oder Gesellschaft, sondern für die Menschheit selbst.

Das ist der Grund für die seltsame Organisationsstruktur – um das Risiko zu kontrollieren. Altman hat dieses Ding so schnell wie möglich gebaut, gleichzeitig aber auch sehr laut und oft gesagt, dass dieses Ding extrem gefährlich ist und dass die Regierungen eingreifen sollten, um alle Versuche, es zu bauen, zu kontrollieren. Nun, was ist es?

Viele in der Technologiebranche sind der Meinung, dass die Äußerung solcher Bedenken ein einfacher Versuch ist, wettbewerbswidrige Vorschriften zu übernehmen. Dies gilt insbesondere für umfassendere Maßnahmen gegen Open-Source-KI-Modelle (wie in der Durchführungsverordnung des Weißen Hauses zu KI letzten Monat zu sehen): Die Leute denken, dass OpenAI versucht, Regierungen dazu zu bringen, den Wettbewerb zu verbieten.

Das mag wahr sein, aber ich persönlich denke, dass Leute, die behaupten, AGI sei sowohl nah als auch gefährlich, aufrichtig sind, und das macht ihren Wunsch, es aufzubauen, umso widersprüchlicher. Das scheint die beste Erklärung für das zu sein, was bei OpenAI passiert ist: Diejenigen, die denken, wir sollten langsamer werden und vorsichtig sein, haben einen Putsch gegen diejenigen durchgeführt, die denken, wir sollten schneller werden und vorsichtig sein.

Ein Teil des Problems und Konflikts bei der Diskussion von AGI besteht darin, dass es sich um ein abstraktes Konzept – ein Gedankenexperiment – ​​ohne klares oder gut verständliches theoretisches Modell handelt. Die Ingenieure des Apollo-Programms wussten, wie weit der Mond entfernt war und wie viel Schub die Rakete hatte, aber wir wissen nicht, wie weit AGI entfernt ist, noch wie nah die großen Sprachmodelle von OpenAI sind und auch nicht, ob sie dorthin gelangen können.

Sie könnten Wochen Ihres Lebens damit verbringen, sich Videos von Wissenschaftlern des maschinellen Lernens anzusehen, die darüber streiten, und nur zu dem Schluss zu kommen, dass sie es auch nicht wissen. ChatGPT könnte in fünf Jahren oder in fünf Jahrzehnten bis zum Terminator skalieren, oder auch nicht. Das könnte so sein, als würde man sich einen Doppeldecker aus den 1920er-Jahren ansehen und befürchten, dass er in die Umlaufbahn fliegen könnte. Wir wissen es nicht.

Dies bedeutet, dass die meisten Gespräche über das Risiko von KI zu einer Jagd nach Metaphern werden (es ist „wie“ Atomwaffen oder ein Meteorit oder tatsächlich das Apollo-Programm). Oder sie holen halb vergessene Philosophiekurse für Studenten aus (Pascals Wette! Platons Höhle!), oder greifen auf Argumente von Autoritäten zurück (Geoff Hinton ist besorgt! Yann LeCun ist es nicht!). Letztlich kommt es darauf an, wie Sie instinktiv mit Risiken umgehen. Wenn Sie nicht wissen können, was nah ist und was nicht, ist das ein Grund zur Sorge oder ein Grund, sich keine Sorgen zu machen? Es gibt keine richtige Antwort.

Unglücklicherweise für die „Doomer“ haben die Ereignisse der letzten Woche alles beschleunigt. Eines der inzwischen zurückgetretenen Vorstandsmitglieder wurde mit den Worten zitiert, dass die Schließung von OpenAI im Einklang mit der Mission stünde (Vorsicht ist besser als Nachsicht). Aber die Hunderte von Unternehmen, die auf den Anwendungsprogrammierschnittstellen von OpenAI aufbauten, suchen nach Alternativen, sowohl von der kommerziellen Konkurrenz als auch von der wachsenden Welle von Open-Source-Projekten, die von niemandem kontrolliert werden. Die KI wird sich nun schneller bewegen, verteilter und weniger kontrolliert sein. Fehlgeschlagene Staatsstreiche beschleunigen oft das, was sie verhindern wollten.

In der Tat wird häufig an den Doomern kritisiert, dass ihre Vorstellung, dass eine leistungsstarke Software und ein paar brillante Ingenieure die Welt verändern können, nur eine weitere Form von naivem und vereinfachendem Tech-Utopismus sei – sie verkenne die wahre Natur von Macht, Komplexität und menschliche Systeme. Die Doomer auf der Tafel haben genau das demonstriert – sie wussten nicht, wie Energie funktioniert.



ttn-de-58

Schreibe einen Kommentar