Elon Musk und mehr als 1.000 Tech-Forscher und Führungskräfte haben eine sechsmonatige „Pause“ bei der Entwicklung fortschrittlicher künstlicher Intelligenzsysteme wie OpenAIs GPT gefordert, um das zu stoppen, was sie ein „gefährliches“ Wettrüsten nennen.
Ein offener Briefdas am Mittwoch vom Future of Life Institute, einer gemeinnützigen Kampagnengruppe, veröffentlicht wurde, wurde innerhalb weniger Stunden nach seiner Veröffentlichung von mehr als 1.100 Personen aus der akademischen Welt und der Technologiebranche unterzeichnet.
„In den letzten Monaten waren KI-Labore in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer mächtigerer digitaler Köpfe, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, heißt es in dem Brief.
Zu den Mitunterzeichnern gehören die führenden KI-Professoren Stuart Russell und Yoshua Bengio, die Mitbegründer von Apple, Pinterest und Skype sowie der Gründer des KI-Start-ups Stability AI. Das Future of Life Institute, das den Brief veröffentlichte, zählt Musk zu seinen größten Geldgebern und wird von Max Tegmark, einem Professor am Massachusetts Institute of Technology und KI-Forscher, geleitet.
„Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsstärker als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen. Diese Pause sollte öffentlich und überprüfbar sein und alle Schlüsselakteure umfassen. Wenn eine solche Pause nicht schnell erlassen werden kann, sollten die Regierungen eingreifen und ein Moratorium einführen“, fügte die Gruppe hinzu.
Der Brief folgt auf eine Reihe bahnbrechender KI-Starts in den letzten fünf Monaten, darunter das von Microsoft unterstützte OpenAI ChatGPT im November und die Veröffentlichung von GPT-4 in diesem Monat, dem ausgeklügelten Modell, das dem Chatbot zugrunde liegt.
Unternehmen wie Google, Microsoft und Adobe fügen ihren Suchmaschinen und Produktivitätstools auch neue Arten von KI-Funktionen hinzu, ein Schritt, der KI in die Hände von Millionen von alltäglichen Benutzern gebracht hat.
Dieses beschleunigte Tempo der Entwicklung und des öffentlichen Einsatzes hat einige KI-Forscher und Technikethiker über die möglichen Auswirkungen auf die Beschäftigung, den öffentlichen Diskurs und – letztendlich – die Fähigkeit der Menschheit, Schritt zu halten, beunruhigt.
In dem Schreiben wurde die Erstellung gemeinsamer Sicherheitsprotokolle gefordert, die von unabhängigen Experten geprüft werden, um „sicherzustellen, dass Systeme, die sich daran halten, zweifelsfrei sicher sind“.
„KI-Systeme mit menschlicher Wettbewerbsintelligenz können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen“, heißt es darin.
Ganz oben auf der wachsenden Liste der Unterzeichner des Briefes stehen die bekannten KI-Forscher Bengio, Professor an der Universität von Montreal, und Berkeley-Professor Russell.
Musk, der Mitbegründer von OpenAI war, ihn aber 2018 verließ und der Organisation seitdem kritisch gegenübersteht, unterzeichnete ebenfalls den Brief. Andere sind Apple-Mitbegründer Steve Wozniak, Autor Yuval Noah Harari und der ehemalige US-Präsidentschaftskandidat Andrew Yang.
Es umfasst auch mehrere Ingenieure und Forscher bei Microsoft, Google, Amazon, Meta und dem Alphabet-eigenen DeepMind. Niemand, der sich als Mitarbeiter von OpenAI ausgab, gehörte zu den ersten 1.000 Personen, die den Brief unterzeichneten.
Die Intervention erfolgt, während Regierungen auf der ganzen Welt versuchen, eine politische Antwort auf das sich schnell entwickelnde Feld der KI zu formulieren, auch wenn einige Big-Tech-Unternehmen ihre KI-Ethikteams verkleinern.
Das Vereinigte Königreich wird am Mittwoch ein Weißbuch veröffentlichen, in dem die bestehenden Regulierungsbehörden aufgefordert werden, einen einheitlichen Ansatz für den Einsatz von KI in ihren jeweiligen Branchen zu entwickeln, beispielsweise um sicherzustellen, dass KI-Systeme fair und transparent sind. Die Regierung wird den Regulierungsbehörden in diesem Stadium jedoch keine neuen Befugnisse oder neue Mittel zur Verfügung stellen.
Die EU bereitet auch ein eigenes Gesetz vor, das den Einsatz von KI in Europa regeln wird, wobei Unternehmen, die gegen die Regeln des Blocks verstoßen, mit Geldstrafen von bis zu 30 Millionen Euro oder 6 Prozent des weltweiten Jahresumsatzes rechnen müssen, je nachdem, welcher Betrag höher ist.
Diese Geschichte wurde aktualisiert, nachdem das Future of Life Institute den Gründer von Character.ai, Noam Shazeer, aus seinem Brief entfernt hatte