Der Autor ist Direktor für internationale Politik am Cyber Policy Center der Stanford University und fungiert als Sonderberater von Margrethe Vestager
Technologieunternehmen sind sich bewusst, dass der Wettlauf um die KI-Vorherrschaft nicht nur auf dem Markt, sondern auch in Washington und Brüssel entschieden wird. Regeln für die Entwicklung und Integration ihrer KI-Produkte werden für sie existenzielle Auswirkungen haben, bleiben aber derzeit in der Schwebe. Daher versuchen Führungskräfte, voranzukommen und den Ton anzugeben, indem sie argumentieren, dass sie am besten in der Lage sind, genau die Technologien zu regulieren, die sie produzieren. KI mag neu sein, aber die Diskussionspunkte werden wiederverwendet: Es sind dieselben, die Mark Zuckerberg über soziale Medien verwendet hat und die Sam Bankman-Fried über Kryptowährungen vorgebracht hat. Solche Aussagen sollten demokratische Gesetzgeber nicht noch einmal ablenken.
Stellen Sie sich vor, der Vorstandsvorsitzende von JPMorgan erklärt dem Kongress, dass Banken selbst entscheiden sollten, wie sie Geldwäsche verhindern, Betrugserkennung ermöglichen und das Liquiditäts-Kredit-Verhältnis festlegen, da Finanzprodukte zu komplex sind, als dass der Gesetzgeber sie verstehen könnte. Er würde aus dem Raum gelacht werden. Verärgerte Wähler würden darauf hinweisen, wie gut die Selbstregulierung in der globalen Finanzkrise funktioniert habe. Von den großen Tabakkonzernen bis hin zu den großen Ölkonzernen haben wir auf die harte Tour gelernt, dass Unternehmen keine unvoreingenommenen Vorschriften erlassen können. Sie sind weder unabhängig noch in der Lage, Gegenkräfte zu ihren eigenen zu schaffen.
Irgendwie ist diese grundlegende Wahrheit verloren gegangen, wenn es um KI geht. Der Gesetzgeber ist bestrebt, sich den Unternehmen zu unterwerfen und möchte deren Anleitung zur Regulierung. Senatoren sogar gefragt OpenAI-Chef Sam Altman ernennt potenzielle Branchenführer zur Aufsicht über eine mutmaßliche nationale KI-Regulierungsbehörde.
In Branchenkreisen grenzen die Rufe nach einer KI-Regulierung an Apokalyptik. Wissenschaftler warnen davor, dass ihre Kreationen zu mächtig sind und abtrünnig werden könnten. Ein aktueller Brief, unterzeichnet von Altman und anderen, warnte davor, dass KI eine Bedrohung für das Überleben der Menschheit darstelle, die einem Atomkrieg ähnelt. Man könnte meinen, diese Befürchtungen würden die Führungskräfte zum Handeln veranlassen, aber trotz der Unterzeichnung hat praktisch keiner sein eigenes Verhalten geändert. Vielleicht ist ihre Festlegung, wie wir über Leitplanken rund um die KI denken, das eigentliche Ziel. Unsere Fähigkeit, Fragen zur Art der erforderlichen Regulierung zu beantworten, wird auch stark von unserem Verständnis der Technologie selbst beeinflusst. Die Aussagen haben die Aufmerksamkeit auf KIs gelenkt existenzielles Risiko. Kritiker argumentieren jedoch, dass die Priorisierung der Prävention dieser Entwicklung die dringend benötigte Arbeit gegen Diskriminierung und Voreingenommenheit, die heute stattfinden sollte, in den Schatten stellt.
Warnungen vor den katastrophalen Risiken der KI, die von genau den Menschen unterstützt werden, die aufhören könnten, ihre Produkte in die Gesellschaft zu bringen, sind desorientierend. Die offenen Briefe lassen die Unterzeichner in ihren verzweifelten Appellen machtlos erscheinen. Aber diejenigen, die Alarm schlagen, haben bereits die Macht, den potenziell gefährlichen Fortschritt der künstlichen Intelligenz zu verlangsamen oder zu stoppen.
Der frühere Google-Chef Eric Schmidt behauptet, dass die Unternehmen die einzigen seien, die in der Lage seien, Leitplanken zu entwickeln, während es den Regierungen an Fachwissen fehle. Aber auch Gesetzgeber und Führungskräfte sind keine Experten in der Landwirtschaft, der Kriminalitätsbekämpfung oder der Verschreibung von Medikamenten, und doch regulieren sie all diese Aktivitäten. Sie sollten sich von der Komplexität der KI auf keinen Fall entmutigen lassen, sondern eher dazu ermutigen, Verantwortung zu übernehmen. Und Schmidt hat uns ungewollt an die erste Herausforderung erinnert: die Brechung der Monopole beim Zugang zu geschützten Informationen. Mit unabhängiger Forschung, realistischen Risikobewertungen und Leitlinien zur Durchsetzung bestehender Vorschriften würde eine Debatte über die Notwendigkeit neuer Maßnahmen auf Fakten basieren.
Exekutivmaßnahmen sagen mehr als Worte. Nur wenige Tage nachdem Sam Altman in seiner Aussage vor dem Kongress die KI-Regulierung begrüßt hatte, drohte er damit, den Betrieb von OpenAI in Europa einzustellen. Als ihm klar wurde, dass die EU-Regulierungsbehörden auf Drohungen nicht gerade freundlich reagierten, wandte er sich wieder einer Charmeoffensive zu und versprach, ein Büro in Europa zu eröffnen.
Der Gesetzgeber muss bedenken, dass es Unternehmern in erster Linie um Profit und nicht um gesellschaftliche Auswirkungen geht. Es ist höchste Zeit, über Höflichkeiten hinauszugehen und konkrete Ziele und Methoden für die KI-Regulierung zu definieren. Politische Entscheidungsträger dürfen nicht zulassen, dass Technologie-CEOs das Narrativ prägen und kontrollieren, geschweige denn den Prozess.
Ein Jahrzehnt des technologischen Umbruchs hat die Bedeutung einer unabhängigen Aufsicht deutlich gemacht. Dieses Prinzip ist umso wichtiger, wenn die Macht über Technologien wie KI bei einer Handvoll Unternehmen konzentriert ist. Wir sollten den mächtigen Individuen zuhören, die sie leiten, aber ihre Worte niemals für bare Münze nehmen. Ihre großen Ansprüche und Ambitionen sollten stattdessen Regulierungsbehörden und Gesetzgeber dazu veranlassen, auf der Grundlage ihres eigenen Fachwissens, nämlich des demokratischen Prozesses, Maßnahmen zu ergreifen.