Bleiben Sie mit kostenlosen Updates auf dem Laufenden
Melden Sie sich einfach an Künstliche Intelligenz myFT Digest – direkt in Ihren Posteingang geliefert.
Führende Unternehmen für künstliche Intelligenz haben zugestimmt, Regierungen wie Großbritannien, den USA und Singapur zu gestatten, ihre neuesten Modelle auf nationale Sicherheit und andere Risiken zu testen, bevor sie Unternehmen und Verbrauchern zur Verfügung gestellt werden.
Unternehmen wie OpenAI, Google DeepMind, Anthropic, Amazon, Mistral, Microsoft und Meta haben am Donnerstag ein „bahnbrechendes“, aber nicht rechtsverbindliches Dokument unterzeichnet und damit einen zweitägigen KI-Sicherheitsgipfel in Großbritannien abgeschlossen.
Das Dokument wurde von Regierungen unterzeichnet, zu denen auch Australien, Kanada, die EU, Frankreich, Deutschland, Italien, Japan und Südkorea gehörten. China war kein Unterzeichner.
Ein internationales Expertengremium wird außerdem einen jährlichen Bericht über die sich entwickelnden Risiken der KI vorlegen, einschließlich Voreingenommenheit, Fehlinformationen und extremeren „existenziellen“ Risiken wie der Unterstützung bei der Entwicklung chemischer Waffen.
„Ich glaube, dass die Erfolge dieses Gipfels den Ausschlag zugunsten der Menschheit geben werden“, sagte Rishi Sunak, britischer Premierminister und Gastgeber der Eröffnungsveranstaltung. „Wir werden gemeinsam daran arbeiten, die Sicherheit neuer KI-Modelle vor ihrer Veröffentlichung zu testen.“
„Wir sind jedem anderen Land bei der Entwicklung von Werkzeugen und Fähigkeiten voraus, um die Sicherheit der Menschen zu gewährleisten“, sagte Sunak aus Bletchley Park, dem Gebäude, in dem im Zweiten Weltkrieg Codeknacker untergebracht waren.
Auf dem Gipfel waren US-Vizepräsidentin Kamala Harris und die Präsidentin der Europäischen Kommission Ursula von der Leyen, bei dem auch andere verbündete Nationen zusammenkamen, um sensible Fragen der nationalen Sicherheit zu erörtern.
Auf die Frage, ob das Vereinigte Königreich durch die Festlegung verbindlicher Vorschriften noch weiter gehen müsse, antwortete Sunak, dass die Ausarbeitung und Verabschiedung von Gesetzen „Zeit braucht“.
„Es ist von entscheidender Bedeutung, dass wir Wege finden, um die aktuellen Herausforderungen, die KI mit sich bringt, sowie die potenziellen Risiken einer Technologie, die es noch nicht gibt, zu bewerten und anzugehen“, sagte Nick Clegg, Präsident für globale Angelegenheiten bei Meta.
Die US-Regierung hat am Montag eine Durchführungsverordnung erlassen, die den umfassendsten Schritt der Regierung zur Bekämpfung von KI-Bedrohungen darstellt. Die USA gaben diese Woche außerdem bekannt, dass sie die Gründung eines eigenen Instituts zur Überwachung von KI planen. Das Vereinigte Königreich hat Partnerschaften mit dem US-amerikanischen AI Safety Institute und mit Singapur vereinbart, um bei KI-Sicherheitstests zusammenzuarbeiten.
Der KI-Risikobericht, dem 20 Länder zugestimmt haben, wird sich am Vorbild des Zwischenstaatlichen Ausschusses für Klimaänderungen orientieren, wobei der erste den Vorsitz von Yoshua Bengio, Professor für Informatik an der Universität Montreal, innehat.
Eine KI-Task Force der britischen Regierung führte eine Reihe von Sicherheitstests an den führenden KI-Modellen durch, um mögliche Mängel oder Missbrauchsrisiken zu bewerten, so mehrere Personen auf einer der Gipfelsitzungen. Dazu gehörte, wie die Modelle eine höhere Fähigkeit zur Verbreitung von Desinformation, zur Koordinierung von Cyberangriffen oder zur Planung von Angriffen mit biologischen und chemischen Waffen bieten könnten.
Jack Clark, Mitbegründer des KI-Start-ups Anthropic, sagte der Financial Times, dass es einen externen, unabhängigen „Schiedsrichter“ brauche, der die Sicherheit von Modellen in der Entwicklung teste.
„Wir werden immer noch unsere eigenen Tests durchführen“, sagte er, „aber ich möchte wirklich, dass es eine legitime Testbehörde als Drittpartei gibt, der wir Tests unterziehen und von deren Ergebnissen wir hören können.“
Melden Sie sich für an FT Future of AI-Gipfel am 15. und 16. November