Sunaks KI-Gipfel bringt einen „diplomatischen Coup“, offenbart aber globale Spannungen


Auf dem Gipfel von Rishi Sunak zum Thema künstliche Intelligenz in dieser Woche sagte ein Delegierter, der britische Premierminister habe einen „diplomatischen Coup“ gelandet, indem er US-amerikanische und chinesische Beamte dazu gebracht habe, in der Notwendigkeit, die KI zu kontrollieren, zusammenzustehen.

Inmitten zunehmender Handels- und Technologiespannungen zwischen Washington und Peking überraschte der chinesische Delegierte Dr. Wu Zhaohui einige bei der zweitägigen Veranstaltung im englischen Bletchley Park, indem er zustimmte, dass sie durch die gemeinsamen Werte „Demokratie“ und „Freiheit“ in der Welt vereint seien Kampf gegen den böswilligen Einsatz von KI.

Die weitreichenden Zusagen von 28 Nationen zur Zusammenarbeit bei der Bewältigung der existenziellen Risiken, die sich aus fortgeschrittener KI ergeben, sowie die Anwerbung führender Tech-Persönlichkeiten von Tesla- und

„Es ist ein großartiges Beispiel für die Zusammenführungskraft des Vereinigten Königreichs, weil man all diese Menschen unter einem Dach vereint“, sagte Jean Carberry, stellvertretende Sekretärin für Digitalpolitik des irischen Ministeriums für Unternehmen, Handel und Beschäftigung. „Es war ziemlich katalytisch.“

Der Bletchley Park-Gipfel hat jedoch auch die zugrunde liegenden Spannungen hinsichtlich der Entwicklung der KI offengelegt. US-Vizepräsidentin Kamala Harris hielt während des Gipfels eine Pressekonferenz in London ab, in der sie die Absicht ihres Landes darlegte, seine eigenen Spielregeln aufzustellen.

„Lassen Sie uns klarstellen: Wenn es um KI geht, ist Amerika weltweit führend. Es sind amerikanische Unternehmen, die bei KI-Innovationen weltweit führend sind. „Es ist Amerika, das globales Handeln vorantreiben und einen globalen Konsens herstellen kann, wie es kein anderes Land kann“, sagte Harris pointiert.

Anfang der Woche erließ Präsident Joe Biden eine Durchführungsverordnung, die KI-Unternehmen, deren Modelle eine Gefahr für die nationale Sicherheit der USA darstellen könnten, dazu verpflichtet, mitzuteilen, wie sie die Sicherheit ihrer Werkzeuge gewährleisten.

In Bletchley kündigten die USA außerdem einen Plan zur Gründung eines eigenen KI-Sicherheitsinstituts mit Experten zur Überwachung von Risiken an, das eng mit einem ähnlichen, vom Vereinigten Königreich geschaffenen Gremium zusammenarbeiten soll, das eine größere globale Rolle bei der Erforschung von Risiken im Zusammenhang mit KI anstrebt.

Ein anwesender Politiker sagte, der Landraub der USA sei „unvermeidlich“ gewesen. „KI ist das nächste große Ding, und niemand wird sich umdrehen und totstellen und sagen, dass Sie die Macht übernehmen“, sagten sie. „China wird das nicht zulassen, und schon gar nicht die USA.“

Die Person fügte hinzu, dass einer der Gründe, warum die Chinesen bei der Entwicklung einer gemeinsamen Position zur globalen KI-Governance so nachgiebig gewesen seien, darin bestand, dass „nett zu sein“ und als „verantwortungsvoller Partner“ dazu beitragen könnte, Gespräche über die Lockerung der auferlegten Handelshemmnisse zu fördern von den USA später auf der ganzen Linie.

Eine weitere Quelle der Debatte war die Frage, ob hochentwickelte KI-Modelle „offen“ oder „geschlossen“ sein dürfen. Einige Unternehmen wie Meta und Start-ups wie Hugging Face, Mistral und Stability AI bauen Open-Source-KI-Systeme, was bedeutet, dass technische Details des neuen Modells öffentlich veröffentlicht werden.

Dies steht im Gegensatz zum Ansatz von Konkurrenten wie dem von Microsoft unterstützten OpenAI und Google, die eine sogenannte Black Box schaffen, in der die Daten und der Code, die zum Aufbau von KI-Modellen verwendet werden, Dritten nicht zugänglich sind.

Befürworter geschlossener Modelle sagen, dass sie strengere Vorschriften besser einhalten, kontrollieren können, wer Zugriff darauf hat, und verhindern können, dass sie in die Hände böswilliger Akteure geraten. Andere argumentieren jedoch, dass offene Modelle dazu beitragen werden, dass weniger gut ausgestattete Länder und akademische Gruppen ihre eigenen KI-Systeme entwickeln können.

„In diesen Diskussionen gibt es Zielkonflikte. Und ich sehe Länder. . . die sicherstellen wollen, dass sie auf dem neuesten Stand der Technik sind. . . Dinge zu sagen wie: ‚Wir sollten alles teilen‘“, sagte Yoshua Bengio, wissenschaftlicher Direktor des Montreal Institute for Learning Algorithms und Pionier des Deep Learning, der Technologie hinter den heutigen hochentwickelten KI-Modellen.

Aber er fügte hinzu: „Open-Sourcing ist das stärkste Modell. . . aus sicherheitstechnischer Sicht gefährlich. Sobald Sie Zugriff auf die Gewichte im System haben, können Sie sie leicht in etwas Bösartiges umwandeln.“

Emad Mostaque, Gründer und Geschäftsführer des Bild-KI-Unternehmens Stability AI, das auf Open-Source-Technologie basiert, sagte, Frankreich habe sich besonders lautstark für einen verbesserten Zugang zu hochentwickelten KI-Modellen ausgesprochen, unter anderem aufgrund seines einheimischen KI-Start-ups Mistral. das Open-Source-Software entwickelt.

„Letztendlich ist sich jedoch fast jeder Regierungsbeamte, mit dem ich spreche, bewusst, dass Regierungen offen vorgehen müssen. In regulierten Branchen kann es keine Black Boxes geben“, sagte er. „Es gibt diese Frage der nationalen Sicherheit – kann man sich bei dieser Technologie wirklich auf jemand anderen verlassen?“

Musk, der sein eigenes Unternehmen X.AI gegründet hat und sich zuvor für ein Moratorium für die Entwicklung fortschrittlicherer KI-Systeme eingesetzt hat, sagte gegenüber Sunak, dass er „eine leichte Vorliebe für Open Source“ habe, da diese gegenüber Closed Source tendenziell sechs bis sechs Tonnen hinterherhinke 12 Monate und „wenigstens sieht man, was los ist“.

„Dieser Fokus auf eine Pause und die katastrophalen Risiken der KI passt zu Musk, weil er im Rückstand ist [on developing AI]“, sagte eine Person, die an einer Sitzung des Gipfels mit dem Milliardär teilnahm. Sie fügten hinzu, dass, wenn „einige der führenden Unternehmen katastrophale Folgen betonen, die Gefahr einer Vereinnahmung von Vorschriften besteht“, wobei die Gesetzgeber von kommerziellen Interessen beeinflusst werden, die wichtiger sind als von den Bedenken der breiten Öffentlichkeit.

Entwicklungsländer, die von den Vorzügen früherer technologischer Revolutionen ausgeschlossen waren, suchten nach Zusicherungen, dass so etwas nicht noch einmal passieren würde.

„Viele Länder, insbesondere im globalen Süden, finden es unerschwinglich, an der digitalen Wirtschaft der Welt teilzunehmen“, sagte Rajeev Chandrasekhar, indischer Minister für Elektronik und IT. „Diese Zeit ist vorbei. Die Vorteile der Technologie sollten für alle zugänglich sein. . . jedes Land der Welt.“

Vidushi Marda, Mitbegründer der gemeinnützigen Organisation REAL ML, der anwesend war, sagte: „Es war ermutigend zu sehen, dass die Konzentration auf die Regulierung zunächst auf nationaler Ebene zu einer sich abzeichnenden Schlüsselpriorität wurde“, um eine Wiederholung historischer Fehler zu vermeiden.

Die nächsten Ausgaben des Gipfels werden in sechs Monaten in Südkorea stattfinden, gefolgt von Frankreich in einem Jahr. Während sich Bletchleys Veranstaltung auf die Abstimmung darüber konzentrierte, was getan werden muss, sagten die Teilnehmer, dass sich die nächsten beiden auf Maßnahmen konzentrieren würden: konkrete Regulierung und Forschungsvorschläge, wie KI-Modelle evaluiert werden könnten.

Marija Pejčinović Burić, Generalsekretärin des Europarats, sagte: „Die Herausforderung der KI ist so groß und die Entwicklung ist exponentiell, was bedeutet, dass es keinen Luxus gibt, sie beiseite zu legen und sich auf etwas anderes zu konzentrieren.“



ttn-de-58

Schreibe einen Kommentar