Die Regulierung künstlicher Intelligenz ist eine 4D-Herausforderung

Die Regulierung kuenstlicher Intelligenz ist eine 4D Herausforderung


Der Autor ist Gründer von Gesiebteine von FT unterstützte Website über europäische Start-ups

Die Staats- und Regierungschefs der G7-Staaten sprachen am vergangenen Wochenende in Hiroshima zahlreiche globale Bedenken hinsichtlich der in Sake gedämpften Nomi-Austern an: unter anderem Krieg in der Ukraine, wirtschaftliche Widerstandsfähigkeit, saubere Energie und Ernährungssicherheit. Aber sie haben noch einen weiteren Punkt in ihre Abschiedstüte voller guter Absichten geworfen: die Förderung integrativer und vertrauenswürdiger künstlicher Intelligenz.

Die Verantwortlichen erkannten zwar das innovative Potenzial der KI, machten sich aber Sorgen über den Schaden, den sie der öffentlichen Sicherheit und den Menschenrechten zufügen könnte. Den Hiroshima-KI-Prozess starten, Die G7 haben eine Arbeitsgruppe beauftragt, die Auswirkungen generativer KI-Modelle wie ChatGPT zu analysieren und die Diskussionen der Staats- und Regierungschefs bis Ende dieses Jahres vorzubereiten.

Die ersten Herausforderungen werden darin bestehen, KI am besten zu definieren, ihre Gefahren zu kategorisieren und eine angemessene Reaktion zu formulieren. Überlässt man die Regulierung am besten den bestehenden nationalen Behörden? Oder ist die Technologie so folgenreich, dass sie neue internationale Institutionen erfordert? Brauchen wir das heutige Äquivalent der Internationalen Atomenergiebehörde, die 1957 gegründet wurde, um die friedliche Entwicklung der Nukleartechnologie zu fördern und ihren militärischen Einsatz zu verhindern?

Man kann darüber streiten, wie effektiv das UN-Gremium diese Aufgabe erfüllt hat. Darüber hinaus beinhaltet die Nukleartechnologie radioaktives Material und eine riesige Infrastruktur, die physisch leicht zu erkennen ist. KI hingegen ist vergleichsweise günstig, unsichtbar, allgegenwärtig und bietet unzählige Anwendungsmöglichkeiten. Zumindest stellt es eine vierdimensionale Herausforderung dar, die flexibler angegangen werden muss.

Die erste Dimension ist Diskriminierung. Maschinelle Lernsysteme sind darauf ausgelegt, Ausreißer in Mustern zu unterscheiden und zu erkennen. Das ist gut, um Krebszellen bei radiologischen Untersuchungen zu erkennen. Aber es ist schlimm, wenn Black-Box-Systeme, die auf fehlerhafte Datensätze trainiert wurden, dazu verwendet werden, Arbeitskräfte einzustellen und zu entlassen oder Bankkredite zu genehmigen. Bias in, Bias out, wie man so schön sagt. Das Verbot dieser Systeme in unzumutbar hohen Risikogebieten, wie es das bevorstehende KI-Gesetz der EU vorschlägt, ist ein strenger, vorsorglicher Ansatz. Die Schaffung unabhängiger, fachkundiger Prüfer könnte ein anpassungsfähigerer Weg sein.

Zweitens Desinformation. Wie der akademische Experte Gary Marcus letzte Woche den US-Kongress warnte, könnte generative KI die Demokratie selbst gefährden. Solche Modelle können blitzschnell und im industriellen Maßstab plausible Lügen erzeugen und Menschen fälschen.

Es sollte bei den Technologieunternehmen selbst liegen, Inhalte mit Wasserzeichen zu versehen und Desinformation zu minimieren, ebenso wie sie E-Mail-Spam unterdrückt haben. Geschieht dies nicht, werden die Rufe nach drastischeren Eingriffen nur noch lauter werden. Der Präzedenzfall könnte in China geschaffen worden sein, wo ein Gesetzesentwurf die Verantwortung für den Missbrauch von KI-Modellen dem Hersteller und nicht dem Benutzer auferlegt.

Drittens: Luxation. Niemand kann genau vorhersagen, welche wirtschaftlichen Auswirkungen KI insgesamt haben wird. Aber es scheint ziemlich sicher, dass es zur „Deprofessionalisierung“ vieler Büroberufe führen wird, wie die Unternehmerin Vivienne Ming auf dem FT Weekend Festival in DC sagte.

Computerprogrammierer haben generative KI weitgehend als produktivitätssteigerndes Werkzeug angenommen. Im Gegensatz dazu könnten auffällige Hollywood-Drehbuchautoren die ersten von vielen Berufen sein, die befürchten, dass ihre Kernkompetenzen automatisiert werden. Diese chaotische Geschichte widersetzt sich einfachen Lösungen. Die Nationen müssen sich auf ihre eigene Art und Weise an die gesellschaftlichen Herausforderungen anpassen.

Viertens: Verwüstung. Die Integration von KI in tödliche autonome Waffensysteme (LAWS) oder Killerroboter ist eine erschreckende Aussicht. Der Grundsatz, dass der Mensch immer im Entscheidungsprozess bleiben soll, kann nur durch internationale Verträge festgelegt und durchgesetzt werden. Das Gleiche gilt für die Diskussion um künstliche allgemeine Intelligenz, den (möglicherweise fiktiven) Tag, an dem KI die menschliche Intelligenz in allen Bereichen übertrifft. Einige Aktivisten tun dieses Szenario als ablenkende Fantasie ab. Aber es lohnt sich durchaus, auf jene Experten zu hören, die vor möglichen existenziellen Risiken warnen und internationale Forschungskooperationen fordern.

Andere mögen argumentieren, dass der Versuch, die KI zu regulieren, genauso sinnlos ist wie das Beten, dass die Sonne nicht untergeht. Gesetze entwickeln sich immer nur schrittweise, während sich die KI exponentiell entwickelt. Aber Marcus sagt, er sei durch den parteiübergreifenden Konsens zum Handeln im US-Kongress ermutigt worden. Vielleicht befürchten sie, dass EU-Regulierungsbehörden globale Normen für KI festlegen könnten, wie sie es vor fünf Jahren beim Datenschutz getan haben, und unterstützen daher auch öffentlich die Regulierung.

Die Staats- und Regierungschefs der G7 sollten einen Wettbewerb um gute Ideen fördern. Sie müssen nun einen regulatorischen Wettlauf nach oben auslösen, anstatt einen beängstigenden Abwärtstrend zu bewirken.



ttn-de-58

Schreibe einen Kommentar