Offenheit gegenüber KI ist der Weg nach vorne für die Technologie

Offenheit gegenueber KI ist der Weg nach vorne fuer die


Erhalten Sie kostenlose Updates zur künstlichen Intelligenz

Der Autor ist Präsident für globale Angelegenheiten bei Meta

Hinter der Aufregung – und Besorgnis – über Fortschritte in der generativen künstlichen Intelligenz steckt eine grundlegende Frage: Wer wird diese Technologien kontrollieren? Die großen Technologieunternehmen, die über die enorme Rechenleistung und Daten verfügen, um neue KI-Modelle zu entwickeln, oder die Gesellschaft insgesamt?

Dies trifft den Kern einer politischen Debatte darüber, ob Unternehmen ihre KI-Modelle intern behalten oder sie offener verfügbar machen sollten. Während die Debatte weitergeht, sind die Argumente für Offenheit immer lauter geworden. Dies liegt zum Teil an der Praktikabilität – es ist nicht nachhaltig, grundlegende Technologie in den Händen einiger weniger großer Unternehmen zu belassen – und zum Teil an der Erfolgsgeschichte von Open Sourcing.

Es ist wichtig, zwischen heutigen KI-Modellen und potenziellen zukünftigen Modellen zu unterscheiden. Die dystopischsten Warnungen vor KI beziehen sich in Wirklichkeit auf einen Technologiesprung – oder mehrere Sprünge. Es gibt einen himmelweiten Unterschied zwischen den Chatbot-ähnlichen Anwendungen der heutigen großen Sprachmodelle und den überdimensionalen Grenzmodellen, die theoretisch zu Superintelligenz im Science-Fiction-Stil fähig sind. Aber wir sind immer noch in den Ausläufern und diskutieren über die Gefahren, die auf dem Berggipfel lauern könnten. Wenn diese Fortschritte plausibler werden, kann es sein, dass sie eine andere Reaktion erforderlich machen. Aber es gibt noch Zeit, sowohl die Technologie als auch die Leitplanken zu entwickeln.

Wie bei allen grundlegenden Technologien – von Funksendern bis hin zu Internet-Betriebssystemen – wird es eine Vielzahl von Einsatzmöglichkeiten für KI-Modelle geben, von denen einige vorhersehbar sind und andere nicht. Und wie jede Technologie wird KI von guten und schlechten Menschen sowohl für gute als auch für schlechte Zwecke eingesetzt werden. Die Reaktion auf diese Unsicherheit kann nicht einfach auf der Hoffnung beruhen, dass KI-Modelle geheim gehalten werden. Das Pferd ist bereits durchgebrannt. Viele große Sprachmodelle sind bereits Open Source, z Falcon-40B, MPT-30B und Dutzende vor ihnen. Und offene Innovation ist kein Grund zur Angst. Die Infrastruktur des Internets basiert auf Open-Source-Code, ebenso wie Webbrowser und viele der Apps, die wir täglich nutzen.

Wir können die Risiken im Zusammenhang mit KI zwar nicht beseitigen, aber wir können sie mindern. Hier sind vier Schritte, die Technologieunternehmen meiner Meinung nach unternehmen sollten.

Erstens sollten sie transparent darüber sein, wie ihre Systeme funktionieren. Bei Meta, wir haben kürzlich 22 „Systemkarten“ für Facebook und Instagram veröffentlichtdie den Menschen einen Einblick in die KI geben, die hinter der Einstufung und Empfehlung von Inhalten steht, und zwar auf eine Weise, die keine tiefgreifenden technischen Kenntnisse erfordert.

Zweitens sollte diese Offenheit mit einer Zusammenarbeit zwischen Industrie, Regierung, Wissenschaft und Zivilgesellschaft einhergehen. Meta ist Gründungsmitglied von Partnerschaft zum Thema KI, neben Amazon, Google, DeepMind, Microsoft und IBM. Wir beteiligen uns an seinem Rahmen für kollektive Maßnahmen zu synthetischen Medien, einem wichtigen Schritt, um sicherzustellen, dass Leitplanken für KI-generierte Inhalte festgelegt werden.

Drittens sollten KI-Systeme einem Stresstest unterzogen werden. Vor der Veröffentlichung der nächsten Generation von Llama, unserem großen Sprachmodell, führt Meta ein „Red Teaming“ durch. Bei diesem in der Cybersicherheit üblichen Prozess übernehmen Teams die Rolle von Gegnern, um nach Schwachstellen und unbeabsichtigten Konsequenzen zu suchen. Meta wird unsere neuesten Llama-Modelle nächsten Monat bei der DEFCON-Konferenz in Las Vegas einreichen, wo Experten ihre Fähigkeiten weiter analysieren und einem Stresstest unterziehen können.

Eine falsche Annahme ist, dass die Veröffentlichung von Quellcode oder Modellgewichten Systeme anfälliger macht. Im Gegenteil, externe Entwickler und Forscher können Probleme identifizieren, bei denen Teams viel länger in Unternehmenssilos verschanzt wären. Forscher, die das große Sprachmodell von Meta, BlenderBot 2, testeten, stellten fest, dass es dazu verleitet werden kann, sich an Fehlinformationen zu erinnern. Dadurch war BlenderBot 3 resistenter dagegen.

Schließlich sollten Unternehmen Einzelheiten über ihre Arbeit während der Entwicklung mitteilen, sei es durch wissenschaftliche Arbeiten und öffentliche Ankündigungen, durch offene Diskussion der Vorteile und Risiken oder gegebenenfalls durch die Bereitstellung der Technologie selbst für Forschung und Produktentwicklung.

Offenheit ist kein Altruismus – Meta glaubt, dass es in seinem Interesse liegt. Es führt zu besseren Produkten, schnellerer Innovation und einem florierenden Markt, der uns wie vielen anderen zugute kommt. Und das bedeutet nicht, dass jedes Modell Open Source sein kann oder sollte. Dabei spielen sowohl proprietäre als auch offene KI-Modelle eine Rolle.

Aber letztlich ist Offenheit das beste Gegenmittel gegen die Ängste rund um KI. Es ermöglicht Zusammenarbeit, Prüfung und Iteration. Und es gibt Unternehmen, Start-ups und Forschern Zugang zu Werkzeugen, die sie nie selbst bauen könnten, unterstützt durch Rechenleistung, auf die sie sonst keinen Zugriff hätten, und eröffnet so eine Welt voller sozialer und wirtschaftlicher Möglichkeiten.



ttn-de-58

Schreibe einen Kommentar