So bewahren Sie den Deckel der Büchse der Pandora offener KI


Bleiben Sie mit kostenlosen Updates auf dem Laufenden

Der Autor ist Gründer von Gesiebteine von FT unterstützte Website über europäische Start-ups

Es entwickelt sich schnell zu einer der wichtigsten technologischen und zunehmend ideologischen Spaltungen unserer Zeit: Sollten leistungsstarke generative künstliche Intelligenzsysteme offen oder geschlossen sein? Wie diese Debatte ausgehen wird, wird sich auf die Produktivität unserer Volkswirtschaften, die Stabilität unserer Gesellschaften und das Schicksal einiger der reichsten Unternehmen der Welt auswirken.

Befürworter von Open-Source-Modellen wie LLaMA 2 von Meta oder Bloom von Hugging Face, die es Benutzern ermöglichen, leistungsstarke generative KI-Software selbst anzupassen, sagen, dass sie den Zugang zur Technologie erweitern, Innovationen anregen und die Zuverlässigkeit verbessern, indem sie die Prüfung von außen fördern. Kleinere offene Modelle sind weitaus kostengünstiger in der Entwicklung und Bereitstellung und sorgen auch für Wettbewerb in einem Bereich, der von großen US-Unternehmen wie Google, Microsoft und OpenAI dominiert wird. Diese Unternehmen haben Milliarden in die Entwicklung riesiger, geschlossener generativer KI-Systeme investiert, die sie streng kontrollieren.

Kritiker argumentieren jedoch, dass offene Modelle das Risiko bergen, den Deckel der Büchse der Pandora zu öffnen. Kriminelle können sie nutzen, um weltweit personalisierte Desinformationen zu verbreiten, während Terroristen sie zur Herstellung von Cyber- oder Biowaffen nutzen könnten. „Die Gefahr von Open Source besteht darin, dass es mehr Verrückten ermöglicht, verrückte Dinge zu tun“, warnte Geoffrey Hinton, einer der Pioniere der modernen KI.

Die Geschichte von OpenAI, das den beliebten ChatGPT-Chatbot entwickelt hat, ist an sich lehrreich. Wie der Name schon sagt, wurde das Forschungsunternehmen 2015 mit dem Ziel gegründet, die Technologie so offen wie möglich zu entwickeln. Später wurde dieser Ansatz jedoch sowohl aus Wettbewerbs- als auch aus Sicherheitsgründen aufgegeben. „Wir haben uns absolut geirrt“, sagte Ilya Sutskever, Chefwissenschaftler von OpenAI, gegenüber The Verge.

Als OpenAI erkannte, dass seine generativen KI-Modelle „unglaublich leistungsfähig“ sein würden, machte es wenig Sinn, sie als Open Source anzubieten, sagte er. „Ich gehe davon aus, dass in ein paar Jahren jedem völlig klar sein wird, dass Open-Source-KI einfach nicht klug ist.“

Befürworter offener Modelle schlugen zurück und verspotteten die Idee, dass offene generative KI-Modelle es Menschen ermöglichen, auf Informationen zuzugreifen, die sie sonst nicht im Internet oder bei betrügerischen Wissenschaftlern finden könnten. Sie unterstreichen auch das wettbewerbsorientierte Eigeninteresse der großen Technologieunternehmen, die über die Gefahren offener Modelle schreien. Die finstere Absicht dieser Unternehmen besteht laut Kritikern darin, die Aufsichtsbehörden zu kapern, den Aufständischen höhere Compliance-Kosten aufzuerlegen und so ihre eigene Marktdominanz zu festigen.

Aber diese Debatte hat auch eine ideologische Dimension. Yann LeCun, Chefwissenschaftler von Meta, das sich von den anderen Giganten des Silicon Valley abhebt, indem es sich für offene Modelle einsetzt, hat die Argumente konkurrierender Unternehmen für die Kontrolle der Technologie mit mittelalterlichem Obskurantismus verglichen: dem Glauben, dass nur eine selbstwählende Expertenpriesterschaft klug ist genug, um mit Wissen umzugehen.

In Zukunft, sagte er mir kürzlich, werden alle unsere Interaktionen mit dem riesigen digitalen Speicher menschlichen Wissens über KI-Systeme vermittelt. Wir sollten nicht wollen, dass eine Handvoll Unternehmen aus dem Silicon Valley diesen Zugang kontrollieren. So wie das Internet dadurch florierte, dass es sich den Versuchen widersetzte, es abzuschotten, so wird die KI gedeihen, indem sie offen bleibt, argumentiert LeCun, „solange Regierungen auf der ganzen Welt nicht die gesamte Idee der Open-Source-KI verbieten“.

Jüngste Diskussionen auf dem KI-Sicherheitsgipfel in Bletchley Park deuten darauf hin, dass sich zumindest einige politische Entscheidungsträger nun möglicherweise in diese Richtung bewegen. Andere Experten schlagen jedoch leichtere Eingriffe vor, die die Sicherheit verbessern würden, ohne den Wettbewerb zu zerstören.

Wendy Hall, Regius-Professorin für Informatik an der Universität Southampton und Mitglied des KI-Beratungsgremiums der Vereinten Nationenja, sagt, wir wollen nicht in einer Welt leben, in der nur die großen Unternehmen generative KI betreiben. Wir möchten den Benutzern auch nicht erlauben, mit offenen Modellen alles zu machen, was sie wollen. „Wir müssen einen Kompromiss finden“, schlägt sie vor.

Ihre bevorzugte Lösung, die anderswo an Bedeutung gewinnt, besteht darin, generative KI-Modelle ähnlich wie in der Automobilindustrie zu regulieren. Die Regulierungsbehörden legen den Automobilherstellern strenge Sicherheitsstandards fest, bevor sie neue Modelle auf den Markt bringen. Sie erlegen den Fahrern aber auch Verantwortung auf und machen sie für ihr Handeln zur Rechenschaft. „Wenn Sie mit Open Source etwas tun, das unverantwortlich ist und Schaden anrichtet, sollten Sie ins Gefängnis gehen – genau wie wenn Sie jemanden beim Autofahren töten“, sagt Hall.

Wir sollten der Tyrannei des Binärsystems auf jeden Fall widerstehen, wenn es darum geht, über KI-Modelle nachzudenken. Sowohl offene als auch geschlossene Modelle haben ihre Vor- und Nachteile. Da sich die Fähigkeiten dieser Modelle weiterentwickeln, müssen wir die Gewichtung zwischen Wettbewerb und Kontrolle ständig anpassen.



ttn-de-58

Schreibe einen Kommentar