Das Europäische Parlament bereitet strenge neue Maßnahmen zur Nutzung künstlicher Intelligenz vor, einschließlich der Verpflichtung von Chatbot-Herstellern, offenzulegen, ob sie urheberrechtlich geschütztes Material verwenden, da die EU kurz davor steht, das weltweit restriktivste Regime für die Entwicklung von KI zu erlassen.
Die Abgeordneten in Brüssel stehen kurz davor, einer Reihe von Vorschlägen zuzustimmen, die Teil des europäischen Gesetzes über künstliche Intelligenz sein sollen, einem umfassenden Regelwerk für den Einsatz von KI, so die mit dem Prozess vertrauten Personen.
Zu den Maßnahmen, die wahrscheinlich von den Parlamentariern vorgeschlagen werden, gehört, dass Entwickler von Produkten wie ChatGPT von OpenAI erklären müssen, ob urheberrechtlich geschütztes Material zum Trainieren ihrer KI-Modelle verwendet wird, eine Maßnahme, die es den Erstellern von Inhalten ermöglichen soll, eine Zahlung zu verlangen. Die Abgeordneten wollen auch, dass die Verantwortung für den Missbrauch von KI-Programmen bei Entwicklern wie OpenAI liegt und nicht bei kleineren Unternehmen, die es verwenden.
Ein umstrittener Vorschlag der Abgeordneten ist ein grundsätzliches Verbot der Gesichtserkennung im öffentlichen Raum. Von den EU-Mitgliedstaaten wird erwartet, dass sie sich unter dem Druck ihrer lokalen Polizeikräfte gegen ein vollständiges Verbot der Biometrie wehren, sagten Personen mit direkter Kenntnis der Verhandlungen.
Die Einigung zwischen den Abgeordneten, die seit fast zwei Jahren über Maßnahmen zur Überwachung der künstlichen Intelligenz streiten, ist entscheidend, um breitere Verhandlungen über das KI-Gesetz in Gang zu bringen. Das vorgeschlagene Gesetz würde einige der strengsten Regeln für die Entwicklung von KI darstellen und kommt im Zuge zunehmender Bedenken hinsichtlich eines möglichen Missbrauchs der Technologie.
Sobald sich das Parlament auf seine Position geeinigt hat, werden die Mitgliedstaaten, die Europäische Kommission und die Abgeordneten gemeinsam einen endgültigen Gesetzentwurf erarbeiten, der darauf abzielt, das Gesetz vor dem Ende der laufenden Wahlperiode des Europäischen Parlaments im Jahr 2024 zu verabschieden.
Die Abgeordneten hoffen, ihre Position nächste Woche fertigstellen zu können, sagte Brando Benifei, einer der führenden Verhandlungsführer des Parlaments, gegenüber der Financial Times.
Nach aktuellen Vorschlägen zum KI-Gesetz müssen Chatbots den Nutzern mitteilen, dass sie keine Menschen sind. Benifei sagte, die Abgeordneten wollten mehr Transparenz.
„Wir wollen eine Liste der öffentlichen Offenlegung des Materials, das verwendet wird, um es zu trainieren, weil [authors] andere Gesetze und Wege gehen können, um zu versuchen, für das bezahlt zu werden, was ohne ihre Zustimmung verwendet wird“, sagte er.
Der Vorschlag kommt, als das visuelle Medienunternehmen Getty Images in Großbritannien einen Urheberrechtsklage gegen Stability AI anstrengt und behauptet, der Hersteller des kostenlosen Bildgenerierungstools habe Millionen seiner urheberrechtlich geschützten Bilder ohne Zustimmung verwendet.
Künstler in den USA haben auch Sammelklagen gegen Stability AI und andere Unternehmen eingereicht, nachdem sie entdeckt hatten, dass ihre Arbeit zum Trainieren von KI-Systemen verwendet wurde.
Die Vorschläge des Europäischen Parlaments, die voraussichtlich im nächsten Monat ratifiziert werden, könnten auch ein Verbot von Predictive Policing, den Einsatz von Algorithmen zur Vorhersage von Verbrechen oder zur Identifizierung von Verdächtigen sowie die emotionale Erkennung durch den Einsatz von KI zur Erkennung menschlicher Gefühle und Zustände beinhalten Geist.
Die an den Verhandlungen Beteiligten warnten, dass es zu früh sei, bis zum Ende der Diskussionen nächste Woche genau zu sagen, was der Text ausmachen würde.
Dragoș Tudorache, MdEP und Co-Leading Verhandlungsführer, sagte, die Regulierung von KI sei angesichts der wachsenden Popularität von generativen KI-Produkten wie ChatGPT von entscheidender Bedeutung. „Es ist eine bahnbrechende Technologie, und wir müssen sie nutzen, was bedeutet, dass wir Regeln aufstellen“, sagte er. „Self Due Diligence von Unternehmen reicht nicht aus.“