Größte Technologieunternehmen verpflichten sich, KI-gestützte „Deepfakes“ bei Wahlen zu bekämpfen

Groesste Technologieunternehmen verpflichten sich KI gestuetzte „Deepfakes bei Wahlen zu bekaempfen.jpg3Fsource3Dnext article26fit3Dscale down26quality3Dhighest26width3D70026dpr3D1


Bleiben Sie mit kostenlosen Updates auf dem Laufenden

Die größten Technologieunternehmen der Welt haben sich verpflichtet, gegen „trügerische“ durch künstliche Intelligenz generierte Inhalte vorzugehen, die die globalen Wahlen in diesem Jahr stören, da die Befürchtungen über die Auswirkungen von Fehlinformationen auf die Demokratie zunehmen.

Amazon, Google, Meta, Microsoft, TikTok und OpenAI gehörten zu den 20 Technologieunternehmen, die am Freitag während der Münchner Sicherheitskonferenz erklärten, sie würden zusammenarbeiten, um die Erstellung und Verbreitung von Inhalten zu bekämpfen, die darauf abzielen, Wähler in die Irre zu führen, wie etwa „Deepfake“-Bilder und Videos und Audio.

Laut der von den Unternehmen unterzeichneten freiwilligen Vereinbarung schafft die rasante Entwicklung der KI „sowohl neue Chancen als auch Herausforderungen für den demokratischen Prozess“ und die Verbreitung irreführender Inhalte könnte „die Integrität von Wahlprozessen gefährden“.

„Da dieses Jahr so ​​viele große Wahlen stattfinden, ist es wichtig, dass wir alles tun, was wir können, um zu verhindern, dass Menschen durch KI-generierte Inhalte getäuscht werden“, sagte Nick Clegg, Präsident für globale Angelegenheiten bei Meta. „Diese Arbeit ist größer als die eines einzelnen Unternehmens und erfordert enorme Anstrengungen in der Industrie, der Regierung und der Zivilgesellschaft.“

Brad Smith, stellvertretender Vorsitzender und Präsident von Microsoft, fügte hinzu, dass Unternehmen „die Verantwortung haben, sicherzustellen, dass diese Tools bei Wahlen nicht als Waffe eingesetzt werden“.

Die Einigung erfolgt vor dem Hintergrund der zunehmenden Besorgnis von Gesetzgebern und Experten darüber, dass generative KI die in diesem Jahr anstehenden hochkarätigen Wahlen, unter anderem in den USA, Großbritannien und Indien, gefährden könnte.

Technologieunternehmen, die große Social-Media-Plattformen wie Facebook,

Doch das explosionsartige Interesse an generativen KI-Tools und deren Verfügbarkeit haben Bedenken geschürt, dass die Technologie insbesondere Wahlen gefährden könnte.

Im Januar wurde ein Robocall an US-Wähler in New Hampshire verschickt, der angeblich von Präsident Joe Biden stammte und sie aufforderte, bei den Vorwahlen nicht zu wählen. Im vergangenen Jahr wurden in Großbritannien, Indien, Nigeria, Sudan, Äthiopien und der Slowakei gefälschte Clips von Politikern gefunden, die angeblich mithilfe von KI erstellt und dann online verbreitet wurden.

Die 20 Technologieunternehmen, die die Vereinbarung vom Freitag unterzeichnet haben, sagten, sie würden „gemeinsam“ an Tools arbeiten, um die Verbreitung schädlicher wahlbezogener KI-Inhalte auf ihren Plattformen auszumerzen, und „schnell und verhältnismäßig“ Maßnahmen ergreifen.

Zu den Bemühungen könnte beispielsweise das Hinzufügen von Wasserzeichen zu Bildern gehören, die deutlich machen, woher sie stammen und ob sie verändert wurden.

Die Unternehmen verpflichteten sich außerdem, transparent darüber zu sein, wie sie mit solchen irreführenden Inhalten umgehen, und sagten, sie würden ihre generativen KI-Modelle – wie die hinter dem Chatbot ChatGPT von OpenAI – bewerten, um die wahlbezogenen Risiken besser zu verstehen, die sie möglicherweise mit sich bringen.

Die Vereinbarung ist die jüngste in einer Reihe freiwilliger Verpflichtungen rund um KI, die Big-Tech-Unternehmen in den letzten Monaten eingegangen sind. Letztes Jahr einigten sich Gruppen wie OpenAI, Google DeepMind und Meta darauf, ihre generativen KI-Modelle zur Überprüfung durch das britische AI ​​Safety Institute zu öffnen.

Diesen Monat erklärte Google im Rahmen der Brancheninitiative „Coalition for Content Provenance and Authenticity“, dass es „aktiv prüft“, ob es Wasserzeichen-Tools einführen könne, die zeigen, wie ein Bild erstellt wurde.

Meta gab im Februar außerdem bekannt, dass es „in den kommenden Monaten“ mit der Kennzeichnung von KI-generierten Bildern beginnen werde, die Benutzer auf Facebook, Instagram und Threads posten.



ttn-de-58

Schreibe einen Kommentar