Politische Entscheidungsträger auf der ganzen Welt machen sich Sorgen darüber, wie KI-generierte Desinformation genutzt werden kann, um Wähler in die Irre zu führen und Spaltungen vor mehreren großen Wahlen im nächsten Jahr zu schüren.
In einem Land passiert es bereits: Bangladesch.
Das südasiatische Land mit 170 Millionen Einwohnern steht Anfang Januar vor den Wahlen, einem Wettbewerb, der von einem erbitterten und polarisierenden Machtkampf zwischen der amtierenden Premierministerin Sheikh Hasina und ihren Rivalen, der oppositionellen Bangladesh Nationalist Party, geprägt ist.
Regierungsnahe Nachrichtenagenturen und Influencer in Bangladesch haben in den letzten Monaten KI-generierte Desinformation gefördert, die mit billigen Tools von Start-ups im Bereich der künstlichen Intelligenz erstellt wurde.
In einem angeblichen Nachrichtenclip kritisiert ein von der KI generierter Moderator die USA, ein Land, das die Regierung von Sheikh Hasina im Vorfeld der Wahlen kritisiert hat. Ein separates Deepfake-Video, das inzwischen entfernt wurde, zeigte einen Oppositionsführer, der sich zweideutig über die Unterstützung der Gaza-Bewohner äußerte, eine möglicherweise ruinöse Position in dem mehrheitlich muslimischen Land mit starker öffentlicher Sympathie für die Palästinenser.
Der öffentliche Druck auf Technologieplattformen steigt, vor mehreren großen Wahlen, die im Jahr 2024 erwartet werden, unter anderem in den USA, Großbritannien, Indien und Indonesien, gegen irreführende KI-Inhalte vorzugehen. Als Reaktion darauf haben Google und Meta kürzlich Richtlinien angekündigt, wonach Kampagnen offenlegen müssen, ob politische Anzeigen digital verändert wurden.
Die Beispiele aus Bangladesch zeigen jedoch nicht nur, wie diese KI-Instrumente bei Wahlen eingesetzt werden können, sondern auch, wie schwierig es ist, ihren Einsatz in kleineren Märkten zu kontrollieren, die von amerikanischen Technologieunternehmen möglicherweise übersehen werden.
Miraj Ahmed Chowdhury, der Geschäftsführer des in Bangladesch ansässigen Medienforschungsunternehmens Digitally Right, sagte, dass sich KI-generierte Desinformation zwar „noch im Experimentierstadium“ befinde – die meisten davon würden mit konventionellen Foto- oder Videobearbeitungsplattformen erstellt –, sie aber zeige, wie sie sich durchsetzen könne aus.
„Wenn sie über Technologien und Werkzeuge wie KI verfügen, die es ihnen ermöglichen, Fehlinformationen und Desinformationen in großem Maßstab zu produzieren, dann können Sie sich vorstellen, wie groß diese Bedrohung ist“, sagte er und fügte hinzu, dass „die Aufmerksamkeit einer Plattform für eine bestimmte Gerichtsbarkeit davon abhängt, wie.“ „Es ist wichtig, dass es ein Markt ist.“
Der weltweite Fokus auf die Fähigkeit, KI zur Erstellung irreführender oder falscher politischer Inhalte zu nutzen, hat im vergangenen Jahr mit der Verbreitung leistungsstarker Tools wie ChatGPT und KI-Videogeneratoren von OpenAI zugenommen.
Anfang des Jahres veröffentlichte das Republikanische Nationalkomitee der USA eine Angriffsanzeige mit KI-generierten Bildern, um eine dystopische Zukunft unter Präsident Joe Biden darzustellen. Und YouTube hat mehrere Konten in Venezuela gesperrt, indem es KI-generierte Nachrichtensprecher nutzte, um Desinformationen zugunsten des Regimes von Präsident Nicolás Maduro zu verbreiten.
In Bangladesch schüren die Desinformationen ein angespanntes politisches Klima vor den Wahlen Anfang Januar. Scheich Hasina ist hart gegen die Opposition vorgegangen. Tausende Führungspersönlichkeiten und Aktivisten wurden verhaftet. Kritiker warnen, dass dies einem Versuch gleichkäme, Umfragen zu ihren Gunsten zu manipulieren, was die USA dazu veranlasste, öffentlich Druck auf ihre Regierung auszuüben, um freie und faire Wahlen sicherzustellen.
In einem Video, das BD Politico, ein Online-Nachrichtenportal, im September auf wegen politischer Gewalt.
Das Video wurde mit HeyGen erstellt, einem in Los Angeles ansässigen KI-Videogenerator, der es Kunden ermöglicht, für nur 24 US-Dollar pro Monat Clips mit KI-Avataren zu erstellen. Derselbe Anker mit dem Namen „Edward“ ist in den Werbeinhalten von HeyGen als einer von mehreren Avataren zu sehen, die den Nutzern der Plattform zur Verfügung stehen – die wiederum von echten Schauspielern generiert werden. X, BD Politico und HeyGen antworteten nicht auf Anfragen nach Kommentaren.
Weitere Beispiele sind oppositionsfeindliche Deepfake-Videos, die auf Metas Facebook gepostet wurden, darunter eines, in dem fälschlicherweise behauptet wird, es zeige den im Exil lebenden BNP-Führer Tarique Rahman, der der Partei vorschlägt, über Gaza „zu schweigen“, um den USA nicht zu missfallen. Das Tech Global Institute, eine Denkfabrik, und die gemeinnützige Medienorganisation Witness kamen beide zu dem Schluss, dass das gefälschte Video wahrscheinlich KI-generiert war.
AKM Wahiduzzaman, ein BNP-Beamter, sagte, seine Partei habe Meta gebeten, solche Inhalte zu entfernen, aber „meistens machen sie sich nicht die Mühe, zu antworten“. Meta entfernte das Video, nachdem die Financial Times sie um einen Kommentar gebeten hatte.
In einem anderen Deepfake-Video, das mithilfe der in Tel Aviv ansässigen KI-Videoplattform D-ID erstellt wurde, wird Rashed Iqbal Khan, der Anführer der Jugendabteilung der BNP, dabei gezeigt, wie er über sein Alter lügt, was nach Angaben des Tech Global Institute ein Versuch war, ihn zu diskreditieren. D-ID antwortete nicht auf eine Bitte um Stellungnahme.
Eine Hauptherausforderung bei der Identifizierung solcher Desinformation sei das Fehlen zuverlässiger KI-Erkennungstools, sagte Sabhanaz Rashid Diya, Gründerin des Tech Global Institute und ehemalige Meta-Führungskraft, wobei handelsübliche Produkte bei der Identifizierung nicht englischsprachiger Inhalte besonders unwirksam seien.
Sie fügte hinzu, dass die von großen Technologieplattformen vorgeschlagenen Lösungen, die sich auf die Regulierung von KI in politischer Werbung konzentriert haben, in Ländern wie Bangladesch, in denen Werbung einen kleineren Teil der politischen Kommunikation ausmacht, nur begrenzte Wirkung haben werden.
„Die Lösungen, die zur Bewältigung dieses Ansturms an KI-Fehlinformationen entwickelt werden, sind sehr westlich ausgerichtet.“ Tech-Plattformen „nehmen dies in anderen Teilen der Welt nicht so ernst“.
Das Problem wird durch die fehlende Regulierung bzw. deren selektive Durchsetzung durch die Behörden verschärft. Das Cyber Security Act von Bangladesch wurde beispielsweise dafür kritisiert, dass es der Regierung drakonische Befugnisse einräumt, um gegen abweichende Meinungen im Internet vorzugehen.
Die Internetregulierungsbehörde von Bangladesch reagierte nicht auf eine Bitte um Stellungnahme dazu, was sie unternimmt, um Fehlinformationen im Internet zu kontrollieren.
Eine größere Bedrohung als die KI-generierten Inhalte selbst, argumentierte Diya, sei die Aussicht, dass Politiker und andere die bloße Möglichkeit von Deepfakes nutzen könnten, um unbequeme Informationen zu diskreditieren.
Im benachbarten Indien antwortete beispielsweise ein Politiker auf eine durchgesickerte Audioaufnahme, in der er angeblich über Korruption in seiner Partei sprach, indem er behauptete, es handele sich um eine Fälschung – eine Behauptung später von Faktenprüfern abgewiesen.
„Für einen Politiker ist es leicht zu sagen: ‚Das ist Deepfake‘ oder ‚Das ist KI-generiert‘ und ein Gefühl der Verwirrung zu säen“, sagte sie. „Die Herausforderung für den globalen Süden. . . wird die Art und Weise sein, wie die Idee von KI-generierten Inhalten als Waffe genutzt wird, um das, was die Leute für wahr und falsch halten, zu untergraben.“
Zusätzliche Berichterstattung von Jyotsna Singh in Neu-Delhi