Elon Musks X hat die Suche nach Taylor Swift blockiert, nachdem sexuell eindeutige Bilder des Popstars, die mithilfe künstlicher Intelligenz erstellt wurden, auf der Plattform weit verbreitet waren.
Der Vorfall ist das jüngste Beispiel dafür, wie Social-Media-Gruppen gegen sogenannte Deepfakes vorgehen: realistische Bilder und Audiodaten, die mithilfe von KI generiert werden und dazu missbraucht werden können, prominente Personen ohne deren Zustimmung in kompromittierenden oder irreführenden Situationen darzustellen.
Bei der Suche nach Begriffen wie „Taylor Swift“ oder „Taylor AI“ auf Die Änderung bedeutet, dass selbst legitime Inhalte über einen der beliebtesten Stars der Welt auf der Website schwerer zu sehen sind.
„Dies ist eine vorübergehende Maßnahme und wird mit größter Vorsicht durchgeführt, da wir der Sicherheit in dieser Angelegenheit Priorität einräumen“, sagte Joe Benarroch, Leiter des Geschäftsbetriebs bei X.
Swift hat sich zu der Angelegenheit nicht öffentlich geäußert.
X wurde im Oktober 2022 für 44 Milliarden US-Dollar vom milliardenschweren Unternehmer Musk gekauft, der die Ressourcen für die Überwachung von Inhalten gekürzt und seine Moderationsrichtlinien gelockert hat, wobei er sich auf seine Ideale der freien Meinungsäußerung berief.
Der Einsatz des stumpfen Moderationsmechanismus an diesem Wochenende erfolgt, da X und seine Konkurrenten Meta, TikTok und Googles YouTube zunehmendem Druck ausgesetzt sind, gegen den Missbrauch immer realistischerer und leichter zugänglicher Deepfake-Technologie vorzugehen. Es ist ein florierender Markt für Tools entstanden, die es jedem ermöglichen, mit generativer KI mit wenigen Klicks ein Video oder ein Bild nach dem Vorbild einer Berühmtheit oder eines Politikers zu erstellen.
Obwohl Deepfake-Technologie schon seit mehreren Jahren verfügbar ist, haben die jüngsten Fortschritte in der generativen KI die Erstellung der Bilder einfacher und realistischer gemacht. Experten warnen davor, dass gefälschte pornografische Bilder einer der häufigsten aufkommenden Missbräuche der Deepfake-Technologie sind, und weisen auch auf deren zunehmenden Einsatz in politischen Desinformationskampagnen während eines Wahljahres auf der ganzen Welt hin.
Als Antwort auf eine Frage zu den Swift-Bildern am Freitag sagte die Pressesprecherin des Weißen Hauses, Karine Jean-Pierre, die Verbreitung der falschen Bilder sei „alarmierend“ und fügte hinzu: „Während Social-Media-Unternehmen ihrer Meinung nach ihre eigenen unabhängigen Entscheidungen über das Content-Management treffen.“ Sie spielen eine wichtige Rolle bei der Durchsetzung ihrer eigenen Regeln.“ Sie forderte den Kongress auf, diesbezüglich Gesetze zu erlassen.
Am Mittwoch werden Social-Media-Führungskräfte, darunter Linda Yaccarino von
Am Freitag hieß es in einem offiziellen Sicherheitskonto von X: Stellungnahme dass das Posten von „Bildern nicht einvernehmlicher Nacktheit (NCN)“ auf der Plattform „streng verboten“ sei, die eine „Null-Toleranz-Politik gegenüber solchen Inhalten“ verfolge.
Es fügte hinzu: „Unsere Teams entfernen aktiv alle identifizierten Bilder und ergreifen entsprechende Maßnahmen gegen die Konten, die für die Veröffentlichung dieser Bilder verantwortlich sind.“ Wir beobachten die Situation genau, um sicherzustellen, dass weitere Verstöße sofort behoben und die Inhalte entfernt werden.“
Allerdings konnten die erschöpften Ressourcen von
Ein Bericht der Technologie-Nachrichtenseite 404 Media ergab, dass die Bilder offenbar von der anonymen Pinnwand 4chan und einer Gruppe der Messaging-App Telegram stammten, die sich dem Teilen missbräuchlicher, KI-generierter Bilder von Frauen widmete, die oft mit einem Microsoft-Tool erstellt wurden. Telegram und Microsoft reagierten nicht sofort auf Anfragen nach Kommentaren.