X blockiert die Suche von Taylor Swift, nachdem gefälschte KI-Videos viral gegangen sind

X blockiert die Suche von Taylor Swift nachdem gefaelschte KI Videos.jpg3Fsource3Dnext article26fit3Dscale down26quality3Dhighest26width3D70026dpr3D1


Elon Musks X hat die Suche nach Taylor Swift blockiert, nachdem sexuell eindeutige Bilder des Popstars, die mithilfe künstlicher Intelligenz erstellt wurden, auf der Plattform weit verbreitet waren.

Der Vorfall ist das jüngste Beispiel dafür, wie Social-Media-Gruppen gegen sogenannte Deepfakes vorgehen: realistische Bilder und Audiodaten, die mithilfe von KI generiert werden und dazu missbraucht werden können, prominente Personen ohne deren Zustimmung in kompromittierenden oder irreführenden Situationen darzustellen.

Bei der Suche nach Begriffen wie „Taylor Swift“ oder „Taylor AI“ auf Die Änderung bedeutet, dass selbst legitime Inhalte über einen der beliebtesten Stars der Welt auf der Website schwerer zu sehen sind.

„Dies ist eine vorübergehende Maßnahme und wird mit größter Vorsicht durchgeführt, da wir der Sicherheit in dieser Angelegenheit Priorität einräumen“, sagte Joe Benarroch, Leiter des Geschäftsbetriebs bei X.

Swift hat sich zu der Angelegenheit nicht öffentlich geäußert.

X wurde im Oktober 2022 für 44 Milliarden US-Dollar vom milliardenschweren Unternehmer Musk gekauft, der die Ressourcen für die Überwachung von Inhalten gekürzt und seine Moderationsrichtlinien gelockert hat, wobei er sich auf seine Ideale der freien Meinungsäußerung berief.

Der Einsatz des stumpfen Moderationsmechanismus an diesem Wochenende erfolgt, da X und seine Konkurrenten Meta, TikTok und Googles YouTube zunehmendem Druck ausgesetzt sind, gegen den Missbrauch immer realistischerer und leichter zugänglicher Deepfake-Technologie vorzugehen. Es ist ein florierender Markt für Tools entstanden, die es jedem ermöglichen, mit generativer KI mit wenigen Klicks ein Video oder ein Bild nach dem Vorbild einer Berühmtheit oder eines Politikers zu erstellen.

Obwohl Deepfake-Technologie schon seit mehreren Jahren verfügbar ist, haben die jüngsten Fortschritte in der generativen KI die Erstellung der Bilder einfacher und realistischer gemacht. Experten warnen davor, dass gefälschte pornografische Bilder einer der häufigsten aufkommenden Missbräuche der Deepfake-Technologie sind, und weisen auch auf deren zunehmenden Einsatz in politischen Desinformationskampagnen während eines Wahljahres auf der ganzen Welt hin.

Als Antwort auf eine Frage zu den Swift-Bildern am Freitag sagte die Pressesprecherin des Weißen Hauses, Karine Jean-Pierre, die Verbreitung der falschen Bilder sei „alarmierend“ und fügte hinzu: „Während Social-Media-Unternehmen ihrer Meinung nach ihre eigenen unabhängigen Entscheidungen über das Content-Management treffen.“ Sie spielen eine wichtige Rolle bei der Durchsetzung ihrer eigenen Regeln.“ Sie forderte den Kongress auf, diesbezüglich Gesetze zu erlassen.

Am Mittwoch werden Social-Media-Führungskräfte, darunter Linda Yaccarino von

Am Freitag hieß es in einem offiziellen Sicherheitskonto von X: Stellungnahme dass das Posten von „Bildern nicht einvernehmlicher Nacktheit (NCN)“ auf der Plattform „streng verboten“ sei, die eine „Null-Toleranz-Politik gegenüber solchen Inhalten“ verfolge.

Es fügte hinzu: „Unsere Teams entfernen aktiv alle identifizierten Bilder und ergreifen entsprechende Maßnahmen gegen die Konten, die für die Veröffentlichung dieser Bilder verantwortlich sind.“ Wir beobachten die Situation genau, um sicherzustellen, dass weitere Verstöße sofort behoben und die Inhalte entfernt werden.“

Allerdings konnten die erschöpften Ressourcen von

Ein Bericht der Technologie-Nachrichtenseite 404 Media ergab, dass die Bilder offenbar von der anonymen Pinnwand 4chan und einer Gruppe der Messaging-App Telegram stammten, die sich dem Teilen missbräuchlicher, KI-generierter Bilder von Frauen widmete, die oft mit einem Microsoft-Tool erstellt wurden. Telegram und Microsoft reagierten nicht sofort auf Anfragen nach Kommentaren.





ttn-de-58

Schreibe einen Kommentar