Facebook-Video von Biden fordert Untersuchung der Meta-Content-Richtlinie


Schalten Sie den Editor’s Digest kostenlos frei

Meta steht vor einer Überprüfung seiner Richtlinien zu manipulierten Inhalten und durch künstliche Intelligenz erstellten „Deepfakes“, nachdem sich die Moderatoren des Unternehmens geweigert hatten, ein Facebook-Video zu entfernen, in dem US-Präsident Joe Biden fälschlicherweise als Pädophiler bezeichnet wurde.

Das Oversight Board des Silicon Valley-Unternehmens, ein unabhängiges Gremium im Stil des Obersten Gerichtshofs, das im Jahr 2020 eingerichtet wurde und aus 20 Journalisten, Akademikern und Politikern besteht, sagte am Dienstag, es werde ein Verfahren eröffnen, um zu prüfen, ob die Richtlinien des Social-Media-Riesen zu veränderten Videos und Bildern dies könnten „aktuellen und zukünftigen Herausforderungen standhalten“.

Die Untersuchung, die erste ihrer Art zu Metas Politik der „manipulierten Medien“, wurde durch eine bearbeitete Version eines Videos während der Zwischenwahlen 2022 in den USA ausgelöst. Im Originalclip klebt Biden einen „I Voted“-Aufkleber auf die Brust seiner erwachsenen Enkelin und küsst sie auf die Wange.

In einem Facebook-Beitrag vom Mai dieses Jahres wiederholt eine sieben Sekunden lange, veränderte Version des Clips das Filmmaterial, sodass der Moment wiederholt wird, in dem Bidens Hand ihre Brust berührt. In der dazugehörigen Bildunterschrift wird Biden als „kranker Pädophiler“ und diejenigen, die ihn gewählt haben, als „psychisch krank“ bezeichnet. Der Clip ist immer noch auf der Facebook-Seite.

Obwohl das Biden-Video ohne den Einsatz künstlicher Intelligenz bearbeitet wurde, argumentiert das Gremium, dass seine Überprüfung und Entscheidungen auch einen Präzedenzfall für KI-generierte und von Menschen bearbeitete Inhalte schaffen werden.

„Es berührt die viel umfassendere Frage, wie sich manipulierte Medien auf Wahlen in allen Teilen der Welt auswirken könnten“, sagte Thomas Hughes, Direktor der Oversight Board-Verwaltung.

„Freie Meinungsäußerung ist von entscheidender Bedeutung, sie ist der Eckpfeiler demokratischer Regierungsführung“, sagte Hughes. „Aber es gibt komplexe Fragen dazu, welche Menschenrechtsverantwortung Meta in Bezug auf Videoinhalte haben sollte, die so verändert wurden, dass ein irreführender Eindruck einer Person des öffentlichen Lebens entsteht.“

Er fügte hinzu: „Es ist wichtig, dass wir prüfen, welche Herausforderungen und Best Practices Meta übernehmen sollte, wenn es um die Authentifizierung von Videoinhalten in großem Maßstab geht.“

Die Untersuchung des Gremiums erfolgt zu einem Zeitpunkt, an dem KI-veränderte Inhalte, die oft als Deepfakes bezeichnet werden, immer ausgefeilter und weit verbreiteter werden. Es bestehen Bedenken, dass insbesondere gefälschte, aber realistische Inhalte von Politikern Einfluss auf die Stimmabgabe bei bevorstehenden Wahlen haben könnten. In etwas mehr als einem Jahr finden in den USA die Wahlen statt.

Der Fall Biden kam ans Licht, als ein Nutzer das Video Meta meldete, das den Beitrag nicht entfernte und seine Entscheidung bestätigte, ihn nach einem Facebook-Berufungsverfahren online zu lassen. Bis Anfang September hatte das Video weniger als 30 Aufrufe und wurde nicht geteilt.

Der nicht identifizierte Benutzer legte daraufhin beim Aufsichtsgremium Berufung gegen die Entscheidung ein. Meta bestätigte, dass seine Entscheidung, den Inhalt auf der Plattform zu belassen, richtig war.

Der Fall Biden ergänzt die wachsende Zahl von Untersuchungen des Gremiums zur Inhaltsmoderation im Zusammenhang mit Wahlen und anderen Bürgerveranstaltungen.

Der Vorstand hob in diesem Jahr eine Entscheidung von Meta auf, ein Facebook-Video zu veröffentlichen, in dem ein brasilianischer General zu sehen war, der … Planke Namen wurden nicht genannt, da Wahlen möglicherweise zu Gewalt auf der Straße anstacheln. Bisherige Einschätzungen konzentrierten sich auf die Entscheidung, den ehemaligen US-Präsidenten Donald Trump auf Facebook zu sperren, sowie auf ein Video, in dem der kambodschanische Premierminister Hun Sen seinen politischen Gegnern mit Gewalt droht.

Sobald der Vorstand seine Prüfung abgeschlossen hat, kann er unverbindliche politische Empfehlungen an Meta richten, die innerhalb von zwei Monaten antworten müssen. Der Vorstand hat Beiträge aus der Öffentlichkeit eingeladen, die anonym eingereicht werden können.

In einem Beitrag am Dienstag bekräftigte Meta, dass das Video „lediglich bearbeitet wurde, um bestimmte Teile zu entfernen“ und es sich daher nicht um einen Deepfake handelt, der den manipulierten Medienrichtlinien des Unternehmens auffällt.

„Wir werden die Entscheidung des Gremiums umsetzen, sobald die Beratungen abgeschlossen sind, und diesen Beitrag entsprechend aktualisieren“, hieß es und fügte hinzu, dass das Video auch nicht gegen die Richtlinien zu Hassreden oder Mobbing verstoße.

Zusätzliche Berichterstattung von Hannah Murphy in San Francisco



ttn-de-58

Schreibe einen Kommentar