Schalten Sie den Editor’s Digest kostenlos frei
Roula Khalaf, Herausgeberin der FT, wählt in diesem wöchentlichen Newsletter ihre Lieblingsgeschichten aus.
Meta wurde vorgeworfen, bei der Moderation von Inhalten im Zusammenhang mit dem Israel-Hamas-Konflikt zu hartnäckig vorzugehen, und wurde aufgefordert, die Meinungsfreiheit stärker zu schützen und gleichzeitig ihren Menschenrechtsverpflichtungen nachzukommen.
Das unabhängige Aufsichtsgremium des US-Technologieriesen kam in einem am Dienstag veröffentlichten Bericht zu dem Schluss, dass Meta überkorrigiert war, als es nach dem Angriff der Hamas auf Israel am 7. Oktober die Schwelle für automatisierte Tools zur Entfernung potenziell regelwidriger Inhalte senkte.
„Während das Risiko schädlicher Inhalte verringert wurde, erhöhte sich auch die Wahrscheinlichkeit, versehentlich wertvolle, nicht verletzende Inhalte von seinen Plattformen zu entfernen“, sagte das Gremium und verwies auf Beiträge, die „die Welt über menschliches Leid auf beiden Seiten des Konflikts informieren“.
Bis zum 11. Dezember hatte Meta diese Schwellenwerte – die bestimmen, wie „sicher“ seine automatisierten moderierten Systeme sein müssen, um Inhalte zu entfernen – nicht auf die höheren Werte vor dem Angriff im Oktober zurückgesetzt, sagte der Vorstand, ein „Oberster Gerichtshof“. ”-artiges Gremium, das von der Facebook-Muttergesellschaft eingerichtet wurde.
Der Bericht kommt zu einem Zeitpunkt, an dem Meta und seine Social-Media-Konkurrenten TikTok,
Den Plattformen wurde auch Voreingenommenheit vorgeworfen. TikTok wurde beispielsweise von einigen US-Gesetzgebern mit Vorwürfen konfrontiert, dass es pro-palästinensische Stimmen verstärkt und antisemitische Inhalte nicht berücksichtigt.
Dutzende Menschen- und Bürgerrechtsorganisationen haben behauptet, Meta hingegen habe palästinensische Stimmen unterdrückt und die Verbreitung antipalästinensischer Inhalte auf seinen Plattformen zugelassen.
In seinem Bericht forderte der Vorstand Meta auf, „schneller auf sich ändernde Umstände vor Ort zu reagieren, die das Gleichgewicht zwischen den Werten Stimme und Sicherheit beeinträchtigen“.
Der Ausschuss, dem Journalisten, Akademiker und Menschenrechtsaktivisten angehören, äußerte außerdem Bedenken, dass Meta Inhalte entferne, die Hinweise auf Menschenrechtsverletzungen enthalten könnten, und forderte die Aufbewahrung dieser Inhalte.
Das Aufsichtsgremium von Meta muss in der Regel 90 Tage brauchen, um auf Einsprüche zu reagieren, führte jedoch eine beschleunigte 12-tägige Prüfung der beiden Fälle durch.
In einem Fall hatte Meta ein auf Instagram gepostetes Video entfernt, das die Folgen eines Angriffs auf oder in der Nähe des Al-Shifa-Krankenhauses in Gaza während der israelischen Offensive zeigte, darunter verletzte und getötete palästinensische Kinder.
Die Systeme von Meta hatten den Beitrag wegen Verstoßes gegen die Richtlinien zu gewalttätigen und anschaulichen Bildern entfernt. Das Gremium entschied jedoch, dass die Beiträge einen „außerordentlich hohen Wert für das öffentliche Interesse“ hätten und dass die Meinungsfreiheit die Veröffentlichung, wenn auch mit einem Warnhinweis, zulassen sollte.
Ein separater Fall drehte sich um ein auf Facebook gepostetes Video einer israelischen Frau, die ihre Entführer anfleht, sie nicht zu töten, als sie am 7. Oktober als Geisel genommen wird. Meta hat das Video zunächst „aus Bedenken hinsichtlich der Würde der Geiseln sowie der …“ gelöscht Verwendung solcher Videos, um die Aktionen der Hamas zu feiern oder zu fördern“.
Der Vorstand entschied, dass der Beitrag auf der Plattform hätte bleiben sollen, und kritisierte Meta dafür, dass sie zu einem späteren Zeitpunkt dazu übergegangen sei, das Teilen des Geiselvideos nur bestimmten VIP-Benutzern zu erlauben, und erklärte, dies habe bereits bestehende Bedenken hinsichtlich einer „Ungleichbehandlung von Benutzern“ geweckt. .
Der Ausschuss, der 2021 mit der Beurteilung von Fällen begann, fällt unabhängige Urteile zu hochkarätigen Moderationsfällen sowie Empfehlungen zu bestimmten Richtlinien.
Meta sagte, es begrüße die Entscheidung des Gremiums und stellte fest, dass der Inhalt bereits zuvor wieder aufgenommen worden sei und daher keine weiteren Maßnahmen ergriffen würden.
Das Unternehmen sagte: „Sowohl Ausdruck als auch Sicherheit sind für uns und die Menschen, die unseren Service nutzen, wichtig.“ Der Vorstand hob Metas ursprüngliche Entscheidung auf, diesen Inhalt zu entfernen, stimmte jedoch der späteren Entscheidung zu, den Inhalt mit einer Warnmeldung wiederherzustellen.“