„Borderline“ problematischer Content schneller, rutscht unter Radar: Facebook-Memo

0
173

Viewport-Aufrufe ist eine Facebook-Kennzahl, die misst, wie oft der Inhalt tatsächlich von Benutzern angesehen wird. (Repräsentativ)

Nach einem internen Memo vom 15. des Social-Media-Unternehmens.

Facebook definiert „grenzwertige Inhalte“ als solche, die „nicht gegen die Community-Standards verstoßen, aber in einem vom CS (Community-Standard) abgedeckten Bereich erkennbar problematisch sind“.

Bedeutsamer ist, dass solche Inhalte das Zehnfache des Viewports generiert haben Ansichten (VPVs) als Beiträge, die als offen gegen die Richtlinien der Plattform gewertet wurden, zeigte das Dokument. Viewport-Aufrufe ist eine Facebook-Kennzahl, mit der gemessen wird, wie oft der Inhalt tatsächlich von Nutzern angesehen wird.

https://images.indianexpress.com/2020/08/1×1.png Lesen Sie auch |3 Mitarbeiter-Memos markierten „polarisierende“ Inhalte, Hassreden in Indien, aber Facebook sagte, dass es kein Problem sei

Der Bericht vom April 2019 skizzierte diese Grenze auch Inhalte „erhalten mehr Interaktion als harmlose“ Posts und tendierten zu einer „höheren Verbreitung“ – das heißt, sie erreichten mehr Facebook-Nutzer – und unterstrichen die „Notwendigkeit von Interventionen, um perversen Anreizen entgegenzuwirken“.

Diese internen Ergebnisse kommen fast ein Jahr, nachdem Mark Zuckerberg, Chief Executive Officer von Meta Platforms Inc – Facebook am 28. Oktober dieses Jahres in Meta umbenannt wurde — hatte 2018 eine detaillierte Anmerkung dazu gemacht, wie die Plattform grenzwertige Inhalte filtern und herabstufen wollte. Meta behauptet auch, die Anzahl der Stunden erhöht zu haben, die es dafür aufgewendet hat, auf seinen Social-Media-Plattformen aufhetzende Rede zu reduzieren.

Auf die Frage nach dem Konflikt zwischen dem hohen Engagement von grenzwertigen Inhalten und der Notwendigkeit, solche Inhalte zu entfernen, sagte ein Meta-Sprecher: „Wir trainieren KI-Systeme, um grenzwertige Inhalte zu erkennen, damit wir diese Inhalte weniger verbreiten können. Um das Risiko zu verringern, dass problematische Inhalte viral werden und möglicherweise vor oder während der Wahl zu Gewalt anstiften, werden wir die Verbreitung von Inhalten, die unsere proaktive Erkennungstechnologie als wahrscheinliche Hassreden oder Gewalt und Anstiftung identifiziert, erheblich reduzieren. Diese Inhalte werden entfernt, wenn festgestellt wird, dass sie gegen unsere Richtlinien verstoßen, aber ihre Verbreitung wird eingeschränkt, bis diese Entscheidung getroffen wird.“

Leitartikel |Facebook-Papiere zeigen, dass das Unternehmen die sozialen Folgen von Fehlinformationen in nicht-westlichen Märkten missachtet

„Nach unseren bestehenden Gemeinschaftsstandards entfernen wir bestimmte Verleumdungen, die wir als Hassreden bezeichnen. Um diese Bemühungen zu ergänzen, können wir Technologien einsetzen, um neue Wörter und Phrasen im Zusammenhang mit Hassreden zu identifizieren und Beiträge mit dieser Sprache entweder zu entfernen oder ihre Verbreitung zu reduzieren“, sagte der Sprecher.

Diese internen Berichte sind Teil von Dokumenten, die der US-amerikanischen Securities and Exchange Commission (SEC) offengelegt und dem Kongress in redigierter Form vom Rechtsbeistand der ehemaligen Facebook-Mitarbeiterin und Whistleblowerin Frances Haugen zur Verfügung gestellt wurden. Die beim Kongress eingegangenen redigierten Versionen wurden von einem Konsortium globaler Nachrichtenorganisationen, darunter The Indian Express, überprüft.

Ein weiterer Satz interner Dokumente mit dem Titel “Kommunaler Konflikt in Indien” stellte jedoch fest, dass, als im März 2020 Hassreden in Hindi und Bengali in die Höhe schossen, die „Aktionsraten für diesen (bengalischen) Inhalt seit März (2020) fast vollständig gesunken sind, was auf eine niedrigere Aktionsrate inmitten eines Anstiegs der Meldequoten“, auch wenn die Maßnahmen für Beiträge in englischer Sprache stark gestiegen sind.

„Seit Juni 2019 ist der Anteil von Hassinhalten pro Tag pro Tag aktiver Nutzer in Indien erheblich gestiegen, insbesondere für englischsprachige Inhalte, nämlich viermal höher heute als am 1. Juni 2019. Der Anstieg der englischen Sprache wird durch höhere Aktionsraten und nicht durch Berichte angetrieben“, zeigte der interne Bericht.

Der Unternehmenssprecher sagte: „Unsere proaktive Erkennungsrate von Hassreden liegt weiterhin bei über 97 %, was bedeutet, dass fast 97 % der von uns entfernten Hassredeninhalte wir proaktiv erkennen, noch bevor sie jemand meldet. In diesem Fall vermischen Sie gemeldete Inhalte von Nutzern mit Inhalten, die von unseren Klassifikatoren (KI-Technologie) erfasst werden. Niedrige Aktionsraten bei gemeldeten Inhalten können verschiedene Gründe haben, wir erläutern sie auch in unserem monatlichen Bericht.“

< br /> Einige Gründe für die niedrige Aktionsrate sind die gemeldeten Inhalte, die nicht gegen die Richtlinien des Unternehmens verstoßen; der Berichterstatter liefert nicht genügend Informationen, um den Inhalt zu finden, den er zu melden versucht; die Richtlinien des Unternehmens, die es ihm nicht erlauben, Maßnahmen zu gemeldeten Inhalten zu ergreifen; und der Reporter „schreibt uns wegen eines Streits zwischen ihm und einem Dritten, den Facebook nicht schlichten kann“, sagte der Sprecher.

Der Indian Express hatte Anfang dieser Woche berichtet, dass mehrere interne Facebook-Berichte in den letzten zwei Jahren eine Zunahme der „Anti-Minderheiten-“ und „Anti-Muslim“-Rhetorik als „wesentliche Komponente“ des Lok Sabha . 2019 gekennzeichnet hatten Wahlkampf.

📣 Der Indian Express ist jetzt auf Telegram. Klicken Sie hier, um unserem Kanal (@indianexpress) beizutreten und über die neuesten Schlagzeilen auf dem Laufenden zu bleiben

Für die neuesten Indien-Nachrichten laden Sie die Indian Express App herunter.

  • Die Indian Express-Website wurde wurde von Newsguard, einem globalen Dienst, der Nachrichtenquellen nach ihren journalistischen Standards bewertet, für seine Glaubwürdigkeit und Vertrauenswürdigkeit als GRÜN bewertet.

© The Indian Express (P ) GmbH