Erkenntnisse zu Hassreden und Fehlinformationen in Indien führten zu einer tieferen Analyse, sagt Facebook

0
150

„Unsere Arbeit zur Eindämmung von Hassreden geht weiter und wir haben unsere Hassklassifizierer weiter gestärkt, um 4 indische Sprachen einzubeziehen“, sagte der Sprecher.

Das vor zwei Jahren von einem Facebook-Forscher in Kerala erstellte Benutzerkonto, das auf der Grundlage algorithmischer Empfehlungen auf mehrere Fälle von Hassreden und Fehlinformationen stieß, veranlasste das Unternehmen, eine „tiefere, strengere Analyse“ seiner Empfehlungssysteme in Indien durchzuführen , teilte die Social-Media-Plattform mit.

Facebook reagierte auf Anfragen von The Indian Express zum Bericht der New York Times über die Auswirkungen der Social-Media-Plattform in Indien, insbesondere in den im Vorfeld der Parlamentswahlen 2019.

Lesen Sie auch |Facebook hat Hassinhalte in Indien nicht gemeldet, weil es an Tools mangelte: Whistleblower

„Diese Erkundungsarbeit eines hypothetischen Testkontos inspirierte zu einer tieferen, gründlicheren Analyse unserer Empfehlungssysteme und trug zu Produktänderungen bei, um sie zu verbessern. Zu den Produktänderungen aufgrund späterer, strengerer Recherchen gehörten Dinge wie die Entfernung grenzwertiger Inhalte sowie bürgerlicher und politischer Gruppen aus unseren Empfehlungssystemen“, sagte ein Facebook-Sprecher.

https://images.indianexpress.com/2020/08/1×1.png

„Unsere Arbeit an der Eindämmung von Hassreden wird separat fortgesetzt und wir haben unsere Hassklassifizierer weiter gestärkt, um vier indische Sprachen einzubeziehen“, sagte der Sprecher.

Die New York Times berichtete, dass der Bericht des Forschers war eine von Dutzenden von Studien und Memos, die von Facebook-Mitarbeitern verfasst wurden, die sich mit den Auswirkungen der Plattform auf Indien auseinandersetzten.

Top News im Moment

Klicken Sie hier für mehr

„Die internen Dokumente, die von einem Konsortium von Nachrichtenorganisationen, zu denen auch die New York Times gehörte, erhalten wurden, sind Teil eines größeren Materiallagers namens The Facebook Papers. Sie wurden von Frances Haugen gesammelt, einer ehemaligen Facebook-Produktmanagerin, die Whistleblower wurde und kürzlich vor einem Unterausschuss des Senats über das Unternehmen und seine Social-Media-Plattformen aussagte“, heißt es darin.

„Bezüge zu Indien waren verstreut unter Dokumente, die Haugen Anfang dieses Monats in einer Beschwerde bei der Securities and Exchange Commission eingereicht hat“, heißt es darin.

Die Änderungen von Facebook bauen auf Einschränkungen auf, die das Unternehmen angeblich an Empfehlungen vorgenommen hat, wie z. B. die Entfernung von Gesundheitsgruppen von diesen Oberflächen sowie Gruppen, die wiederholt Fehlinformationen austauschen.

Speziell für Gruppen, die Fehlinformationen teilen, hat das Unternehmen damit begonnen, alle Inhalte solcher Gruppen im Newsfeed niedriger einzustufen und Benachrichtigungen einzuschränken, um weniger Mitglieder ihre Beiträge zu sehen.

Die Plattform gab auch an, dass sie “neue Typen” gesehen habe von Missbrauch auf Facebook“ im Kontext von Covid und aktualisierte seine Richtlinien, um die Änderungen widerzuspiegeln.

Zum Beispiel entfernt das Unternehmen jetzt Inhalte, die besagen, dass Personen, die ein geschütztes Merkmal wie Rasse oder Religion teilen, das Virus haben, das Virus geschaffen haben oder das Virus verbreiten. Als Teil der Durchsetzung dieser Richtlinie behauptet das Unternehmen, mehrere Hashtags blockiert zu haben, die hauptsächlich verwendet wurden, um die muslimische Gemeinschaft im Zusammenhang mit Covid anzusprechen.

📣 The Indian Express ist jetzt auf Telegram. Klicken Sie hier, um unserem Kanal (@indianexpress) beizutreten und über die neuesten Schlagzeilen auf dem Laufenden zu bleiben

Für die neuesten Indien-Nachrichten laden Sie die Indian Express App herunter.

  • Die Indian Express-Website wurde wurde von Newsguard, einem globalen Dienst, der Nachrichtenquellen nach ihren journalistischen Standards bewertet, für seine Glaubwürdigkeit und Vertrauenswürdigkeit als GRÜN bewertet.