Facebook tergiverse dans la lutte contre le contenu qui divise les utilisateurs en Inde

0
146

De la recherche aussi récente qu'en mars de cette année aux mémos d'entreprise qui remontent à 2019, les documents internes de l'entreprise sur l'Inde mettent en évidence les luttes constantes de Facebook pour annuler le contenu abusif sur son plates-formes dans la plus grande démocratie du monde et le plus grand marché de croissance de l'entreprise. (Fichier photo)

Facebook en Inde a été sélectif dans la lutte contre les discours de haine, la désinformation et les messages incendiaires, en particulier le contenu anti-musulman, selon des documents divulgués obtenus par l'Associated Press, même si ses propres employés ont mis en doute les motivations et les intérêts de l'entreprise.

Des recherches aussi récentes que mars de cette année aux notes d'entreprise qui remontent à 2019, les documents internes de l'entreprise sur l'Inde mettent en évidence les luttes constantes de Facebook pour annuler le contenu abusif sur ses plateformes dans la plus grande démocratie du monde et le le plus grand marché de croissance de l'entreprise. Les tensions communautaires et religieuses en Inde ont l'habitude de déborder sur les réseaux sociaux et d'attiser la violence.

Les fichiers montrent que Facebook est conscient des problèmes depuis des années, soulevant des questions quant à savoir s'il a fait assez pour résoudre ces problèmes. De nombreux critiques et experts numériques affirment qu'il n'a pas réussi à le faire, en particulier dans les cas où des membres du parti au pouvoir du Premier ministre Narendra Modi, Bharatiya Janata Party, ou BJP, sont impliqués.

https://images.indianexpress .com/2020/08/1×1.png A lire aussi |Whatsapp, Facebook n'est pas légalement autorisé à prétendre protéger la vie privée : Center dit à Delhi HC

Dans le monde entier, Facebook est devenu de plus en plus important en politique, et l'Inde n'est pas différente.

Modi a été crédité d'avoir tiré parti de la plate-forme à l'avantage de son parti pendant les élections, et les reportages du Wall Street Journal l'année dernière ont mis en doute si Facebook appliquait de manière sélective ses politiques sur les discours de haine pour éviter le retour de bâton du BJP. Modi et le PDG de Facebook, Mark Zuckerberg, ont tous deux respiré la bonhomie, commémorée par une image de 2015 des deux s'embrassant au siège de Facebook.

Les documents divulgués comprennent une mine de rapports internes d'entreprises sur les discours de haine et la désinformation en Inde. Dans certains cas, une grande partie a été intensifiée par ses propres “recommandés” fonctionnalité et algorithmes. Mais ils incluent également les employés de l'entreprise’ les inquiétudes suscitées par la mauvaise gestion de ces problèmes et leur mécontentement exprimé au sujet du « mécontentement » viral ; sur la plateforme.

Mark Zuckerberg, PDG de Facebook. REUTERS/Carlos Jasso/Fichier Photo

 

 

 

 

 

 

 

 

 

 

Selon les documents, Facebook considérait l'Inde comme l'un des pays les plus “à risque” dans le monde et a identifié les langues hindi et bengali comme des priorités pour « l'automatisation de la violation des discours hostiles ». Pourtant, Facebook n'avait pas suffisamment de modérateurs en langue locale ou de signalisation de contenu en place pour arrêter la désinformation qui a parfois conduit à la violence dans le monde réel.

Dans une déclaration à l'AP, Facebook a déclaré qu'il avait “investi de manière significative dans la technologie pour trouver les discours de haine dans diverses langues, dont l'hindi et le bengali” ce qui a permis de « réduire de moitié le nombre de discours haineux que les gens voient » en 2021.

“Les discours de haine contre les groupes marginalisés, y compris les musulmans, sont en augmentation dans le monde. Nous améliorons donc l'application de la loi et nous nous engageons à mettre à jour nos politiques à mesure que les discours de haine évoluent en ligne,” a déclaré un porte-parole de l'entreprise.

Lire aussi | Explication : Pourquoi Facebook veut se renommer pour le « Metaverse »

Cette histoire d'AP, ainsi que d'autres en cours de publication, est basée sur des divulgations faites à la Securities and Exchange Commission et fournies au Congrès sous forme rédigée par l'ancienne conseillère juridique Frances Haugen, ancienne employée de Facebook devenue dénonciatrice. Les versions rédigées ont été obtenues par un consortium d'organisations de presse, dont l'AP.

En février 2019 et avant les élections générales où les inquiétudes concernant la désinformation étaient élevées, un employé de Facebook voulait comprendre ce qu'un nouvel utilisateur du pays voyait sur son fil d'actualité s'il ne faisait que suivre des pages et des groupes uniquement recommandés par la plate-forme& #8217;s lui-même.

L'employé a créé un compte d'utilisateur de test et l'a gardé en ligne pendant trois semaines, une période au cours de laquelle un événement extraordinaire a secoué l'Inde – une attaque militante dans le Cachemire contesté avait tué plus de 40 soldats indiens , amenant le pays au bord de la guerre avec son rival Pakistan.

Dans la note intitulée “La descente d'un utilisateur de test indien dans une mer de messages polarisants et nationalistes,” l'employé dont le nom est expurgé a dit qu'il était “choqué” par le contenu inondant le fil d'actualités qui est devenu un barrage presque constant de contenu nationaliste polarisant, de désinformation, de violence et de gore.

Des groupes apparemment inoffensifs et inoffensifs recommandés par Facebook rapidement s'est transformé en quelque chose d'autre, où les discours de haine, les rumeurs non vérifiées et le contenu viral étaient monnaie courante.

Les groupes recommandés ont été inondés de fausses nouvelles, de rhétorique anti-pakistanaise et de contenu islamophobe. Une grande partie du contenu était extrêmement graphique.

L'un d'eux comprenait un homme tenant la tête ensanglantée d'un autre homme recouvert d'un drapeau pakistanais, avec un drapeau indien à la place de sa tête. Son “Populaire sur Facebook” La fonctionnalité a montré une multitude de contenus non vérifiés liés aux représailles indiennes au Pakistan après les attentats à la bombe, y compris une image d'une bombe au napalm d'un clip de jeu vidéo démystifié par l'un des partenaires de vérification des faits de Facebook.

< p>« Suite au fil d'actualités de cet utilisateur de test, j'ai vu plus d'images de personnes décédées au cours des trois dernières semaines que j'en ai vu au cours de toute ma vie », a écrit le chercheur.

Cela a suscité de profondes inquiétudes quant à ce qu'un tel contenu de division pourrait entraîner dans le monde réel, où les nouvelles locales de l'époque rapportaient que les Cachemiriens étaient attaqués lors des retombées.

“Devrions-nous, en tant qu'entreprise, avoir une responsabilité supplémentaire dans la prévention des atteintes à l'intégrité résultant du contenu recommandé ?” a demandé le chercheur dans sa conclusion.

La note, diffusée avec d'autres employés, ne répondait pas à cette question. Mais cela a révélé comment les propres algorithmes ou paramètres par défaut de la plate-forme ont joué un rôle dans la stimulation de ce mécontentement. L'employé a noté qu'il y avait des « angles morts » clairs ; en particulier dans le “contenu en langue locale.” Ils ont dit qu'ils espéraient que ces découvertes lanceraient des conversations sur la façon d'éviter de tels « atteintes à l'intégrité » ; surtout pour ceux qui « diffèrent considérablement » de l'utilisateur américain typique.

Même si la recherche a été menée pendant trois semaines qui n'étaient pas une représentation moyenne, ils ont reconnu qu'elle montrait à quel point une telle “non modérée” et le contenu problématique “pourrait totalement prendre le dessus” pendant “un événement de crise majeur.”

Le porte-parole de Facebook a déclaré que l'étude de test « inspirait une analyse plus approfondie et plus rigoureuse » ; de ses systèmes de recommandation et « contribué aux modifications apportées aux produits pour les améliorer.

« Séparément, notre travail sur la lutte contre le discours de haine se poursuit et nous avons encore renforcé nos classificateurs de haine, pour inclure quatre langues indiennes,” a déclaré le porte-parole.

📣 L'Indian Express est maintenant sur Telegram. Cliquez ici pour rejoindre notre chaîne (@indianexpress) et rester à jour avec les derniers titres

Pour toutes les dernières nouvelles de l'Inde, téléchargez l'application Indian Express.

  • Le site Web d'Indian Express a été classé GREEN pour sa crédibilité et sa fiabilité par Newsguard, un service mondial qui évalue les sources d'information en fonction de leurs normes journalistiques.