'Borderline' problematisk innhold raskere, glir under radaren: Facebook-memo

Viewport-visninger er en Facebook-beregning for å måle hvor ofte innholdet faktisk blir sett av brukere. (Representativt)

Så mye som 40 prosent av “borderline-innhold” som ble ignorert av Facebooks kontraktsmessige moderatorer var problematisk og inkluderte “nakenhet”, “vold” og “hat”, ifølge et internt notat 15. april 2019 fra selskapet for sosiale medier.

Facebook definerer “grenselinjeinnhold” som det som “ikke bryter fellesskapsstandardene, men som er identifiserbart problematisk i et område som dekkes av CS (fellesskapsstandarden)”.

Enda viktigere er at slikt innhold genererte 10 ganger visningsporten. visninger (VPVs) enn innlegg som ble flagget som direkte brudd på plattformens retningslinjer, viste dokumentet. Viewport-visninger er en Facebook-beregning for å måle hvor ofte innholdet faktisk blir sett av brukere.

https: innhold “får mer interaksjon enn godartede” innlegg, og hadde en tendens til å få “høyere distribusjon” – noe som betyr at det nådde flere Facebook-brukere – og understreket “behovet for intervensjon for å motvirke perverst insentiv”.

Disse interne funnene kommer nesten et år etter at Meta Platforms Incs administrerende direktør Mark Zuckerberg — Facebook ble omdøpt til Meta 28. oktober i år — hadde i 2018 delt et detaljert notat om hvordan plattformen planla å filtrere og degradere grenselinjeinnhold. Meta hevder også å ha økt antall timer de brukte på å redusere inflammatorisk tale på sosiale medieplattformer.

På spørsmål om konflikten mellom det høye engasjementsnivået av grenseinnhold og behovet for å fjerne slikt innhold, sa en Meta-talsperson: «Vi trener AI-systemer til å oppdage grenseinnhold slik at vi kan distribuere innholdet mindre. For å redusere risikoen for at problematisk innhold blir viralt og potensielt oppfordrer til vold før eller under valget, vil vi redusere distribusjonen av innhold som vår proaktive gjenkjenningsteknologi identifiserer som sannsynlig hatefulle ytringer eller vold og hets. Dette innholdet vil bli fjernet hvis det er fastslått å bryte retningslinjene våre, men distribusjonen vil forbli redusert inntil den avgjørelsen er tatt.”

Redaksjonelt |Facebook-aviser avslører selskapets ignorering av sosiale konsekvenser av feilinformasjon i ikke-vestlige markeder

«I henhold til våre eksisterende fellesskapsstandarder fjerner vi visse sladder som vi mener er hatefulle ytringer. For å utfylle denne innsatsen kan vi bruke teknologi for å identifisere nye ord og uttrykk assosiert med hatefulle ytringer, og enten fjerne innlegg med det språket eller redusere distribusjonen, sa talspersonen.

Disse interne rapportene er en del av dokumenter som er avslørt til United States Securities and Exchange Commission (SEC) og levert til Kongressen i redigert form av den juridiske rådgiveren til tidligere Facebook-ansatt og varsler Frances Haugen. De redigerte versjonene mottatt av Kongressen har blitt gjennomgått av et konsortium av globale nyhetsorganisasjoner, inkludert The Indian Express.

Et annet sett med interne dokumenter,  med tittelen “Communal Conflict in India,” fant imidlertid ut at da hatefulle ytringer-innhold på hindi og bengali økte i mars 2020, har Facebooks “handlingsrate på dette (bengalske) innholdet falt nesten fullstendig siden mars (2020), drevet av lavere handlingsrate midt i en økning i rapporteringsrater», selv om handlingen som ble tatt for innlegg på engelsk steg kraftig.

«Siden juni 2019 har aksjonert hatinnhold per daglige aktive brukere i India økt betydelig, spesielt for engelsk innhold, som er fire ganger høyere i dag enn 1. juni 2019. Den engelske økningen er drevet av høyere tiltaksrater, ikke rapporter», viste den interne rapporten.

Selskapets talsperson sa: “Vår proaktive oppdagelsesrate rundt hatytringer fortsetter å være over 97 %, noe som betyr at nesten 97 % av hatytringinnholdet vi fjerner, oppdager vi det proaktivt, selv før noen rapporterer det. I dette tilfellet blander du rapportert innhold fra brukere med innhold som fanges opp av klassifisererne våre (AI-teknologi). Lave handlingsrater på rapportert innhold kan være av ulike årsaker, vi forklarer dem også i vår månedlige rapport.»

< br /> Noen grunner som forklarer den lave handlingsfrekvensen inkluderer at det rapporterte innholdet ikke bryter noen av selskapets retningslinjer; reporteren gir ikke nok informasjon til å finne innholdet de prøver å rapportere; selskapets retningslinjer som ikke tillater det å ta noen handling på rapportert innhold; og reporteren “skriver til oss angående en tvist mellom dem selv og en tredjepart som Facebook ikke er i stand til å dømme”, sa talspersonen.

Indian Express hadde tidligere denne uken rapportert at flere interne Facebook-rapporter i løpet av de siste to årene hadde rødflagget en økning i “antiminoritets” og “antimuslimsk” retorikk som “en vesentlig del” av Lok Sabha i 2019 valgkamp.

📣 Indian Express er nå på Telegram. Klikk her for å bli med i kanalen vår (@indianexpress) og hold deg oppdatert med de siste overskriftene

For alle de siste India-nyhetene, last ned Indian Express-appen.

  • Indian Express-nettstedet har blitt vurdert GREEN for sin troverdighet og pålitelighet av Newsguard, en global tjeneste som vurderer nyhetskilder for deres journalistiske standarder.

© The Indian Express (P ) Ltd


Posted

in

by

Tags: