AllInfo

3 ansattes notater flagget “polariserende” innhold, hatytringer i India, men Facebook sa at det ikke var et problem

Facebook hadde i oktober fortalt The Indian Express at de hadde investert betydelig i teknologi for å finne hatefulle ytringer på forskjellige språk, inkludert hindi og bengali.

FRA en «konstant bølge av polariserende nasjonalistisk innhold», til «falske eller uautentiske» meldinger, fra «feilinformasjon» til innhold som «nedvurderer» minoritetssamfunn, ble flere røde flagg angående virksomheten i India hevet internt på Facebook mellom 2018 og 2020.

Men, til tross for disse eksplisitte varslingene fra personalet med mandat til å påta seg tilsynsfunksjoner, fant et internt gjennomgangsmøte i 2019 med Chris Cox, daværende visepresident, Facebook, “forholdsvis lav forekomst av probleminnhold (hatfulle ytringer) , etc)” på plattformen.

To rapporter som flagget hatefulle ytringer og «probleminnhold» ble presentert i januar-februar 2019, måneder før Lok Sabha-valget.

https://images.indianexpress.com/2020/08/1×1.png

A tredje rapport, så sent som i august 2020, innrømmet at plattformens AI (kunstig intelligens)-verktøy ikke var i stand til å “identifisere folkespråk” og hadde derfor ikke klart å identifisere hatytringer eller problematisk innhold.

To rapporter som flagget hatytringer og “probleminnhold” ble presentert i januar-februar 2019 , måneder før Lok Sabha-valget.

Allikevel konkluderte referatet fra møtet med Cox: «Undersøkelsen forteller oss at folk generelt føler seg trygge. Eksperter forteller oss at landet er relativt stabilt.»

Disse skarpe gapene i responsen avsløres i dokumenter som er en del av avsløringene som er gitt til United States Securities and Exchange Commission (SEC) og gitt til den amerikanske kongressen i redigert form av den juridiske rådgiveren til tidligere Facebook-ansatt og varsler Frances Haugen.< /p> Frances Haugen, en tidligere Facebook-dataforsker som ble varsler, har gitt ut en serie dokumenter som avslørte at produktene til den sosiale nettverksgiganten skadet tenåringsjenters mentale helse. (AP)

De redigerte versjonene mottatt av den amerikanske kongressen har blitt gjennomgått av et konsortium av globale nyhetsorganisasjoner, inkludert The Indian Express.

Facebook svarte ikke på spørsmål fra The Indian Express om Cox sitt møte og disse interne notatene.

Gjennomgangsmøtene med Cox fant sted en måned før valgkommisjonen i India kunngjorde den syv-fasede planen for Lok Sabha-valget 11. april 2019.

Les |Wistleblower sier at Facebook satte profitt foran å tøyle hatefulle ytringer

Møtene med Cox, som sluttet i selskapet i mars samme år bare for å komme tilbake i juni 2020 som Chief Product Officer, påpekte imidlertid at den “store problemer i underregioner kan gå tapt på landnivå.”

Den første rapporten “Adversarial Harmful Networks: India Case Study” bemerket at så høyt som 40 prosent av samplet topp VPV (se portvisninger) innlegg i Vest-Bengal var enten falske eller uekte.

VPV- eller viewport-visninger er en Facebook-måling for å måle hvor ofte innholdet faktisk blir sett av brukere.

Den andre – en intern rapport – skrevet av en ansatt i februar 2019, er basert på funnene fra en test regnskap. En testkonto er en dummy-bruker uten venner opprettet av en Facebook-ansatt for å bedre forstå virkningen av ulike funksjoner på plattformen.

Denne rapporten bemerker at i løpet av bare tre uker hadde testbrukerens nyhetsfeed «blitt en nesten konstant byge av polariserende nasjonalistisk innhold, feilinformasjon og vold og gørr».

Testbrukeren fulgte bare med innholdet anbefalt av plattformens algoritme. Denne kontoen ble opprettet 4. februar, den ble ikke ‘lagt til’ noen venner, og nyhetsfeeden var “ganske tom”.

Les også |Facebook står overfor nytt antitrustsøksmål

I følge rapporten er ‘Watch’ og «Live»-faner er stort sett de eneste overflatene som har innhold når en bruker ikke er koblet til venner.

«Kvaliteten på dette innholdet er… ikke ideelt,” sa rapporten fra den ansatte, og la til at algoritmen ofte foreslo “en haug med mykkjerneporno” til brukeren.

I løpet av de neste to ukene, og spesielt etter terrorangrepet i Pulwama 14. februar , begynte algoritmen å foreslå grupper og sider som hovedsakelig dreide seg om politikk og militært innhold. Testbrukeren sa at han/hun hadde “sett flere bilder av døde mennesker de siste 3 ukene enn jeg har sett i hele mitt liv totalt”.

Som svar på et spesifikt spørsmål på grunnlag av konklusjoner presentert i gjennomgangsmøtet med Cox, sa en talsperson for Meta Platforms Inc: «Våre team har utviklet en bransjeledende prosess for å gjennomgå og prioritere hvilke land som har høyest risiko for offline skade og vold hver sjette måned. Vi tar disse avgjørelsene i tråd med FNs veiledende prinsipper for næringsliv og menneskerettigheter og etter en gjennomgang av samfunnsskader, hvor mye Facebooks produkter påvirker disse skadene og kritiske hendelsene på bakken.»

Facebook-gruppen ble omdøpt. 28. oktober som Meta Platforms Inc som samler ulike apper og teknologier under et nytt firmamerke.

Om funnene fra studien – som påpekte at mangel på hindi og bengalsk klassifisering førte til vold og oppfordrende innhold – ble tatt i betraktning før konklusjonene som ble presentert i gjennomgangen med Cox ble gjort, sa talspersonen: «Vi investerer i intern forskning for å proaktivt identifisere hvor vi kan forbedre oss – som blir et viktig innspill for å definere nye produktfunksjoner og våre retningslinjer på lang sikt. Vi hadde klassifiserere for hatefulle ytringer på hindi og bengali fra 2018. Klassifiserere for vold og hets på hindi og bengali kom først på nettet tidlig i 2021.

Spesielt på testbrukeranalysen, gjentok selskapets talsperson sin tidligere uttalelse og sa at “utforskningsinnsatsen til en hypotetisk testkonto inspirerte dypere, mer streng analyse av våre anbefalingssystemer, og bidro til produktendringer for å forbedre dem”. «Produktendringer fra påfølgende, mer streng forskning inkluderte ting som fjerning av grenseinnhold og borgerlige og politiske grupper fra våre anbefalingssystemer. Hver for seg fortsetter vårt arbeid med å dempe hatytringer, og vi har ytterligere styrket våre hatklassifiserere, til å inkludere 4 indiske språk,” la de til.

Facebook hadde i oktober fortalt The Indian Express at de hadde investert betydelig i teknologi for å finne hatytringer på forskjellige språk, inkludert hindi og bengali.

Les |Funn om hatytringer, feilinformasjon i India førte til dypere analyse, sier Facebook

«Som et resultat har vi redusert mengden hatytringer folk ser med det halve i år. I dag er den nede på 0,05 prosent. Hatytringer mot marginaliserte grupper, inkludert muslimer, øker globalt. Så vi forbedrer håndhevelsen og er forpliktet til å oppdatere retningslinjene våre etter hvert som hatytringer utvikler seg på nettet,» sa en Facebook-talsperson.

Men problemet med Facebooks algoritme og proprietære AI-verktøy er ikke i stand til å flagg hatefulle ytringer og problematisk innhold dukket opp i august 2020, da ansatte stilte spørsmål ved selskapets «investeringer og planer for India» for å forhindre hatefulle ytringer.

“Fra samtalen tidligere i dag ser det ut til at AI (kunstig intelligens) ikke er i stand til å identifisere folkespråk, og derfor lurer jeg på hvordan og når vi planlegger å takle det samme i vårt land? Det er tydelig at det vi har for øyeblikket ikke er nok, heter det i et annet internt notat.

Memoene er en del av en diskusjon mellom Facebook-ansatte og toppledere. De ansatte stilte spørsmål ved hvordan Facebook ikke hadde «selv grunnleggende nøkkelarbeidsdeteksjon satt opp for å fange opp» potensielle hatytringer.

Les også |Regjeringene må sjekke om Facebook virkelig skroter ansiktsgjenkjenning, sier varsleren

«Jeg synes det er utenkelig at vi ikke engang har grunnleggende nøkkelarbeidsdeteksjon satt opp for å fange opp denne typen ting. Tross alt kan vi ikke være stolte som et selskap hvis vi fortsetter å la slikt barbari blomstre på nettverket vårt,” sa en ansatt i diskusjonen.

Memoene avslører at ansatte også spurte hvordan plattformen planla å “tjene tilbake ” tilliten til kolleger fra minoritetsmiljøer, spesielt etter at en senior indisk Facebook-leder hadde på sin personlige Facebook-profil, delte et innlegg som mange følte seg «nedverdiget» som muslimer.

Meta-talspersonen sa imidlertid at påstanden om at Facebooks AI ikke var i stand til å identifisere folkespråk var feil. «Vi la til klassifiserere for hatytringer på hindi og bengali fra og med 2018. I tillegg har vi klassifiserere for hatytringer på tamil og urdu», sa de som svar på en forespørsel.

< strong>📣 Indian Express er nå på Telegram. Klikk her for å bli med i kanalen vår (@indianexpress) og hold deg oppdatert med de siste overskriftene

For alle de siste India-nyhetene, last ned Indian Express-appen.

Exit mobile version