AllInfo

Förklaras: Hur Apple kommer att söka efter bilder för barnutnyttjande på enheter och varför det höjer ögonbrynen

I ett blogginlägg förklarade Apple att det kommer att använda kryptografiprogram via iOS och iPadOS för att matcha kända CSAM-bilder lagrade på iCloud Photo.

Apple har meddelat att programuppdateringar senare i år kommer med nya funktioner som “hjälper till att skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem och begränsa spridningen av material för sexuellt övergrepp mot barn. (CSAM). ” ul class = “pdsc-related-list”>

  • Hur Tokyos 7 medaljer skulle påverka den indiska sportens bana
  • Vad ' no-patrol ' zoner i östra Ladakh betyder
  • Hur Apple kommer att söka efter bilder för barnutnyttjande på enheter
  • Klicka här för mer

    Då kommer det att finnas ett skydd för barn från att skicka eller ta emot känsligt innehåll, med mekanismer för att varna föräldrar om användaren är under 13 år. Apple kommer också att ingripa när Siri eller Search används för att leta upp CSAM-relaterade ämnen.

    https://images.indianexpress.com 2020/08/1×1.png

    Vilken teknik gör Apple för att förhindra spridning av CSAM online?

    I ett blogginlägg förklarade Apple att det kommer att använda kryptografiprogram via iOS och iPadOS för att matcha kända CSAM -bilder lagrade på iCloud Photo. Tekniken matchar bilder på en användares iCloud med kända bilder från barnsäkerhetsorganisationer. Och detta görs utan att faktiskt se bilden och bara genom att leta efter det som liknar en fingeravtrycksmatch. Om det finns matcher som överskrider en tröskel kommer Apple att ”rapportera dessa fall till National Center for Missing and Exploited Children (NCMEC)”.

    Apple klargjorde att dess teknik håller användarnas integritet i åtanke, och därför omvandlas databasen till “en oläslig uppsättning hash som lagras säkert på användarnas enheter”. Det tillade att innan någon bild laddas upp till iCloud, kommer operativsystemet att matcha den mot de kända CSAM -hasharna med hjälp av en “kryptografisk teknik som kallas privat uppsättningskorsning”. Denna teknik kommer också att avgöra en matchning utan att avslöja resultatet.

    Vid denna tidpunkt skapar enheten en “kryptografisk säkerhetsbevis” med matchningsresultatet och ytterligare krypterad data och sparar den till iCloud med bilden. Tröskelhemlig delningsteknik säkerställer att dessa kuponger inte kan tolkas av Apple om inte iCloud Photos -kontot passerar en tröskel för känt CSAM -innehåll. Denna tröskel, hävdade bloggen, har införts för att “ge en extremt hög noggrannhet och garanterar mindre än en i en biljon chans per år att felaktigt flagga ett visst konto”. Så en enda bild är osannolikt att utlösa en varning.

    Men om tröskeln överskrids kan Apple tolka innehållet i säkerhetskupongerna och manuellt granska varje rapport för en matchning, inaktivera användarens konto och skicka en rapport till NCMEC. Apple sa att användarna kommer att kunna överklaga om de tror att de har flaggats felaktigt.

    Hur fungerar de andra funktionerna?

    Apples nya kommunikationssäkerhet för meddelanden suddar ut en känslig bild och varnar ett barn om innehållets art. Om det är aktiverat från backend kan barnet också få veta att deras föräldrar har larmats om meddelandet de har tittat på. Detsamma gäller om barnet bestämmer sig för att skicka ett känsligt meddelande. Apple sa att meddelanden kommer att använda “maskininlärning på enheten för att analysera bildbilagor och avgöra om ett foto är sexuellt explicit” och att Apple inte kommer att få åtkomst till meddelandena. Funktionen kommer som en uppdatering på konton som skapats som familjer i iCloud för de senaste operativsystemversionerna.
    Med uppdateringen, när en användare försöker leta upp potentiella CSAM -ämnen, kommer Siri och Search att förklara varför detta kan vara skadligt och problematiskt. Användare kommer också att få vägledning om hur de skickar en rapport om utnyttjande av barn om de ber om det.

    Också i Förklarade | Hur vissa människor kan låtsas att de bor på Mars i ett år

    Varför gör Apple det detta och vad är det för farhågor som väcks?

    Stora teknikföretag har i åratal varit pressade att slå ned på användningen av deras plattform för utnyttjande av barn. Många rapporter har under årens lopp betonat hur tillräckligt det inte gjordes för att hindra teknik från att göra CSAM -innehåll tillgängligt i större utsträckning.

    Apples tillkännagivande har emellertid mötts av kritik med många som understryker hur detta är exakt den typ av övervakningsteknik som många regeringar skulle vilja ha och älskar att missbruka. Det faktum att detta har kommit från Apple, som länge har varit integritetsvotare, har förvånat många.

    Krypteringsexperter som Matthew Green från Johns Hopkins University har också uttryckt farhågor för att systemet kan användas för att rama in oskyldiga människor som skickar dem bilder avsedda att utlösa matchningarna för CSAM. “Forskare har kunnat göra det ganska enkelt”, sa han till NPR och tillade att det är möjligt att lura sådana algoritmer.

    Men The New York Times citerade Apples chef för sekretess Erik Neuenschwander som sa att dessa funktioner kommer att betyder inte något annat för vanliga användare.

    “Om du lagrar en samling CSAM -material, ja, det är dåligt för dig”, sa han till publikationen.

    Nyhetsbrev | Klicka för att få dagens bästa förklaringar i din inkorg

    Har andra stora teknikföretag liknande teknik?

    Ja. Faktum är att Apple är en relativt sen aktör på plats eftersom Microsoft, Google och Facebook har varnat brottsbekämpande myndigheter om CSAM -bilder. Apple har halkat efter eftersom all sådan teknik skulle ha gått emot dess mycket omtalade engagemang för användarnas integritet. Som ett resultat, 2020, när Facebook rapporterade 20,3 miljoner CSAM -kränkningar till NCMEC, kunde Apple bara rapportera 265 fall, rapporterade The New York Times.

    Det är först nu som det har lyckats hitta teknik sweetspot att göra detta utan att påverka vanliga användare, eller åtminstone skrämma dem. Men som den första motreaktionen har visat är det fortfarande en linjär promenad.

    📣 Indian Express är nu på Telegram. Klicka här för att gå med i vår kanal (@indianexpress) och hålla dig uppdaterad med de senaste rubrikerna

    Ladda ner Indian Express -appen för alla de senaste förklarade nyheterna.

    © IE Online Media Services Pvt Ltd

    Exit mobile version