Apple kommer enligt uppgift att skanna din iPhone efter bilder från barnmisshandel

Chikena/Shutterstock.com

Enligt trovärdiga rapporter planerar Apple att börja installera programvara på iPhones i USA som automatiskt skannar lokala foton efter bilder från övergrepp mot barn. Apple ska enligt uppgift endast skanna foton som laddats upp till iCloud med den här tekniken åtminstone till en början.

Uppdatering: Apple har bekräftat mycket av denna rapportering i ett detaljerat dokument.

Vad gör Apple?

Rapporterna om Apples planer härstammar från The Financial Times och Johns Hopkins University professor Matthew Green, båda generellt tillförlitliga källor. Naturligtvis, tills Apple bekräftar att så är fallet, finns det alltid en chans att detta inte händer. Enligt uppgift visade Apple för några amerikanska akademiker planen tidigare i veckan.

Enligt rapporterna kommer Apple att använda ett system som det kallar “ neuralMatch ” att skanna amerikanska iPhones efter bilder från övergrepp mot barn.

I huvudsak skulle ett automatiserat system varna ett team av mänskliga granskare om det tror att olagliga bilder upptäcks. Därifrån skulle en medlem i teamet granska bilderna och kontakta polisen.

Tekniskt sett är det här inget nytt molnbaserat fotolagringssystem och sociala nätverk gör redan denna typ av skanning. Skillnaden här är att Apple gör det på enhetsnivå. Enligt Matthew Green kommer den inledningsvis bara att skanna foton som laddats upp till iCloud, men den skulle utföra den skanningen på användarens telefon. “ Inledningsvis ” är nyckelordet där, eftersom det mycket väl kan användas för att skanna alla foton lokalt någon gång.

Annonsering

Detta ska göra systemet mindre invasivt, eftersom skanningen görs på telefon och skickas tillbaka bara om det finns en matchning, vilket betyder att inte varje foto du laddar upp är utsatt för främmande ögon.

Enligt dem på briefingen får varje foto som laddas upp till iCloud en “ säkerhetsbevis, ” säger om det är misstänkt eller inte. När en viss mängd bilder markeras som misstänkta kommer Apple att dekryptera dem och skicka dem till myndigheter om det finns något som rör missbruk av barn.

Hur kommer systemet att skilja på bilder från övergrepp mot barn och andra bilder? Enligt rapporten har den testats på 200 000 bilder av sexuella övergrepp som samlats in av det amerikanska ideella National Center for Missing and Exploited Children.

Bilder konverteras till en rad med siffror genom haschning och jämförs sedan med bilderna i databasen.

Efter att allt detta kommit fram vägrade Apple att kommentera Financial Times om vad som händer. Vi förutsätter dock att företaget arbetar med ett officiellt uttalande innan meddelandet om detta drag går ur spel.

Detta sätter ett farligt prejudikat

Vi behöver nog inte berätta hur läskigt det här kan vara. Människor som misshandlar barn bör fångas och straffas, men det är lätt att se hur något sådant kan användas för mycket mer invasiva ändamål.

Annonsering

Kommer liknande teknik att implementeras på andra plattformar, som Mac, Windows -datorer och Android -telefoner? Kan länder som Kina använda det för att upptäcka subversiva bilder på sina medborgare ’ telefoner? Om det blir allmänt accepterat, kan upphovsrättsindustrin använda det för att börja skanna efter piratkopierat innehåll om några år?

Och även om det fungerar som det annonseras: Kommer oskyldiga människor att fastna i korseld?

Förhoppningsvis är detta inte så oroväckande som det ser ut.

LÄS NÄSTA

  • & rsaquo; Så här stänger du av snaplayouter i Windows 11
  • & rsaquo; Här är hur du ser Samsungs uppackade Galaxy -evenemang den 11 augusti
  • & rsaquo; Så här konfigurerar du en community -server på Discord
  • & rsaquo; Att spara webbsidor som PDF -filer blir snabbare (om du använder Edge)
  • & rsaquo; Så beskär du foton på iPhone och iPad

Posted

in

by

Tags: