< p>Apple heeft onlangs een groot aantal kinderbeveiligingsfuncties voor iOS 15 aangekondigd, waaronder een tool die uw iPhone automatisch controleert op materiaal voor seksueel misbruik van kinderen (of CSAM). Dergelijke tools worden vaak gebruikt in cloudopslag en berichtenservices, maar Apple's streven naar scannen op het apparaat leidde tot een grote terugval op sociale media en in de pers. Als gevolg hiervan stelt Apple alle nieuwe kinderbeveiligingsfuncties uit.
In een verklaring aan 9to5Mac zegt Apple dat het heeft besloten om de komende maanden extra tijd te nemen om input te verzamelen en verbeteringen aan te brengen. vanwege de nieuwe kinderveiligheidsfuncties, namelijk de CSAM-scanner. Het erkent dat “feedback van klanten, belangengroepen, onderzoekers en anderen” leidde tot deze verandering van plannen.
Toch beweert Apple dat zijn CSAM-scansysteem "is ontworpen met de privacy van de gebruiker in gedachten". Voordat uw foto's worden opgeslagen in iCloud, probeert uw iPhone ze te vergelijken met een database met CSAM-hashes die wordt geleverd door de NCMEC en andere kinderveiligheidsorganisaties. Overeenkomende afbeeldingen worden vervolgens opgeslagen in iCloud met een “veiligheidsvoucher,” eigenlijk een onzichtbare vlag die alleen Apple kan volgen.
Als uw iCloud-account meerdere CSAM-gematchte afbeeldingen bevat, zal Apple deze afbeeldingen handmatig beoordelen. Bevestigde beelden van seksueel misbruik van kinderen worden vervolgens gerapporteerd aan de NCMEC. Apple zegt dat dit systeem veiliger is dan scantechnologieën in de cloud, omdat afbeeldingen alleen zichtbaar zijn voor het bedrijf als ze worden gemarkeerd voordat ze je iPhone verlaten.