Apple stelt nieuwe veiligheidsfuncties voor kinderen uit na fotoscanschandaal

0
143
Justin Duino

< p>Apple heeft onlangs een groot aantal kinderbeveiligingsfuncties voor iOS 15 aangekondigd, waaronder een tool die uw iPhone automatisch controleert op materiaal voor seksueel misbruik van kinderen (of CSAM). Dergelijke tools worden vaak gebruikt in cloudopslag en berichtenservices, maar Apple's streven naar scannen op het apparaat leidde tot een grote terugval op sociale media en in de pers. Als gevolg hiervan stelt Apple alle nieuwe kinderbeveiligingsfuncties uit.

In een verklaring aan 9to5Mac zegt Apple dat het heeft besloten om de komende maanden extra tijd te nemen om input te verzamelen en verbeteringen aan te brengen. vanwege de nieuwe kinderveiligheidsfuncties, namelijk de CSAM-scanner. Het erkent dat “feedback van klanten, belangengroepen, onderzoekers en anderen” leidde tot deze verandering van plannen.

Toch beweert Apple dat zijn CSAM-scansysteem "is ontworpen met de privacy van de gebruiker in gedachten". Voordat uw foto's worden opgeslagen in iCloud, probeert uw iPhone ze te vergelijken met een database met CSAM-hashes die wordt geleverd door de NCMEC en andere kinderveiligheidsorganisaties. Overeenkomende afbeeldingen worden vervolgens opgeslagen in iCloud met een “veiligheidsvoucher,” eigenlijk een onzichtbare vlag die alleen Apple kan volgen.

Als uw iCloud-account meerdere CSAM-gematchte afbeeldingen bevat, zal Apple deze afbeeldingen handmatig beoordelen. Bevestigde beelden van seksueel misbruik van kinderen worden vervolgens gerapporteerd aan de NCMEC. Apple zegt dat dit systeem veiliger is dan scantechnologieën in de cloud, omdat afbeeldingen alleen zichtbaar zijn voor het bedrijf als ze worden gemarkeerd voordat ze je iPhone verlaten.

Een geplande veiligheidsfunctie voor kinderen verbergt mogelijk seksueel expliciete afbeeldingen voor kinderen in iMessage en waarschuwt ouders als dergelijke afbeeldingen worden geopend. Appel

Maar voorstanders van privacy zijn bang dat de CSAM-scanner van Apple valse positieven zal vangen, waardoor privé-afbeeldingen mogelijk worden blootgesteld aan vreemden of een achterdeur wordt geopend voor regeringen en kwaadwillenden. De technologie kan ook een slecht precedent scheppen voor de toekomst: zal Apple telefoons scannen op drugs of andere zaken die van belang kunnen zijn voor wetshandhavers?

We weten nog steeds niet hoe Apple plannen om “verbeteren” zijn CSAM-scanner. Maar om eerlijk te zijn, verwachtte het bedrijf in de eerste plaats waarschijnlijk geen terugslag. Grote namen als Google gebruiken al CSAM-technologie in hun cloud- en berichtenservices, en Apple scant zelf naar CSAM in iCloud Mail.

Ongeacht waar je staat, het is teleurstellend om te zien dat Apple een aantal van zijn nieuwe kindveiligheidstools, waaronder een Berichten-functie die kinderen waarschuwt om geen potentieel expliciete foto- of videobijlagen te openen (het weerhoudt kinderen er niet van om dergelijke bijlagen te openen, maar waarschuwt ouders als ze dat wel doen). Misschien komen deze functies met privacyverbeteringen een paar maanden na iOS 15, maar nogmaals, de plannen van Apple zijn erg onduidelijk.

Bron: Apple via 9to5Mac