Gerucht: ‘Apple ontwikkelt tool om kindermisbruik te herkennen in foto’s van gebruikers’

0
159

Apple gebruikt in de Foto’s-app de machine learning-mogelijkheden van de iPhone en iPad om onderwerpen in foto’s te herkennen. Je kan daardoor makkelijk zoeken naar bepaalde foto’s in je bibliotheek, bijvoorbeeld foto’s van dieren of landschapsfoto’s. Beveiligingsexpert Matthew Green zegt van meerdere onafhankelijke bronnen vernomen hebben dat Apple’s volgende stap is het invoeren van CSAM-scanning. CSAM staat voor Child Sexual Abuse Material en scant foto’s op mogelijk kindermisbruik.

‘Apple gaat je foto’s scannen op kindermisbruik’

Een dergelijke tool geeft Apple dus de mogelijkheid om je foto’s te scannen en te checken op specifieke punten die mogelijk wijzen op foto’s met kindermisbruik. Hoewel de exacte details nog niet duidelijk zijn, kunnen dergelijke foto’s bij herkenning van meerdere van die specifieke punten verstuurd worden naar de servers van Apple, zodat deze handmatig gecheckt kunnen worden. Apple zou dit dus gebruiken voor foto’s die in de cloud opgeslagen staan, dus in het geval van Apple in iCloud-fotobibliotheek.

De iCloud-fotobibliotheek is niet end-to-end versleuteld, net als veel andere soortgelijke clouddiensten voor foto-opslag. Er zit wel encryptie op, maar de sleutel om de beveiliging te ontgrendelen is ook in handen van Apple. Dit doet Apple op verzoek van overheden, die op deze manier gegevens kunnen opvragen als daar aanleiding voor is.

Het invoeren van CSAM-scanning kan zorgen voor privacybezwaren, ook omdat een dergelijk systeem fouten kan maken onschuldige foto’s onterecht aanziet voor foto’s met kindermisbruik. Het systeem kan daardoor misbruikt worden om ook andere foto’s te analyseren. Zeker als overheden gebruik gaan maken van dergelijke middelen en eisen dat ook andere partijen dit in gaan voeren.

Apple verzet zich tegen achterdeurtjes
Apple heeft zich jarenlang verzet tegen achterdeurtjes in de beveiliging. Chatdiensten als iMessage en WhatsApp zijn end-to-end versleuteld, waardoor bijvoorbeeld overheden niet zomaar kunnen meelezen. Overheden zien daardoor liever dat bedrijven als Apple tools aan de beveiliging toevoegen zodat rechtmatige personen toch kunnen meekijken, mocht daar aanleiding voor zijn. Maar het nadeel is dat dergelijke systemen ook misbruikt kunnen worden. Als dit in verkeerde handen valt, kan dat grote privacygevolgen hebben.

Het is niet duidelijk hoe en wanneer Apple het gebruik van CSAM-scanning gaat aankondigen. Volgens de beveiligingsexpert zou Apple dit morgen gaan vrijgeven. De vraag is of Apple dit ook publiekelijk gaat aankondigen.