Apple va scanner les iPhones américains à la recherche d'images d'abus sexuels sur des enfants

0
151

Apple a implémenté cette base de données en utilisant une technologie appelée “NeuralHash”, conçue pour capturer également des images modifiées similaires aux originaux. Cette base de données sera stockée sur les iPhones. (Photo d'archive)

Apple a dévoilé son intention de scanner les iPhones américains à la recherche d'images d'abus sexuels sur des enfants, suscitant les applaudissements des groupes de protection de l'enfance, mais suscitant l'inquiétude de certains chercheurs en sécurité que le système pourrait être utilisé à mauvais escient, y compris par des gouvernements cherchant à surveiller leurs citoyens.

L'outil conçu pour détecter les images connues d'abus sexuels sur des enfants, appelé “neuralMatch,” numérisera les images avant qu'elles ne soient téléchargées sur iCloud. S'il trouve une correspondance, l'image sera examinée par un humain. Si la pédopornographie est confirmée, le compte de l'utilisateur sera désactivé et le Centre national pour les enfants disparus et exploités en sera informé.

Le système ne signalera pas les images qui ne figurent pas déjà dans l'enfant du centre. base de données sur la pornographie. Les parents qui prennent des photos innocentes d'un enfant dans le bain n'ont probablement pas à s'inquiéter. Mais les chercheurs disent que l'outil de correspondance _ qui ne « voit pas » de telles images, juste des “empreintes digitales” qui les représentent _ pourraient être utilisées à des fins plus néfastes.

https://images.indianexpress.com/2020/08/1×1.png

Matthew Green, l'un des meilleurs chercheurs en cryptographie à l'Université Johns Hopkins, a averti que le système pourrait être utilisé pour piéger des personnes innocentes en leur envoyant des images apparemment inoffensives conçues pour déclencher des correspondances pour la pornographie enfantine. Cela pourrait tromper l'algorithme d'Apple et alerter les forces de l'ordre. “Les chercheurs ont pu le faire assez facilement,” il a dit de la capacité de tromper de tels systèmes.

D'autres abus pourraient inclure la surveillance gouvernementale des dissidents ou des manifestants. “Que se passe-t-il lorsque le gouvernement chinois dit : `Voici une liste de fichiers que nous voulons que vous recherchiez,’“ demanda Vert. “Apple dit non ? J'espère qu'ils diront non, mais leur technologie ne dira pas non.

Des entreprises technologiques telles que Microsoft, Google, Facebook et d'autres partagent depuis des années les empreintes digitales d'abus sexuels connus sur des enfants. images. Apple les a utilisés pour analyser les fichiers utilisateur stockés dans son service iCloud, qui ne sont pas cryptés de manière aussi sécurisée que ses données sur l'appareil, à la recherche de pornographie enfantine.

Apple subit la pression du gouvernement depuis des années pour permettre une surveillance accrue des données cryptées. La mise en place des nouvelles mesures de sécurité a obligé Apple à effectuer un équilibre délicat entre la répression de l'exploitation des enfants tout en respectant son engagement de premier plan en faveur de la protection de la vie privée de ses utilisateurs.

L'informaticien qui a inventé il y a plus d'une décennie PhotoDNA, la technologie utilisée par les forces de l'ordre pour identifier la pornographie juvénile en ligne, a reconnu le potentiel d'abus du système Apple, mais a déclaré qu'il était de loin compensé par l'impératif de lutter contre les abus sexuels sur les enfants. .

“C'est possible ? Bien sûr. Mais est-ce quelque chose qui me préoccupe ? Non,” a déclaré Hany Farid, chercheur à l'Université de Californie à Berkeley, qui affirme que de nombreux autres programmes conçus pour protéger les appareils contre diverses menaces n'ont pas vu “ce type de mission rampante”. Par exemple, WhatsApp fournit aux utilisateurs un cryptage de bout en bout pour protéger leur vie privée, mais utilise également un système pour détecter les logiciels malveillants et avertir les utilisateurs de ne pas cliquer sur des liens nuisibles.

Apple a été l'un des premiers entreprises à adopter “de bout en bout” cryptage, dans lequel les messages sont cryptés afin que seuls leurs expéditeurs et destinataires puissent les lire. Cependant, les forces de l'ordre font depuis longtemps pression sur l'entreprise pour qu'elle accède à ces informations afin d'enquêter sur des crimes tels que le terrorisme ou l'exploitation sexuelle des enfants.

Apple a annoncé que les derniers changements seraient déployés cette année dans le cadre des mises à jour de son logiciel d'exploitation pour iPhone, Mac et montres Apple.

“La protection étendue d'Apple pour les enfants change la donne ,“ John Clark, président-directeur général du National Center for Missing and Exploited Children, a déclaré dans un communiqué. “Avec autant de personnes utilisant des produits Apple, ces nouvelles mesures de sécurité peuvent sauver la vie des enfants.”

Julia Cordua, PDG de Thorn, a déclaré que la technologie d'Apple concilie “le besoin de confidentialité avec la sécurité numérique pour les enfants.“ Thorn, une organisation à but non lucratif fondée par Demi Moore et Ashton Kutcher, utilise la technologie pour aider à protéger les enfants contre les abus sexuels en identifiant les victimes et en travaillant avec des plateformes technologiques.

Mais dans une critique fulgurante, le Center for Democracy and Technology, basé à Washington, a appelé Apple à abandonner les changements, qui, selon lui, détruisent effectivement la garantie de l'entreprise de “cryptage de bout en bout”. 8221 ; L'analyse des messages à la recherche de contenu sexuellement explicite sur des téléphones ou des ordinateurs brise efficacement la sécurité, a-t-il déclaré.

L'organisation a également remis en question la technologie d'Apple pour faire la différence entre un contenu dangereux et quelque chose d'aussi apprivoisé que l'art ou un mème. Ces technologies sont notoirement sujettes aux erreurs, a déclaré CDT dans un communiqué envoyé par courrier électronique. Apple nie que les modifications constituent une porte dérobée qui dégrade son cryptage. Il indique qu'il s'agit d'innovations soigneusement étudiées qui ne perturbent pas la vie privée des utilisateurs mais la protègent plutôt fortement.

Par ailleurs, Apple a déclaré que son application de messagerie utiliserait l'apprentissage automatique sur l'appareil pour identifier et brouiller les photos sexuellement explicites sur les enfants&# 8217;s et peut également avertir les parents de jeunes enfants par SMS. Il a également déclaré que son logiciel « interviendrait » lorsque les utilisateurs essaient de rechercher des sujets liés à l'abus sexuel d'enfants.

Afin de recevoir les avertissements concernant les images sexuellement explicites sur les appareils de leurs enfants, les parents devront inscrire le téléphone de leur enfant. Les enfants de plus de 13 ans peuvent se désinscrire, ce qui signifie que les parents d'adolescents ne recevront pas de notifications.

Apple a déclaré qu'aucune de ces fonctionnalités ne compromettrait la sécurité des communications privées ni n'informerait la police.

📣 L'Indian Express est maintenant sur Telegram. Cliquez ici pour rejoindre notre chaîne (@indianexpress) et rester à jour avec les derniers titres

Pour toutes les dernières nouvelles du monde, téléchargez l'application Indian Express.

  • Le site Web d'Indian Express a été classé GREEN pour sa crédibilité et sa fiabilité par Newsguard, un service mondial qui évalue les sources d'information en fonction de leurs normes journalistiques.