Cette année, les plateformes en ligne ont multiplié les annonces concernant la protection de l’enfance. Et Apple a voulu aller plus loin que les autres entreprises en développant une fonctionnalité prévue pour iCloud qui aurait permis à celui-ci de détecter les contenus pédopornographiques mis en ligne sur son service de stockage en ligne.
En substance, le mécanisme imaginé par Apple ne compare pas des photos. Celui-ci compare les hashes (une sorte d’empreinte numérique) des images des utilisateurs avec ceux d’images incluses dans des bases de données connues.
A priori, cela devait donc assurer une meilleure protection des enfants, sans compromettre la confidentialité des utilisateurs. Par ailleurs, ces scans devaient se faire en local, et non sur des serveurs.
« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », avait indiqué la firme de Cupertino.
Un projet critiqué par Edward Snowden
Mais si les intentions d’Apple étaient bonnes, le projet a soulevé de nombreuses inquiétudes. En effet, des experts craignent que ce système finisse par être détourné en outil de censure ou de surveillance de masse.
Dans une newsletter publiée au mois d’août, le lanceur d’alertes écrivait qu’en développant cette fonctionnalité, Apple a déclaré la guerre contre notre vie privée. En effet, une fois ce précédent créé, des gouvernements pourraient réclamer qu’Apple utilise le même dispositif pour chercher d’autres types de contenus. Et en ce qui concerne l’efficacité, Edward Snowden remarque qu’un pédophile n’aurait qu’a désactiver la synchronisation avec iCloud pour que ses photos ne soient pas scannées.
Des chercheurs de l’université de Pinceton avaient également évoqué leurs inquiétudes par rapport aux abus potentiels si Apple lançait cette fonctionnalité.
Apple a fait marche arrière et maintenant, la firme veut effacer les traces ?
Face à la pression, Apple a dû revoir ses plans. En septembre, la firme de Cupertino mettait en pause le déploiement de cette fonctionnalité contre la pédopornographie.
Et aujourd’hui, nous apprenons qu’Apple a décidé de faire disparaître tous les documents relatifs au projet de son site web. Comme l’explique le média The Verge, Apple a mis à jour la page web dédiée aux fonctionnalités de sécurité pour les enfants, en effaçant toutes les références à l’outil de détection des CSAM (aux États-Unis, c’est comme ça qu’on appelle ces contenus illégaux). Cette mise à jour aurait été faite entre le 10 et le 13 décembre.
Apple a-t-il décidé d’abandonner définitivement ce projet ? Il semblerait que non. En effet, bien que la firme semble vouloir nous faire oublier cette controverse, celle-ci affirme que sa position est toujours la même qu’au mois de septembre, lorsqu’elle a décidé de suspendre le déploiement.
« Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d’autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance critique », avait déclaré Apple en septembre.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.