Passer au contenu

Apple scanne déjà les e-mails pour lutter contre la pédocriminalité

Apple utilise déjà, depuis 2019, un dispositif pour détecter les contenus illégaux partagés via e-mail.

Début aout, Apple a annoncé une nouvelle mesure contre la pédocriminalité. En substance, la firme de Cupertino va scanner les images qu’on envoie sur iCloud afin de détecter les contenus illégaux. Pour respecter la vie privée des utilisateurs, l’algorithme de détection d’Apple ne fonctionne pas sur ses serveurs, mais sur les appareils des utilisateurs.

Par ailleurs, cet algorithme ne compare pas des images, mais une des signatures électroniques appelées « hash ». Pour le moment, cette mesure n’est annoncée que pour les États-Unis. Le dispositif sera déployé sur iOS 15.

Malgré toutes les garanties évoquées par Apple pour respecter la vie privée des utilisateurs, tout en luttant contre la pédocriminalité, le nouveau dispositif est très critiqué. Pourtant, il est à noter que des outils similaires de détection de contenus illégaux sont déjà en place sur d’autres services en ligne.

Pour les e-mail, un dispositif similaire a déjà été mis en place par Apple

D’autre part, nous avons récemment appris qu’Apple « scanne » déjà les e-mails afin de détecter ce type de contenu illégal. C’est ce que nous apprenons via un article publié lundi par le site 9to5Mac. « Apple m’a confirmé qu’il scanne déjà iCloud Mail pour détecter les CSAM (ndlr, les contenus illégaux), et ce depuis 2019. Cependant, il n’a pas scanné les photos iCloud ou les sauvegardes iCloud », lit-on dans l’article.

Cela est d’ailleurs évoqué dans une ancienne version de la page d’Apple concernant la protection des enfants, que l’on peut retrouver grâce à une archive d’Internet Archive.

« Apple s’engage à protéger les enfants dans tout notre écosystème, où que nos produits soient utilisés, et nous continuons à soutenir l’innovation dans cet espace. Nous avons développé des protections robustes à tous les niveaux de notre plate-forme logicielle et tout au long de notre chaîne d’approvisionnement. Dans le cadre de cet engagement, Apple utilise la technologie de correspondance d’images pour aider à trouver et à signaler l’exploitation sexuelle d’enfants. Tout comme les filtres anti-spam dans les e-mails, nos systèmes utilisent des signatures électroniques pour détecter les soupçons d’exploitation d’enfants. Nous validons chaque match avec un examen individuel. Les comptes avec du contenu d’exploitation d’enfants enfreignent nos conditions générales de service, et tous les comptes que nous trouvons avec ce matériel seront désactivés », peut-on lire sur le document.

Il est néanmoins à noter que ce texte était publié sur le site américain d’Apple. Or, il est tout à fait possible qu’en fonction des lois, les mesures prises par Apple puissent être différentes dans chaque pays.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *