Passer au contenu

Les iPhone pourront flouter automatiquement les photos de nu dès iOS 15.2

Après la polémique, Apple s’apprête à lancer le floutage des photos de nu sur iPhone. La fonctionnalité sera néanmoins restreinte aux iPhone de mineurs gérés par contrôle parental.

Apple est sur le point de lancer iOS 15.2, la prochaine grosse mise à jour du système d’exploitation des iPhone. Et, alors que le système est actuellement en bêta, on en apprend davantage sur les fonctionnalités qui arrivent avec cette nouvelle version. Parmi les nouveautés, on a notamment un nouveau bouton dans l’application de prise de photos qui désactive le déclenchement intempestif de la lentille macro lorsque vous vous approchez d’un objet (iPhone 13).

Un nouveau rapport vie privée personnalisé arrive, avec la liste des données personnelles comme la localisation, la caméra et le microphone auxquelles ont eu accès vos applications. Il y a aussi une nouvelle fonction pour cacher votre email si vous êtes abonnés iCloud. Et vous pourrez désormais désigner un “légataire numérique” qui pourra gérer votre compte après votre mort.

Apple a finalement décidé d’édulcorer son système de détection des photos de nu

L’application TV va subir un léger redesign, tandis que CarPlay se dote de cartes plus riches comme sur les autres plateformes. Par ailleurs, dans certains marchés, iOS 15.2 sonne l’arrivée de la nouvelle offre d’abonnement Apple Music à moins de 5 dollars par mois, que vous ne pourrez utiliser que via des commandes Siri. Côté notifications, là aussi, il y a un peu de changement esthétique pour mieux prioriser les infos qui comptent.

Mais la grosse nouveauté qui fait le plus parler est sans conteste le floutage automatisé des photos de nus dans iMessage. A l’origine, Apple souhaitait par défaut scanner toutes les photos uploadées sur iCloud à la recherche d’images pédopornographiques. Les personnes qui détiendraient plus de 30 images signalées comme pédopornographiques par le systèmes auraient été signalés à Apple qui aurait pu prendre des mesures. Comme contacter les autorités.

Néanmoins, l’approche a rapidement été jugée trop invasive, et Apple a préféré faire machine arrière. Dans iOS 15.2, ce n’est donc qu’une version très édulcorée de cette approche qui fait son entrée. En effet, il ne s’agit désormais plus que de flouter les images de nu uniquement sur les smartphones détenus par des enfants et gérés via le contrôle parental. Les parents devront spécifiquement activer la fonctionnalité qui restera désactivée par défaut.

Le système fonctionne de la sorte : les iPhone, iPad et Mac détenus par des enfants et gérés via le contrôle parental analyseront automatiquement les messages entrants et sortants pour détecter la nudité. Si le système trouve une photo de nu, l’image sera floutée, et l’enfant sera averti avant de pouvoir la voir.

Lire aussi – Désormais, l’iPhone peut aussi remplacer les clés d’hôtel

A chaque fois, l’appareil présentera des options pour aider l’enfant à contacter ses parents. Que pensez-vous de cette fonctionnalité ? Partagez votre avis dans les commentaires.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

1 commentaire
1 commentaire
  1. Et ce matin sur france 2 dans telematin , le journaliste tech qui nous présentait une I.A qui défloutait les images .
    LOL , l’arnaque d’apple .

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *