Passer au contenu

Apple présente de nouvelles fonctionnalités d’accessibilité

Apple annonce de nouvelles fonctionnalités d’accessibilité pour les personnes souffrant de troubles de la mobilité, de la vision, de l’audition et de la cognition.

Alors que Google lance la beta d’Android 12 à l’occasion de sa conférence I/O, Apple, se son côté, vient de lever le voile sur le une multitude de nouvelles fonctionnalités d’accessibilité. Celles-ci sont destinées à faciliter l’accès aux nouvelles technologies pour les personnes souffrant de troubles de la mobilité, de la vision, de l’audition et de la cognition, et s’ajoutent aux fonctions d’accessibilité déjà existantes sur les produits de la firme de Cupertino.

Utiliser l’Apple Watch et d’iPad sans toucher l’écran, c’est possible

Parmi les nouveautés d’Apple, il y a deux nouvelles fonctionnalités qui permettront aux personnes handicapées d’utiliser une Apple Watch et ou iPad sans avoir à toucher l’écran tactile. Sur l’Apple Watch, la firme de Cupertino a développé AssistiveTouch pour WatchOS.

Grâce aux capteurs de mouvement, le capteur de rythme cardiaque et de l’intelligence artificielle, l’Apple Watch est capable de détecter les petits mouvements des muscles et des tendons, et donc d’interpréter les gestes de la main. Résultat, l’utilisateur peut naviguer sur l’Apple Watch via des gestes comme une pincée ou un serrement.


Pour l’iPad, Apple annonce qu’il va prendre en charge les appareils de suivi oculaire tiers. Grâce à ces accessoires, les utilisateurs de l’iPad pourront naviguer sur la tablette en utilisant uniquement leurs yeux (le pointeur se déplace en suivant le regard).

Des fonctionnalités pour les personnes avec des troubles de la vision et de l’audition

Pour les personnes souffrant de troubles de la vision, Apple propose une nouvelle fonctionnalité qui permettra une meilleure exploration des images. « S’appuyant sur les mises à jour récentes qui ont apporté des descriptions d’images à VoiceOver, les utilisateurs peuvent désormais explorer encore plus de détails sur les personnes, le texte, les données de table et d’autres objets dans les images. Les utilisateurs peuvent parcourir une photo d’un reçu comme un tableau: par ligne et colonne, avec en-têtes de tableau. VoiceOver peut également décrire la position d’une personne avec d’autres objets dans les images. Ainsi, les utilisateurs peuvent revivre leurs souvenirs en détail, et avec Markup, les utilisateurs peuvent ajouter leurs propres descriptions d’images pour personnaliser les photos de famille », explique la firme de Cupertino.

Et pour les personnes souffrant de troubles de l’audition, Apple annonce que le programme MFi prendra en charge de nouvelles aides auditives bidirectionnelles. « Les microphones de ces nouvelles aides auditives permettent aux sourds ou malentendants d’avoir des conversations téléphoniques mains libres et FaceTime. Les modèles de nouvelle génération des partenaires MFi seront disponibles plus tard cette année », indique Apple.

De plus, le système d’exploitation iOS prendra bientôt en charge les audiogrammes. En substance, après un test d’audition, l’utilisateur pourra importer le résultat de ce test et obtenir un paramétrage de l’audio adapté à ces résultats.

Et enfin, iOS proposera également des « bruits de fonds ». Comme l’explique la firme : « Les sons de tous les jours peuvent être distrayants, inconfortables ou accablants, et pour soutenir la neurodiversité, Apple introduit de nouveaux sons de fond pour aider à minimiser les distractions et aider les utilisateurs à se concentrer, à rester calmes ou à se reposer. Des bruits équilibrés, lumineux ou sombres, ainsi que des sons d’océan, de pluie ou de flux sont diffusés en continu en arrière-plan pour masquer les bruits environnementaux ou externes indésirables, et les sons se mélangent ou se réduisent sous d’autres sons audio et système. »

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech