Passer au contenu

Comment des chercheurs français sont parvenus à pirater Google Now et Siri

En substance, ils ont injecté des signaux qui sont interprétés par le téléphone comme des commandes vocales pour l’assistant virtuel.

José Lopes Esteves et Chaouki Kasmi, deux chercheurs de l’ANSSI ou Agence nationale de la sécurité des systèmes d’information, font actuellement le buzz sur la presse techo anglophone, suite à la publication par le site Wired (qui a été relayé par de nombreux autres sites) d’un article sur l’une de leurs récentes recherches. Celle-ci a en effet mis en avant les risques encourus par les utilisateurs de smartphones à cause des assistants virtuels qui ont accès à de plus en plus de fonctionnalités et qui sont maintenant souvent activés par défaut par les constructeurs et les concepteurs des systèmes d’exploitation. Parfois, l’assistant virtuel peut même être utilisé lorsque le téléphone est verrouillé.

Bien entendu, José Lopes Esteves et Chaouki Kasmi sont des « gentils » hackers et leur but est principalement de mettre en avant certaines vulnérabilités au niveau des smartphones. Ceux-ci sont parvenus à injecter des commandes vocales sur des téléphones, à distance. Et selon l’article qui a été publié sur le site de l’ANSSI, le profil de l’attaquant requis pour cette attaque peut être considéré comme « compétent », et implique des équipements radiofréquences « grand public ».

Cela est possible si le téléphone est connecté à ses écouteurs puisque ceux-ci vont agir comme des antennes réceptrices qui vont capter les signaux injectés par l’attaquant.

De ce fait, si le téléphone a par exemple son assistant virtuel activé par défaut et en permanence, il suffit d’injecter une commande vocale. Si le téléphone requiert un mot clé comme « OK, Google » ou « Hey Siri », il suffit de générer ce mot clé. Et si l’activation de l’assistant virtuel requiert l’appui sur le bouton principal du casque, les chercheurs de l’ANSSI expliquent « qu’un signal modulé en fréquence permet d’induire dans le câble du microphone du casque un signal électrique équivalent à un appui sur le bouton voulu ».

En tout cas, une fois qu’il a accès à l’interface audio d’un téléphone, un attaquant peut y avoir un contrôle plus ou moins important, en fonction des privilèges dont l’assistant virtuel bénéficie au niveau du système d’exploitation. Il pourrait par exemple « forcer la victime à visiter une page web malicieuse qui exploite une vulnérabilité pour compromettre le système d’exploitation cible », comme l’expliquent les chercheurs. Le tout se fait en silence (vous n’entendez pas les ondes) et à une certaine distance de l’appareil (4 mètres, selon le site Wired).

Quelques précautions sont proposées par les deux chercheurs français, comme débrancher le casque lorsqu’il n’est pas utilisé, pour que celui-ci ne serve pas de récepteur et désactiver les commandes vocales lorsque celles-ci ne sont pas utilisées ou lorsque l’appareil est verrouillé.

Sinon, pour les constructeurs, José Lopes Esteves et Chaouki Kasmi ont aussi émis quelques suggestions afin de mieux protéger les appareils, comme ne pas donner d’accès à des fonctionnalités critiques aux commandes vocales, « réduire la sensibilité de l’interface d’entrée », utiliser des techniques qui reconnaîtraient les vraies commandes vocales qui sont prononcées par l’utilisateur et bien entendu mieux protéger les câbles des écouteurs contre ce type d’injection de commandes.

(Source)

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *