Les ordinateurs évoluent constamment. Mais la façon dont nous les utilisons a peu évolué, jusqu’à maintenant. Cependant, grâce à l’intelligence artificielle, on pourrait, d’ici quelques années, interagir avec nos PC d’une manière complètement différente. C’est, en tout cas, la vision qu’expose Pavan Davuluri, le patron de l’activité Windows chez Microsoft, dans une interview.
“Je pense que nous verrons l’informatique devenir plus ambiante, plus omniprésente, continuer à couvrir les facteurs de forme, et certainement devenir plus multimodale au fil du temps […] Fondamentalement, le concept selon lequel votre ordinateur peut regarder votre écran et est conscient du contexte va devenir une modalité importante pour nous à l’avenir”, a-t-il indiqué. Celui-ci ajoute qu’on sera en mesure de parler avec l’ordinateur lorsqu’on écrit, lorsqu’on écrit, lorsqu’on interagit avec quelqu’un d’autre.
En résumé, le patron de Windows suggère que, grâce à une IA qui est capable d’analyser le contexte et de comprendre nos intentions, on utilisera moins nos mains (et plus notre voix) pour interagir avec les ordinateurs. Celui-ci y voit également une amélioration d’accessibilité pour les personnes qui ont des difficultés à utiliser une souris et un clavier.
Meta imagine des ordinateurs contrôlés par un bracelet
Tout en continuant à travailler sur son assistant d’intelligence artificielle, qu’on peut contrôler avec la voix, le groupe Meta a imaginé une autre façon de contrôler les machines. À la place de la souris et du clavier, la société de Mark Zuckerberg propose une nouvelle technologie basée sur l’électromyographie. Pour ses futures lunettes de réalité augmentée, Meta a développé un bracelet qui est capable de détecter les signaux des nerfs, grâce à des capteurs, afin de convertir ces signaux en commandes pour une machine.
Résultat : il est possible d’interagir avec un système d’exploitation avec de petits gestes de la main. “Vous pouvez taper et envoyer des messages sans clavier, naviguer dans un menu sans souris et voir le monde qui vous entoure lorsque vous vous engagez dans un contenu numérique sans avoir à regarder votre téléphone”, a indiqué Meta, dans un billet de blog qui présente ces travaux.
We’re thrilled to see our advanced ML models and EMG hardware — that transform neural signals controlling muscles at the wrist into commands that seamlessly drive computer interactions — appearing in the latest edition of @Nature.
Read the story: https://t.co/7G8qAdnGbh
Find… pic.twitter.com/nEeihClnjv
— AI at Meta (@AIatMeta) July 23, 2025
“À terme, le sEMG pourrait révolutionner la manière dont nous interagissons avec nos appareils, aider les personnes souffrant de handicaps moteurs à gagner en autonomie tout en améliorant leur qualité de vie, et ouvrir de nouvelles possibilités pour l’IHM (interaction humain-machine, ndlr) dont nous n’avons même pas encore rêvé”, explique également le groupe.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.