Passer au contenu

Google veut traduire la langue des signes grâce à l’intelligence artificielle

Google travaille sur un logiciel permettant de traduire le langue des signes via une caméra. C’est la première fois qu’un outil de ce type est intégré à un smartphone.

Google poursuit ses efforts de recherche et développement (R&D) sur l’intelligence artificielle. Des fonctionnalités telles que Smart Compose ou le nouveau correcteur d’orthographe de Gmail utilisent une forme d’IA, et d’autres outils reposant sur le même principe devraient arriver à l’avenir.

C’est notamment le cas de la reconnaissance de la langue des signes. L’équipe de recherche en intelligence artificielle de Google développe actuellement un outil fonctionnant via un simple smartphone, qui permet de détecter les mains et d’en traduire leurs signes. Une fonctionnalité qui n’est pas nouvelle, mais pour laquelle ni SignAll, ni Kintrans (les logiciels développant un outil équivalent), n’ont pu passer de leur support sur ordinateur à l’intégration sur un simple smartphone.

Une intelligence artificielle basée sur plus de 30 000 images

Google a donc fait appel à un programme d’intelligence artificielle pour pouvoir arriver à développer un logiciel compétent et reconnaissant tous les types de mains dans toutes les positions.

La technologie a été configurée grâce à plus de 30 000 images de mains dans différentes poses et sous différents éclairages. Les développeurs ont sélectionné – à partir de cette base de données – 21 points de référence de la main, que le logiciel devra détecter. Ensuite, il suffira que le programme visualise le signe montré à la caméra, et le compare via l’intelligence artificielle à tous les autres signes de sa base de données.

Avec plusieurs millions de personnes utilisant la langue des signes comme moyen d’expression, les recherches de l’équipe de Google pourraient clairement se présenter d’utilité publique. Jusqu’à maintenant, la tâche restait complexe à mettre en place, tant la reconnaissance des signes sur une main peut être gênée par le fait que « les mains se touchent souvent ou se ferment et manquent de motifs de contraste élevé », relatait TechCrunch en s’appuyant sur un billet des chercheurs de Google participant au programme.

Google fait face à la difficile traduction de la langue des signes

La firme de Montain View a choisi de simplifier au plus le nombre de données utilisées pour comprendre un signe effectué. La raison se trouve dans la rapidité d’exécution des gestes, contraignant le logiciel à traiter un nombre d’informations important en un temps record.

En arrivant à faire migrer un logiciel auparavant disponible que sur des ordinateurs puissants, les équipes de Google ont déjà fait un bond en avant. Mais des limites se présenteront tout de même à eux. Il en reste en effet que la langue des signes s’exprime également avec les expressions du visage. Un point sur lequel le programme d’intelligence artificielle est encore incompétent.

Désormais, l’équipe de recherche devra donc agrandir la compréhension de son logiciel à ce challenge du visage couplé aux mains. Pour ce faire, le programme développé est d’ores et déjà disponible en open source. Cela pourra être utile pour inviter d’autres sociétés à travailler sur la technologie. Le choix « aboutira à une émergence de cas d’utilisation créatifs, stimulant de nouvelles applications et de nouvelles voies de recherche », confiait l’équipe sur son blog.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Youtube
Youtube
Par : Google LLC
4.3 / 5
158,6 M avis
3 commentaires
3 commentaires
  1. C’est beau de faire un article… Mais on dit langue des signes… Depuis le décret du 11 février 2005,la langue des signes est devenue une langue à part entière.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *