À l’instar d’Apple Google aide les développeurs à créer des expériences en réalité augmentée à la Pokémon Go sur les smartphones Android. Le logiciel, via lequel Google propose la réalité augmentée sur Android est appelé ARCore. Et cette semaine, la firme a présenté une amélioration importante pour ce logiciel : une nouvelle API appelée Depth API. En substance, cette nouvelle fonctionnalité permet aux développeurs d’avoir une carte des profondeurs ou des distances, ce qui permet de proposer des applications en réalité augmentée plus réalistes.
Une API qui donne plus de réalisme aux effets en réalité augmentée
Par exemple, grâce aux informations sur la profondeur ou sur la distance des surfaces, les applications peuvent afficher des objets virtuels qui se cachent et apparaissent derrière des éléments du monde réel. Snapchat fait partie des entreprises qui utilisent déjà la Depth API pour propose des effets AR sur son réseau social. L’animation ci-dessous nous donne un aperçu de ce qui devient possible grâce à la nouvelle fonctionnalité d’Android. Par ailleurs, les créateurs d’effets en réalité augmentée sur Snapchat peuvent désormais utiliser la nouvelle API pour créer des expériences plus réalistes.
TeamView Pilot utilise également la Depth API pour proposer un service d’assistance à distance via la réalité augmentée.
« Comme nous l’avons souligné l’année dernière, une capacité clé de l’API Depth est l’occlusion : la capacité des objets numériques à apparaître avec précision derrière des objets du monde réel. Cela donne l’impression que les objets se trouvent réellement dans votre espace, créant une expérience de réalité augmentée plus réaliste », explique Rajat Paharia, Product Lead. Cette nouvelle API est disponible sur les appareils qui utilisent la version 1.18 d’ARCore et celle-ci ne requiert d’une caméra RGB. Cependant, Google explique que l’expérience peut être meilleure sur les smartphones qui ont un capteur de profondeur, comme le capteur de temps de vol ou ToF que l’on trouve déjà sur un bon nombre d’appareils.
Sinon, on notera aussi que lors de la conférence WWDC, Apple a aussi lancé une nouvelle API appelée Depth API pour son écosystème. Cette API profite du scanner LiDAR du dernier iPad Pro pour fournir des données précises sur la profondeur.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.