Apple Intelligence. Gemini Intelligence. Google n’a pas cherché très loin, et c’est sans doute voulu. En reprenant quasiment mot pour mot le nom de l’IA d’Apple, Google envoie un message fort : ce que Cupertino a promis depuis un an, Mountain View est en train de le livrer, en mieux, et pour tout l’écosystème Android.
Plus qu’une simple guerre de noms, Google envoie ici une déclaration d’intention sur ce que doit être un smartphone en 2026 : fini le simple écran sur lequel vous naviguez d’app en app, l’ère est venue d’utiliser un appareil qui comprend ce que vous voulez, et qui s’en occupe à votre place.
Ce que Gemini Intelligence sait faire
La promesse centrale réside dans l’automatisation en plusieurs étapes. Vous dites à Gemini que vous voulez organiser un dîner vendredi soir pour six personnes : il cherche un restaurant, vérifie les disponibilités, réserve, et vous envoie une notification quand c’est fait. Vous, pendant ce temps, vous faites autre chose.
Concrètement, Google s’appuie sur deux approches complémentaires. La première est AppFunctions, un nouveau framework destiné aux développeurs : il leur permet d’exposer des fonctions spécifiques de leur application directement à l’agent Gemini, de façon structurée et maîtrisée. La Samsung Gallery sur Galaxy S26 en est déjà un exemple : demandez à Gemini de vous montrer les photos de votre chat, il les trouve et les affiche sans que vous n’ouvriez jamais l’application.
La deuxième approche est plus abrupte puisqu’elle automatise toute l’interface de l’utilisateur. Pour les apps qui n’ont pas encore intégré AppFunctions, Gemini peut tout de même agir en simulant les interactions humaines à l’écran (appuyer sur des boutons, remplir des champs, naviguer dans des menus). C’est ce qui permet à l’IA de fonctionner sur n’importe quelle application, sans attendre que son développeur ait fait le travail d’intégration.
Google a travaillé pendant des mois avec les apps de livraison de repas et de VTC pour rôder ces usages. La vision à terme est plus large : retrouver une information dans Gmail, préparer un achat, enchaîner des actions sur plusieurs services en une seule intention formulée.
Au-delà de l’automatisation, Gemini Intelligence embarque Rambler, une nouvelle fonction qui s’attaque à l’un des défauts les plus agaçants de la dictée vocale : nous ne parlons pas comme nous écrivons. Plutôt que d’exiger une formulation impeccable dès le départ, Rambler capte une parole naturelle (avec ses hésitations, ses reprises, ses approximations), en extrait l’essentiel, et le reformule en texte propre et cohérent. La prise en charge multilingue fonctionne au sein d’un même message. Les managers toxiques amateurs d’anglicissismes apprécieront.
C’est discret, mais c’est peut-être la fonctionnalité qui changera le plus les habitudes quotidiennes.
Qui est concerné, et quand ?
Pour l’instant, la réalité est bien loin des promesses. Mais au moins, Google se montre transparente, elle. Le déploiement de Gemini Intelligence commencera cet été sur les Samsung Galaxy S26 et les Google Pixel 10, uniquement aux États-Unis et en Corée du Sud, avec un périmètre d’applications volontairement restreint à trois catégories : livraison de repas, courses, VTC.
C’est Android 17, attendu autour de la rentrée 2026, d’abord sur les Pixel, qui doit marquer le vrai point de bascule, en ouvrant ces capacités à l’ensemble des fabricants et des développeurs. L’interface évolue elle aussi avec Material 3 Expressive, un nouveau langage visuel conçu pour signaler discrètement quand Gemini est actif et réduire les distractions.
Reste la question qui fâche. Souhaitons-nous laisser une IA naviguer librement dans nos applications ? Pour nous rassurer, Google a soigné sa communication sur ce point : les actions sensibles (un achat, une confirmation finale) requièrent toujours une validation explicite de l’utilisateur. Le traitement se fait sur l’appareil, pas sur un serveur distant. Enfin, l’utilisateur peut suivre en temps réel ce que Gemini est en train de faire, et reprendre la main à tout moment.
D’ailleurs, histoire de bien se protéger de toute responsabilité, Google a intégré un petit message dans le code de l’application : « vous êtes responsable de ce qu’il fait en votre nom. Surveillez-le attentivement. ». Compte sur nous Google !
- Gemini Intelligence est un agent IA natif à Android, capable d’agir dans vos apps sans que vous les ouvriez
- Son déploiement est attendu cet été sur les Galaxy S26 et Pixel 10, d’abord aux États-Unis et en Corée du Sud
- Gemini Intelligence sera ensuite intégré à Android 17, attendu pour la rentrée 2026
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
