Google n’allait pas laisser Apple lui gâcher la fête. Alors que son concurrent a, comme par hasard, annoncé la date de sa keynote WWDC25, Google a présenté sa vision du futur lors de sa traditionnelle Google I/O. Sans grande surprise, cette édition 2025 a fait la part belle à l’intelligence artificielle. Grande star de la soirée, elle a tout de même laissé un peu de place à la réalité augmentée. Retour sur toutes les annonces de Google.
L’intelligence artificielle, cœur battant de l’écosystème Google

Depuis plusieurs années maintenant, Google place l’intelligence artificielle (IA) au centre de sa stratégie. L’édition 2025 de la Google I/O confirme cette orientation, avec la généralisation de Gemini, le modèle d’IA multimodal natif, désormais intégré à l’ensemble de ses services phares. Plus de quinze produits Google, chacun utilisé par plus de 500 millions de personnes, bénéficient aujourd’hui des capacités de Gemini, qui devient le moteur de l’expérience utilisateur.
Grande nouveauté de 2025, Gemini 2.5 Flash, une version optimisée pour la rapidité et la qualité, s’impose désormais comme le modèle par défaut. À ses côtés, Gemini 2.5 Pro introduit Deep Think, un module de raisonnement avancé capable de traiter des tâches complexes en sciences, mathématiques et programmation. Cette évolution marque un tournant pour Google : l’IA n’est plus seulement un assistant, mais un véritable agent capable de comprendre, d’analyser et de résoudre des problèmes de haut niveau.
Veo 3, Imagen 4 et Flow : des outils créatifs 3.0
La création assistée par l’IA franchit aussi un nouveau cap avec le lancement de Veo 3 et Imagen 4, respectivement dédiés à la génération de vidéos et d’images. Grâce à la puissance de Gemini, ces outils permettent de produire des contenus multimédias d’une qualité inédite : ils ouvrent ainsi la voie à de nouveaux usages pour les créateurs, les communicants et les entreprises. Mais aussi et sûrement une baisse drastique d’emplois dans certains secteurs.
Google a aussi présenté Flow, un assistant à la création de scénarios et de contenus multimédias. Grâce à l’IA, il devient possible de concevoir des histoires, des présentations ou des campagnes publicitaires en quelques minutes, en s’appuyant sur des suggestions contextuelles et des ressources générées automatiquement.
Project Astra et Mariner : des agents super intelligents
Parmi les annonces les plus marquantes de cette édition figure Project Astra, une nouvelle génération d’assistants intelligents capables de comprendre et de répondre à des requêtes multimodales, combinant texte, images et voix. Désormais intégré à la recherche Google, Astra permet d’interagir en temps réel via la caméra du smartphone : il suffit de pointer un objet ou une scène pour obtenir des réponses contextualisées, des explications ou des recommandations.
Project Mariner, quant à lui, introduit des agents capables de réaliser jusqu’à dix tâches simultanées, de la recherche à la réservation en passant par les achats en ligne. Cette automatisation avancée, déjà intégrée au Mode IA de Google Search aux États-Unis, préfigure une nouvelle ère où l’IA prend en charge une part importante des tâches quotidiennes. L’objectif final de Google est de faire gagner du temps et de l’énergie pour se concentrer sur des activités à plus forte valeur ajoutée.
Google Beam et Android XR : la communication revue et corrigée

La communication à distance fait elle aussi sa petite révolution avec Google Beam, l’évolution du Project Starline. Cette plateforme de visioconférence 3D utilise l’IA pour transformer des flux vidéo 2D en expériences immersives afin de donner l’impression de partager le même espace que ses interlocuteurs. Les premiers appareils Google Beam, développés en partenariat avec HP, seront déployés cette année auprès de certains clients professionnels.
Parallèlement, Google poursuit le développement d’Android XR. Les nouvelles interfaces et démonstrations dévoilées lors de la conférence avec une paire de lunettes témoignent de la volonté de Google d’intégrer la réalité augmentée et virtuelle au cœur de l’écosystème Android. Un retour en force de ce format après l’échec des Google Glass il y a quelques années. Le format compact des lunettes avec un écran intégré ont impressionné l’audience. Google semble avoir trouvé la formule magique des lunettes du futur. On a hâte de voir la suite.
Android 16 : pour des smartphones dopés à l’IA

Android 16, la nouvelle version du système d’exploitation mobile de Google, introduit un nouveau design, une sécurité renforcée ainsi que de nouveaux outils de personnalisation. Le nouveau langage visuel Material 3 Expressive offre une interface plus dynamique et adaptable.
Mais c’est surtout l’intégration profonde de l’IA qui distingue Android 16. Les interfaces sont repensées pour exploiter pleinement les capacités de Gemini. L’expérience utilisateur se veut plus fluide, personnalisée et proactive. L’IA intervient désormais dans la gestion des notifications, la planification des tâches, la suggestion de contenus et même la protection de la vie privée, en adaptant les recommandations et les réponses en fonction des préférences et de l’historique de l’utilisateur.
Vers une expérience toujours plus personnalisée

Plus généralement, Google mise sur la personnalisation pour renforcer la pertinence de ses services. Avec l’accord de l’utilisateur, l’IA peut exploiter des données personnelles issues de la recherche, des e-mails ou du calendrier pour fournir des réponses et recommandations ultra-personnalisées. Par exemple, Gemini peut répondre à un email en reprenant votre ton, vos expressions favorites et même vos traits d’humour.
Bien qu’elle soulève des interrogations sur l’utilisation des données personnelles, cette nouveauté incarne les début d’une nouvelle ère. Celle d’une intelligence plus vraiment artificielle. Reste que pour le moment, elle n’est accessible, en grande partie, qu’en anglais pour les abonnés à Google AI Ultra, un service facturé 249 dollars par mois.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
