Les 20 et 21 mai 2025, à Mountain View, Google dévoilera sa stratégie pour dominer la nouvelle ère des lunettes XR. Face à Apple et Meta, le géant mise sur une fusion inédite entre une intelligence artificielle multimodale de pointe et une plateforme de réalité mixte ouverte. Cette approche intégrée, construite autour de Project Astra et d’Android XR en partenariat avec Samsung, s’engage à redéfinir l’expérience immersive et à s’imposer comme l’acteur majeur du spatial computing. Cette technologie, qui superpose des informations et des interfaces numériques au monde physique de manière intuitive, représente le prochain saut dans l’interaction homme-machine. Google s’apprête à en livrer les clés.
Project astra : l’ia multimodale au cœur de l’expérience xr
L’événement placera l’intelligence artificielle au cœur de toutes les démonstrations. Les capacités multimodales des modèles Gemini, notamment Gemini 2.5 Pro et Flash, seront mises en avant pour leur traitement simultané du texte, de l’image, du son et de la vidéo. Leur intégration dans Chrome et, surtout, dans les futures expériences de réalité mixte, cherche à créer un assistant contextuel omniprésent. C’est précisément le rôle de Project Astra, dont des démonstrations sur prototype de lunettes sont attendues. Elles montreront une reconnaissance visuelle en temps réel, une traduction instantanée de panneaux ou de conversations, et une assistance proactive basée sur ce que l’utilisateur voit et entend.
Parallèlement, Google officialisera très probablement Android XR. Cette nouvelle plateforme logicielle, basée sur Android mais entièrement optimisée pour la réalité mixte, est le fruit du projet « Moohan » mené avec Samsung. Elle s’efforce de fournir aux développeurs un socle solide pour créer des applications immersives et a pour objectif de concurrencer directement les écosystèmes d’Apple Vision Pro et de Meta Quest. L’intégration de Project Astra avec Gemini Live au sein de cet environnement promet une expérience de spatial computing fluide et conversationnelle. Google abordera également les améliorations en matière de sécurité, de confidentialité des données visuelles, et présentera des innovations logicielles comme un mode desktop pour la productivité.
La stratégie d’écosystème ouvert d’android xr
La réponse de Google repose sur une stratégie d’écosystème ouvert. Contrairement aux solutions relativement fermées d’Apple et Meta, Android XR s’appuie sur la force et l’étendue de l’écosystème Android. Cette approche tend à faciliter l’adoption par une multitude de développeurs et à garantir une compatibilité étendue, notamment avec les smartphones Pixel. Le partenariat matériel avec Samsung est l’autre pilier de cette offensive. Le casque de réalité mixte développé conjointement, dans le cadre du projet Moohan, bénéficiera de l’expertise hardware de Samsung et du logiciel Android XR de Google. Un lancement commercial est anticipé dès 2026.
Cette collaboration constitue une première étape vers une ambition plus large : des lunettes XR autonomes, plus légères et mobiles, qui intégreront directement Project Astra pour une IA embarquée avancée. L’enjeu concurrentiel est clair : rattraper puis dépasser les usages grand public et professionnels établis par Apple Vision Pro et Meta Quest. Google mise sur la puissance de son IA et l’ouverture de sa plateforme pour y parvenir.
La fusion décisive de l’ia et de la réalité augmentée
Project Astra, développé par Google DeepMind, est bien plus qu’un simple assistant vocal. C’est un système multimodal capable de traiter et de croiser en temps réel les flux visuels, auditifs et textuels pour comprendre le contexte de l’utilisateur et interagir de manière intelligente. Dans le cadre de lunettes XR, son rôle sera central. Il pourra, par exemple, reconnaître un monument et en afficher l’historique, traduire un menu devant vos yeux, identifier un composant électronique lors d’une réparation et afficher la notice correspondante, ou encore gérer vos tâches en superposant des fenêtres virtuelles dans votre espace de travail.
Cette fusion rend l’expérience de réalité mixte non seulement plus immersive mais surtout plus intuitive et utile. Elle réduit la barrière de l’apprentissage en permettant une interaction naturelle, par la parole et le regard, avec un environnement numérique enrichi. Les démonstrations prévues à l’I/O montreront comment Astra, couplé à Gemini Live et à la plateforme Android XR, crée les bases d’un spatial computing véritablement intelligent et personnalisé.
Contexte et perspectives d’évolution pour les lunettes xr
Ce nouveau départ fait écho à l’histoire des Google Glass, lancées en 2013 puis recentrées sur le marché professionnel après un accueil mitigé du grand public. Aujourd’hui, Google relance son offensive avec une approche technologique radicalement renouvelée, s’appuyant sur des avancées majeures en IA et sur des partenariats stratégiques solides.
Le succès de cette vision dépendra en grande partie de l’adoption par les développeurs. La mise à disposition d’un SDK Android XR complet et d’outils pour intégrer les capacités de Project Astra sera donc un point crucial à surveiller lors de l’événement. Les perspectives à moyen terme (2026-2027) laissent entrevoir des matériels plus légers, plus autonomes et une IA embarquée encore plus performante, promettant d’élargir considérablement les cas d’usage, de la navigation urbaine en AR à la formation immersive en passant par la communication enrichie.
Les fondations d’un nouvel écosystème immersif
Google I/O 2025 marquera une étape décisive en définissant l’architecture logicielle et IA des futures lunettes de réalité mixte. Le lancement commercial d’un casque Samsung sous Android XR dès 2026 posera les premières fondations concrètes de cet écosystème de spatial computing ouvert. Project Astra et Android XR en sont les leviers essentiels, conçus pour offrir une expérience non seulement immersive, mais profondément contextuelle, intuitive et utile. La course pour définir la prochaine interface homme-machine est lancée, et Google y engage toutes ses forces.