Ethan

Google lance Gemini Intelligence : votre smartphone Android va réserver vos restaurants, remplir vos formulaires et naviguer le web à votre place

android, chatbot, gemini, google, ia, IA générative, intelligence artificielle, smartphone

Lundi 12 mai 2026, lors de « The Android Show : I/O Edition », Google a dévoilé Gemini Intelligence, une couche d’IA intégrée à Android qui transforme le smartphone en agent personnel capable d’agir pour vous. Pas répondre à vos questions. Agir : réserver un restaurant, remplir un formulaire, modifier une commande, chercher un parking, résumer vos mails, ajouter un événement à votre calendrier. Le tout sans que vous ayez à ouvrir une seule application.

Quand nous avions décrypté la vision de Sundar Pichai (« Search deviendrait un gestionnaire d’agents façon Jarvis ») en avril, puis révélé l’existence de l’agent Remy en test interne la semaine dernière, la promesse était encore abstraite. Avec Gemini Intelligence, elle a un nom commercial, un calendrier de déploiement, et des partenaires matériels : Samsung Galaxy S26, Google Pixel 10, cet été, d’abord aux États-Unis et en Corée du Sud.

Ce que Gemini Intelligence sait faire

Suivez LJG sur Google

Ajoutez LJG à vos sources préférées pour voir nos articles en priorité dans "À la une".

L’agent fonctionne en plusieurs couches, chacune avec un niveau d’autonomie croissant.

La première couche est l’automatisation multi-étapes entre applications. Vous demandez à Gemini d’organiser un dîner vendredi soir pour six personnes. L’agent cherche un restaurant sur Google Maps, vérifie les disponibilités, réserve, envoie les invitations via Gmail, ajoute l’événement dans Calendar, et vous notifie quand c’est fait. Vous, pendant ce temps, vous faites autre chose. Chaque étape est visible en temps réel : vous pouvez suivre ce que l’agent fait et reprendre la main à tout moment.

La deuxième couche est l’auto-browse dans Chrome. Le navigateur peut désormais automatiser des tâches répétitives sur le web : réserver une place de parking près d’un événement, remplir des formulaires, modifier une commande en ligne, effectuer des recherches complexes. Google promet des garde-fous : toute action sensible (achat, publication, confirmation financière) requiert une validation explicite de l’utilisateur.

La troisième couche est AppFunctions, un framework destiné aux développeurs. Il leur permet d’exposer des fonctions spécifiques de leur application directement à l’agent Gemini, de façon structurée et contrôlée. C’est la brique qui permet à l’agent de ne pas se contenter des apps Google : il pourra interagir avec des applications tierces.

Rambler : la dictée vocale réinventée

L’annonce la plus discrète est peut-être la plus transformative pour le quotidien. Rambler est une fonction intégrée à Gboard qui réinvente la dictée vocale. Au lieu d’exiger une formulation impeccable, Rambler capte une parole naturelle (avec ses hésitations, ses reprises, ses approximations), en extrait l’essentiel, et la reformule en texte propre et cohérent. La prise en charge multilingue fonctionne au sein d’un même message.

A lire :  Comment activer Apple Intelligence en France dès maintenant sur iPhone, iPad et Mac ?

C’est exactement ce que les interaction models de Mira Murati (Thinking Machines Lab, notre hors-série d’hier) promettent au niveau du modèle. Google attaque le même problème (l’interface entre l’humain et l’IA est cassée) mais par l’angle du système d’exploitation, pas du modèle.

Create My Widget : le vibe coding sur Android

Google a aussi présenté Create My Widget, un constructeur de widgets par prompt. Vous décrivez ce que vous voulez (un tableau de bord nutrition, un suivi d’entraînement, un widget météo ultra-spécifique, des recettes personnalisées), et Gemini génère automatiquement l’interface adaptée. C’est du vibe coding appliqué à l’écran d’accueil de votre téléphone.

Le pont avec notre HS Google Stitch (vibe design) et Claude Design (prototypage par prompt) est direct : la génération d’interface par IA n’est plus un outil pour développeurs. C’est une fonctionnalité grand public, sur 3 milliards d’appareils Android.

Le Googlebook : la réponse au MacBook

La surprise matérielle de l’événement : le Googlebook, un laptop conçu entièrement autour de la couche IA de Google. Pas un Chromebook rebadgé. Un ordinateur portable pensé pour que Gemini Intelligence soit le mode d’interaction principal, avec le clavier et l’écran en support. Les détails techniques sont encore minces, mais le positionnement est clair : Google veut être le Apple de l’IA, avec un matériel intégré verticalement à son logiciel.

Material 3 Expressive : l’IA invisible

L’interface d’Android 17 évolue avec Material 3 Expressive, un nouveau langage visuel conçu pour signaler discrètement quand Gemini est actif et réduire les distractions. L’objectif paradoxal : permettre aux utilisateurs de passer moins de temps sur leurs appareils tout en étant plus efficaces. L’IA fait le travail, vous récoltez le résultat.

Déploiement : été 2026, progressif

Gemini Intelligence sera déployé à partir de cet été sur les Samsung Galaxy S26 et les Google Pixel 10, uniquement aux États-Unis et en Corée du Sud, avec un périmètre d’applications volontairement restreint à trois catégories au lancement. L’auto-browse dans Chrome sera réservé aux abonnés AI Pro et Ultra. Les fonctions Gemini dans Chrome (résumé, recherche, Keep, Calendar) nécessitent Android 12 ou plus récent et arriveront fin juin.

A lire :  Arrestation et deepfake : l'administration Trump invente les larmes d'une avocate

Android 17, attendu pour la rentrée 2026 sur les Pixel d’abord, ouvrira ces capacités à l’ensemble des fabricants et des développeurs. C’est là que l’échelle change : Samsung, Oppo, OnePlus, Vivo, Xiaomi, Honor. 3 milliards d’appareils.

Et Gemini Intelligence ne se limite pas au smartphone. Google prépare son déploiement dans les voitures (Android Auto), les montres (Wear OS), les lunettes connectées (Android XR), et le Googlebook. L’IA n’est pas une application. C’est le système d’exploitation.

Ce que ça change pour Apple

Le timing est dévastateur pour Ternus. Le nouveau CEO d’Apple prend ses fonctions le 1er septembre. Gemini Intelligence sera déjà sur les Galaxy S26 et Pixel 10 depuis des mois. La WWDC est le 8 juin, dans moins d’un mois : si Apple n’annonce pas un Siri agentique crédible (deux ans de retard), l’écart sera impossible à combler dans l’esprit des consommateurs.

Et l’ironie suprême : le futur Siri sera probablement propulsé par Gemini de Google en backend. Apple dépend de son concurrent direct pour sa fonctionnalité IA phare, pendant que ce même concurrent déploie sa propre IA nativement sur 3 milliards d’appareils.

Digital Trends résume : « tout ce qui a été annoncé à l’Android Show va hanter la division IA d’Apple dans ses rêves. »

La semaine Google ne fait que commencer

The Android Show était l’apéritif. Le Google I/O, c’est le 19 mai, dans une semaine. Gemini 4.0, le modèle de nouvelle génération, devrait y être annoncé. L’expansion de Personal Intelligence hors des États-Unis aussi. Et potentiellement l’agent Remy, la version grand public du gestionnaire d’agents que nous avions documenté.

Google vient de poser les fondations. Le 19 mai, la suite devrait arriver.

Je suis Ethan, journaliste spécialisé en intelligence artificielle et nouvelles technologies. Je couvre l’actualité de l’IA agentique, des grands modèles de langage et des outils qui transforment nos usages numériques. Mon objectif : rendre accessibles les avancées technologiques les plus complexes, avec rigueur et sans jargon inutile.