Ethan

Google Cloud Next ’26 : le grand virage de l’IA agentique se joue à Las Vegas

agent ia, agentic, google, Google Workspace, ia, IA générative, intelligence artificielle

Depuis hier et jusqu’au 24 avril 2026, Google Cloud Next ’26 bat son plein à Las Vegas. En deux jours, Google a déjà dévoilé la Gemini Enterprise Agent Platform, deux nouvelles puces TPU de 8e génération et une vision claire : faire de chaque entreprise une “entreprise agentique” où des flottes d’agents IA autonomes remplacent les chatbots d’hier.

La Gemini Enterprise Agent Platform : le nouveau centre de gravité

Le rebranding est massif. Vertex AI devient une partie intégrante de la plateforme d’agents Gemini Enterprise, qui fusionne les capacités de Vertex AI et Gemini Enterprise dans une architecture unifiée structurée autour de quatre piliers : Build, Scale, Govern, Optimize.

Ce qu’il y a sous le capot

Côté création d’agents, on retrouve :

  • Agent Studio : interface low-code pour composer les agents
  • Vertex AI Agent Builder : agents prêts à l’emploi
  • Vertex AI Agent Engine : pour les agents sur mesure
  • Agent Development Kit (ADK) : framework modulaire pour le déploiement

S’y ajoute un Agent Marketplace peuplé de partenaires comme Atlassian, ServiceNow, Oracle, Box, Lovable ou Workday.

Les briques pour la production

Google mise aussi sur l’industrialisation avec Agent Identity, Agent Gateway, Agent Registry (annuaire unique de chaque agent et outil interne), détection d’anomalies de raisonnement, sandboxes sécurisées, mémoire persistante sur plusieurs mois (Memory Bank), observabilité temps réel (télémétrie OpenTelemetry) et simulation de milliers de scénarios avant mise en production. Le runtime supporte des agents à exécution longue tournant sur plusieurs jours.

Le discours de la direction

Sundar Pichai, patron d’Alphabet, a résumé le shift en une phrase : “La question n’est plus ‘peut-on construire un agent ?’ mais comment en gérer des milliers ?”

Thomas Kurian, PDG de Google Cloud, a enfoncé le clou : Gemini Enterprise est désormais le système d’un bout à l’autre de l’ère de l’agentique : le tissu conjonctif entre vos données, vos collaborateurs et l’ensemble de vos applications et agents.”

L’ambition est limpide : devenir le système d’exploitation de l’entreprise agentique, en alignant plateforme d’agents, infrastructure cloud, données et sécurité. Face à Microsoft (agents dans 365), AWS (écosystème agentique maison), Anthropic et OpenAI (plateformes d’orchestration), Google joue la carte de l’alignement vertical de toute sa stack.

TPU 8e génération : deux puces, deux missions

Fini l’architecture unifiée. Google adopte une approche à deux puces distinctes — noms de code Sunfish (8t) et Zebrafish (8i) — similaire à l’approche AWS avec Trainium/Inferentia, et à rebours de Nvidia qui garde une architecture unifiée avec Blackwell. Le 8t est conçu avec Broadcom, le 8i avec MediaTek, les deux en gravure TSMC 2 nm.

TPU 8t : la bête d’entraînement

  • Superpods jusqu’à 9 600 accélérateurs (vs 9 216 sur Ironwood)
  • 121 exaflops de compute FP4
  • 2 pétaoctets de mémoire HBM3e partagée par superpod
  • ICI doublé à 19,2 Tbit/s par chip (scale-up)
  • Bande passante scale-out DCN x4 (jusqu’à 400 Gbps)
  • Perf par pod quasi triplée vs Ironwood, +2,7x perf/$ en training
A lire :  Les 5 plus gros dérapages de l'intelligence artificielle (à ce niveau là, c'est carrément du hors-piste) !

TPU 8i : la bête d’inférence

  • Pods jusqu’à 1 152 puces (11,6 exaflops par pod)
  • 288 Go de HBM3e
  • 384 Mo de SRAM on-chip (3x Ironwood, pour héberger les KV caches entièrement sur silicium)
  • Nouvelle topologie réseau Boardfly ICI
  • Collectives Acceleration Engine (CAE) : latence on-chip réduite jusqu’à 5x
  • +80 % perf/$ en inférence sur gros modèles MoE à basse latence

Les deux puces doublent la performance par watt par rapport à la génération précédente.

Calendrier : attention au flou

Google communique une disponibilité générale “plus tard en 2026” via AI Hypercomputer. Plusieurs analyses industrielles évoquent toutefois plutôt fin 2027, compte tenu du process 2 nm encore jeune.

L’infra réseau qui va avec

Le nouveau Virgo Network interconnecte plus de 134 000 puces avec 47 Pbit/s de bande passante bissectionnelle non bloquante dans un seul fabric de datacenter, avec un scaling quasi linéaire jusqu’à 1 million de chips répartis sur plusieurs datacenters via JAX et Pathways.

Le système de stockage Managed Lustre complète le tableau : jusqu’à 10 To/s agrégés, couplé à TPU Direct RDMA et TPU Direct Storage (accès stockage 10x plus rapide qu’Ironwood, en bypassant le CPU hôte).

Valeo : le cas d’école de l’entreprise agentique à la française

Parmi les cas clients mis en avant, celui de Valeo est le plus parlant. L’équipementier automobile, partenaire de Google depuis 2008 (date de son adoption de Google Apps, devenu Google Workspace depuis), passe à la vitesse supérieure.

Le déploiement en chiffres

  • 100 000 collaborateurs sur Gemini for Workspace
  • 9 000 ingénieurs équipés de Gemini Code Assist
  • 200 ingénieurs dédiés dans l’équipe AI4ALL
  • 104 agents IA déployés sur 200 cas d’usage identifiés (hackathon avec Google et Artefact)
  • 20 000 ingénieurs R&D répartis sur 59 sites
  • 700 projets/an, 2,4 Md€ de budget R&D annuel

Les agents à l’œuvre

Christophe Le Ligné, vice-président groupe de la R&D chez Valeo, a détaillé l’usage : “Une spécification pour un Lidar dans un véhicule semi-autonome inclut généralement plus de 100 000 exigences.”

Depuis fin janvier, 1,5 million d’exigences ont été analysées par les agents IA, qui prennent aussi en charge le dispatch entre équipes logicielles et matérielles, le contrôle visuel en fin de ligne, ou l’analyse des brevets concurrents.

Le chiffre le plus frappant concerne le code : plus de 35 % du code de Valeo est désormais généré par IA, chiffre communiqué conjointement lors de l’annonce officielle.

La vision

Christophe Perillat, DG de Valeo, résume la démarche :

“En mettant Gemini for Workspace entre les mains de chaque employé de Valeo, nous ne nous contentons pas de mettre à niveau nos outils ; nous intégrons une culture de l’innovation. L’évolution vers l’IA agentique avec Gemini Enterprise représente le prochain chapitre, permettant à nos ingénieurs de se concentrer sur des avancées à forte valeur ajoutée tandis que les agents d’IA gèrent des cycles opérationnels complexes.”

L’objectif : automatiser les processus d’ingénierie complexes et raccourcir le time-to-market des solutions de mobilité autonome, tout en gardant un humain dans la boucle sur la qualité et la sécurité.

A lire :  Anthropic accuse DeepSeek, MiniMax et Moonshot d'avoir piraté Claude à grande échelle

Et après : un écosystème qui s’élargit à grande vitesse

Workspace et données

Workspace reçoit de nouvelles fonctionnalités (Drive Projects, Canvas Mode pour l’édition dans Workspace et Microsoft 365, Connector Extensibility vers Salesforce, Slack et Jira), le tout unifié par une couche sémantique baptisée Workspace Intelligence.

Côté données, l’Agentic Data Cloud introduit un Knowledge Catalog, un Data Agent Kit et une architecture Lakehouse multi-cloud permettant aux agents d’agir directement sur les données d’entreprise.

Sécurité

La plateforme Agentic Defense conjugue Threat Intelligence et Security Operations de Google avec les outils de Wiz (acquis par Google pour 32 Md$) pour une protection du code au runtime en environnements multi-cloud.

La galerie de clients

L’adoption s’accélère visiblement :

  • NASA : préparation du vol Artemis II
  • Tata Steel : plus de 300 agents IA autonomes en production
  • The Home Depot : agents vocaux dans les magasins américains
  • Square Enix et Capcom : companions de jeu en temps réel
  • Bosch (AskBosch), Mars, Merck (stratégie “agentic-first” en R&D), KPMG, PepsiCo, Unilever

L’écosystème partenaires

Google annonce un fonds de 750 M$ pour accélérer le développement agentique dans son écosystème de 120 000 partenaires, avec l’embauche de forward-deployed engineers auprès d’Accenture, Capgemini, Deloitte, PwC et TCS.

L’ouverture maintenue

Google préserve sa stratégie multi-modèles et multi-hardware :

  • Modèles : Gemini 3.1 Pro maison + Claude d’Anthropic (Opus, Haiku, Sonnet)
  • Calcul : TPU Google, CPU Axion ARM, GPU NVIDIA

La course à l’entreprise agentique ne fait que commencer, mais Google vient de poser ses pièces sur l’échiquier avec une cohérence rarement vue.

Sources

  • LeMagIT, IA agentique : pourquoi Valeo amplifie son partenariat avec Google Cloud
  • Network World, Google bets on workload-specific TPUs with 8t and 8i launch
  • Google Cloud Blog, Our eighth generation TPUs: two chips for the agentic era

Je suis Ethan, journaliste spécialisé en intelligence artificielle et nouvelles technologies. Je couvre l’actualité de l’IA agentique, des grands modèles de langage et des outils qui transforment nos usages numériques. Mon objectif : rendre accessibles les avancées technologiques les plus complexes, avec rigueur et sans jargon inutile.