Ethan

Claude Code : l’IA d’Anthropic qui impressionne Google mais frustre ses propres utilisateurs

anthropic, bourse, claude, Claude code, google, ia, intelligence artificielle

Claude Code, l’outil de programmation assistée par IA d’Anthropic, vit une semaine paradoxale.

Le 2 janvier, une ingénieure principale de Google révèle que l’outil a reproduit en une heure un système sur lequel son équipe travaillait depuis un an. Trois jours plus tard, des centaines de développeurs se révoltent sur Reddit et Discord contre des limites d’utilisation jugées abusives. Bienvenue dans le quotidien schizophrène de l’IA générative en 2026.

Une heure contre un an

Suivez LJG sur Google

Ajoutez LJG à vos sources préférées pour voir nos articles en priorité dans "À la une".

Jaana Dogan n’est pas n’importe qui chez Google. Ingénieure principale, elle dirige les travaux sur l’API Gemini, le concurrent direct de Claude. Quand elle publie sur X un message vantant un produit d’Anthropic, ça fait du bruit. Plus de 5 millions de vues en quelques jours.

Le problème qu’elle a soumis à Claude Code : concevoir un orchestrateur d’agents distribués — en clair, un système capable de coordonner plusieurs IA travaillant en parallèle, une sorte de contrôleur aérien pour intelligences artificielles. Son équipe planchait dessus depuis un an sans trouver de consensus architectural. Débats internes, versions multiples, compromis qui ne satisfaisaient personne. Elle décrit trois paragraphes du problème à Claude Code, sans données propriétaires, uniquement des concepts publics.

Une heure plus tard, l’IA crache un prototype fonctionnel.

« Je ne plaisante pas, et ce n’est pas drôle », écrit-elle. La structure du code correspond à ce que son équipe avait mis douze mois à valider. Dogan a nuancé ensuite : quand on fournit à l’IA les meilleures idées ayant survécu au processus de sélection interne, elle peut générer rapidement une version fonctionnelle. Le code nécessite encore du polish. Mais le constat reste brutal.

Google utilise Claude Code. Pas Gemini.

C’est le détail qui a fait tiquer la communauté tech.

Une employée Google qui vante publiquement Anthropic ? Dogan précise que l’entreprise n’autorise Claude Code que pour les projets open source, pas pour les travaux internes. Sur Gemini, elle répond que son équipe « travaille dur en ce moment ». Elle qualifie la compétition de « jeu à somme non nulle » : voir de tels progrès chez un concurrent motive plutôt qu’il ne décourage.

Google a d’ailleurs investi 3 milliards de dollars dans Anthropic et élargi ce partenariat en octobre 2025 — un accord portant sur un million de processeurs tensoriels, soit des dizaines de milliards de dollars. Les chiffres donnent le vertige. Google a révélé en juillet 2025 que l’IA écrit désormais 50 % du nouveau code de l’entreprise, contre 25 % fin 2024. Chez Anthropic, Dario Amodei affirme que la plupart des équipes utilisent Claude pour rédiger 90 % de leur code.

A lire :  L'IA qui fouille nos poubelles : comment l'intelligence artificielle transforme le tri des déchets en France

Boris Cherny, créateur de Claude Code, a partagé fin décembre que 100 % de ses 259 pull requests du mois étaient générées par l’IA. En 2022, l’IA complétait des lignes individuelles. En 2024, plusieurs fichiers. En 2026, elle restructure des bases de code entières.

Dogan admet qu’en 2023, elle pensait ces capacités encore à cinq ans.

Pendant ce temps, sur Discord…

Mais pendant que les exploits de Claude Code font les gros titres, une autre réalité émerge. Depuis le 1er janvier 2026, les forums de développeurs s’enflamment.

« Je suis un abonné Max dédié depuis le printemps. Avec ce forfait, je n’avais jamais vraiment atteint mes limites, peut-être trois fois en tout. Depuis le 1er janvier, j’atteins mes limites en une heure avec la même utilisation. »

Ce témoignage sur GitHub n’est pas isolé.

Sur le canal Discord officiel Claude Developers, sur Reddit, les plaintes s’accumulent. Des abonnés Pro à 20 dollars par mois rapportent atteindre leur limite Sonnet en 10 à 15 minutes. Opus 4.5, le modèle premium, devient parfois indisponible quelques minutes après le début d’une session. Un développeur décrit une situation absurde : limité sans avoir écrit une seule ligne de code, juste en lisant de la documentation.

L’explication d’Anthropic

La startup a une réponse toute prête.

Entre Noël et le Nouvel An, elle avait doublé les limites d’utilisation — un cadeau de fin d’année pour exploiter la capacité de calcul inutilisée pendant les vacances, les clients entreprise étant moins actifs. Selon Anthropic, les plaintes actuelles résultent simplement du retour à la normale. Pas de durcissement des quotas, juste la fin du bonus.

Sauf que ça ne colle pas pour tout le monde. Un utilisateur a fourni à The Register une analyse détaillée de ses logs Claude Code. Son estimation : une réduction d’environ 60 % par rapport aux limites d’avant les fêtes, pas seulement par rapport au bonus doublé.

Sa théorie : les quotas ne sont pas revenus au niveau « raisonnable » ajusté à l’automne 2025 après une première vague de mécontentement, mais au niveau initial qui avait justement provoqué cette grogne.

La tension monte aussi autour de la modération. Plusieurs utilisateurs affirment que leurs critiques ont été supprimées sur Discord, certains prétendent avoir été bannis pour avoir évoqué le sujet. Anthropic dément : les bannissements éventuels résulteraient de violations des règles communautaires, pas d’une volonté de museler les critiques. Un administrateur nommé David a ouvert un fil dédié pour recueillir les témoignages.

A lire :  GPT-Rosalind : OpenAI lâche une IA taillée pour révolutionner la recherche pharmaceutique

Les plaintes ne datent pas d’hier, en réalité. Un méga-fil sur Discord remonte au 9 octobre 2025, juste après la sortie de Claude 4.5.

Bug ou stratégie ?

Certains pointent une cause technique : une version récente de Claude Code serait moins efficace dans sa gestion des tokens. Revenir à la version 2.0.61 réduirait le problème, selon plusieurs témoignages. Anthropic dit n’avoir identifié aucune erreur structurelle.

D’autres font le lien avec le contexte financier.

Anthropic, valorisée à 183 milliards de dollars après une levée de 13 milliards en septembre 2025, préparerait son introduction en bourse pour 2026 selon le Financial Times. Le chiffre d’affaires annualisé approche 7 milliards de dollars, avec des projections de 20 à 26 milliards pour l’an prochain. Claude Code à lui seul génère près d’un milliard. Optimiser les coûts d’infrastructure avant une IPO ? L’hypothèse circule. Anthropic la rejette catégoriquement.

Un porte-parole s’est contenté de déclarer à The Register que l’entreprise était « consciente que certains utilisateurs rencontrent des temps de réponse plus lents ». Sans plus de détails.

Le paradoxe

Cette semaine résume parfaitement l’état de l’industrie. Des capacités qui semblaient relever de la science-fiction il y a trois ans — compresser un an de travail Google en une heure. Et des modèles économiques encore bancals où les utilisateurs découvrent les limites de leur abonnement en plein milieu d’une session de travail critique.

Jaana Dogan recommande aux développeurs sceptiques de tester ces outils dans des domaines où ils ont déjà une expertise, pour juger correctement les résultats. Le conseil est pertinent.

Mais pour les équipes qui ont intégré Claude Code dans leur workflow quotidien, la question n’est plus de savoir si l’IA est impressionnante. Elle l’est. La question est de savoir si on peut compter dessus.


Sources : The Register, Techzine, The Decoder

Je suis Ethan, journaliste spécialisé en intelligence artificielle et nouvelles technologies. Je couvre l’actualité de l’IA agentique, des grands modèles de langage et des outils qui transforment nos usages numériques. Mon objectif : rendre accessibles les avancées technologiques les plus complexes, avec rigueur et sans jargon inutile.