Anthropic met les agents IA au compteur : la fin du forfait Claude illimité

Montrer les titres Cacher les titres

Le 14 mai 2026, Anthropic a annoncé une refonte profonde de la facturation de Claude. À partir du 15 juin, les agents autonomes qui consomment l’intelligence artificielle depuis des outils tiers ne piocheront plus dans le forfait classique des abonnés payants, mais dans un compteur de crédits séparé. Ce qui ressemblait à un détail technique signe un basculement que toute l’industrie regarde avec attention.

Un agent autonome est un programme qui appelle un modèle de langage en boucle, sans intervention humaine, pour exécuter des tâches longues. Là où un utilisateur lambda envoie quelques requêtes par jour, ces logiciels peuvent en générer plusieurs milliers, lancer des tests, naviguer sur le web, relancer le modèle sur ses propres réponses. L’écart de consommation atteint plusieurs ordres de grandeur selon la documentation partagée par Anthropic.

Le moment choisi par l’éditeur de Claude n’est pas anodin : l’adoption en entreprise a basculé en sa faveur depuis quelques semaines, mais la facture en compute explose. Que dit ce changement de l’avenir des abonnements illimités à l’IA générative ?

Ce que change concrètement le compteur de crédits

Effectif au 15 juin 2026, le nouveau dispositif découpe l’enveloppe payée par les abonnés en deux poches étanches. D’un côté l’usage humain classique du chatbot, qui reste rattaché aux limites de débit habituelles. De l’autre, tout ce qui passe par le Claude Agent SDK : la commande non interactive `claude -p`, les GitHub Actions de Claude Code, et les applications tierces qui s’authentifient via le SDK, à l’image de l’outil OpenClaw.

Anthropic accorde à chaque abonné un crédit mensuel dédié à cette seconde poche, dimensionné selon la formule choisie. Les crédits non consommés ne se reportent pas, et s’ils sont épuisés avant la fin du mois, impossible de basculer sur la première poche. Selon plusieurs analyses publiées sur InfoWorld et SiliconANGLE, la consommation au-delà du seuil bascule en facturation API au prix du jeton, sans plafond. Le modèle « à volonté » reste donc affiché en façade, mais perd sa réalité pour les usages les plus intensifs.

Les montants attribués par formule d’abonnement

La grille a été détaillée par Anthropic dans son annonce du 14 mai. Elle s’aligne sur la hiérarchie existante des plans Claude, en réservant les enveloppes les plus généreuses aux comptes équipe et entreprise. Cinq paliers structurent la nouvelle facturation :

  • Claude Pro : 20 dollars de crédits Agent SDK par mois, une enveloppe modeste calibrée pour l’usage individuel ;
  • Claude Max 5x : 100 dollars mensuels, pensés pour les développeurs qui font tourner des agents de façon régulière ;
  • Claude Max 20x : 200 dollars, l’enveloppe individuelle la plus haute, ciblant les power users ;
  • Claude Team : 100 dollars par siège, additionnés à l’échelle de l’équipe ;
  • Claude Enterprise : 200 dollars par siège, avec la même logique d’agrégation.

Ces montants couvrent uniquement la part agentique, c’est-à-dire le compute provoqué par des agents qui appellent le modèle. Une PME de quinze développeurs disposera de 1 500 dollars mensuels en plan Team, ce qui peut paraître confortable, mais reste vite consommé sur des projets continus de revue de code automatisée ou de tests de régression.

Pourquoi les agents cassent l’économie des LLM

Le modèle d’abonnement à prix fixe a été conçu autour de l’utilisateur humain, qui dort, qui prend des pauses, qui ne peut pas réellement saturer une infrastructure de calcul. Un agent autonome ne connaît aucune de ces limites. Il peut interroger le modèle en continu, parfois de manière récursive, en intégrant ses propres réponses pour générer la requête suivante. La consommation devient alors fonction du temps machine, pas du temps humain.

Selon une dépêche de The Information rapportée par Axios, des entreprises comme ServiceNow et Uber ont déjà épuisé leur budget jetons IA pour l’année entière, alors que nous ne sommes qu’en mai. La trajectoire de consommation observée déborde tout prévisionnel bâti sur des usages humains, et oblige les éditeurs à repenser leur facturation avant que la marge ne s’effondre. Les startups d’agents IA n’échappent pas à la tendance et arbitrent désormais entre rester sur abonnement ou bascule prématurée vers l’API directe.

Anthropic admet la situation à demi-mot. L’éditeur explique avoir été le plus exposé parce que Claude est devenu le choix par défaut des développeurs qui utilisent le plus d’agents : Claude Code représente le produit à la croissance la plus rapide de son histoire, selon les chiffres internes communiqués à VentureBeat et au Crimson de Harvard.

Anthropic et OpenAI : deux stratégies opposées

La réaction d’OpenAI au tour de vis d’Anthropic illustre la divergence de calcul des deux poids lourds. Pendant que Claude resserre, Codex offre. Sam Altman a annoncé sur X deux mois gratuits de Codex pour les nouveaux comptes entreprise, signal clair d’une stratégie d’acquisition agressive. Le tableau ci-dessous reprend les leviers actionnés par chaque éditeur depuis le printemps :

LevierAnthropic (Claude)OpenAI (Codex)
Accès aux outils tiersCompteur séparé dès le 15 juinInclus sans cloisonnement
Offre nouveaux clientsAucune promotion en coursDeux mois gratuits côté business
Logique économiqueCrédits mensuels non reportablesSubvention temporaire de l’usage agentique

Cette opposition tarifaire reflète des positions de marché différentes. Anthropic dispose de l’avantage de l’usage installé chez les développeurs, mais doit défendre sa marge ; OpenAI, distancée selon l’indice Ramp publié en mai 2026, joue la carte de l’acquisition par le bas du prix. Le pari de chacun se gagnera sur la fidélité des utilisateurs face à des coûts qui montent.

La grogne des utilisateurs et la menace concurrentielle

Le post du chef de produit Claude Code, Noah Zweben, annonçant le nouveau dispositif sur X a été inondé de commentaires critiques. Certains ont qualifié la communication d’Anthropic de manipulatoire, plusieurs développeurs ont déclaré publiquement leur bascule vers Codex. La perception d’une dégradation cachée sous un emballage de flexibilité a clairement dominé la discussion publique.

Ce mécontentement n’est pas anodin. Anthropic vient à peine de dépasser OpenAI dans l’adoption professionnelle, avec 34,4 % des entreprises américaines payantes contre 32,3 % pour ChatGPT selon l’indice Ramp de mai. Un retournement aussi récent peut s’inverser tout aussi vite, surtout si l’éditeur californien laisse s’installer le sentiment que les forfaits perdent en valeur réelle. La fidélité d’un développeur à un outil de productivité tient à peu de chose une fois le coût d’usage perçu comme trop élevé.

Une perspective d’industrie inscrite dans la matière

Le débat sur la facturation des agents IA dépasse le cas Claude. Toutes les plateformes vont devoir s’adapter à une catégorie d’usage qui n’existait tout simplement pas dans le calcul initial des forfaits. Aucun acteur ne pourra maintenir indéfiniment un modèle « tout illimité » tant que les agents continueront de creuser un sillon d’usage à plusieurs ordres de grandeur supérieur à celui d’un humain.

Dans douze mois, nous serons dans un monde où l’intelligence artificielle écrira essentiellement tout le code. La quantité d’IA que nous consommerons par tête sera complètement transformée.

Dario Amodei, PDG d’Anthropic, entretien au Council on Foreign Relations, mars 2025.

Cette projection éclaire la décision de mai 2026. Si chaque développeur lance plusieurs agents en parallèle pour générer et tester du code, le compte de jetons consommés explose mécaniquement. Le tarif unitaire de l’API redevient la référence économique, et l’abonnement n’est plus qu’un mode d’accès parmi d’autres, pratique pour la simplicité mais inadapté aux usages industriels.

L’horizon court d’un marché qui se reprice

Le calendrier resserré de l’industrie laisse peu de marge. D’ici la fin de l’année 2026, plusieurs concurrents annonceront probablement leur propre découplage entre usage humain et usage automatisé ; le marché de l’IA générative va vivre un repricing global. La question centrale est de savoir quel modèle économique survivra à la généralisation des agents, entre forfait avec métrique séparée, paiement à l’usage pur, et émergence d’offres tout-en-un encore non vues.

Les arbitrages des fournisseurs ne se feront pas seuls. Les entreprises clientes, équipées de tableaux de bord pour mesurer leur ROI sur l’IA, négocieront sur la durée. Le pouvoir de marché va se déplacer vers les acheteurs à mesure que les usages se professionnalisent et que l’IA générative quitte la catégorie des outils discrétionnaires pour devenir un poste de coût structurant des DSI.

Donnez votre avis

Soyez le 1er à noter cet article


Vous aimez cet article ? Partagez !