Le week-end est traditionnellement un moment mort pour les annonces structurantes dans l’IT. Moins d’équipes en alerte, moins de veille active côté DSI, et une attention naturellement relâchée. C’est précisément dans cette fenêtre qu’Amazon Web Services a choisi d’augmenter d’environ 15 % le prix de certaines instances GPU. Une décision prise un samedi, sans communication fracassante ni billet de blog pédagogique, mais avec un impact potentiellement massif pour les entreprises dépendantes du calcul accéléré.Dans un contexte où le GPU est devenu l’or noir de l’économie numérique, cette hausse ne relève pas du simple ajustement tarifaire. Elle touche le cœur même des stratégies cloud orientées intelligence artificielle, calcul scientifique, rendu graphique ou entraînement de modèles de machine learning à grande échelle.
Depuis deux ans, la demande en GPU explose. L’essor fulgurant des modèles d’IA générative, la généralisation des workloads data intensifs et la course à la performance ont transformé ces composants en ressource critique. Les hyperscalers ne vendent plus seulement de la capacité de calcul, mais un accès privilégié à des chaînes d’approvisionnement sous tension.
Dans ce contexte, AWS se trouve dans une position de force. Le fournisseur cloud sait que de nombreuses entreprises ont conçu leurs architectures autour de ses instances GPU spécifiques, souvent optimisées pour ses services managés. Migrer vers un autre cloud ou rapatrier en on-premise n’est ni rapide, ni trivial, ni économique à court terme. Cette dépendance structurelle réduit mécaniquement la capacité de négociation des clients.
L’augmentation annoncée ne concerne pas l’ensemble du catalogue AWS, mais vise des familles d’instances GPU très utilisées. C’est précisément ce ciblage qui pose question. Ces instances sont au cœur des pipelines d’entraînement de modèles, des environnements de recherche et développement, et des plateformes de production IA.
Pour une startup ou un laboratoire de recherche, 15 % de hausse peut remettre en cause un budget annuel. Pour une grande entreprise, cela se traduit par des millions de dollars supplémentaires, souvent sans possibilité immédiate de refactoring ou d’optimisation. Contrairement au stockage ou au compute généraliste, le GPU laisse peu de marges de manœuvre rapides.
Une augmentation ciblée mais lourde de conséquences
AWS a discrètement augmenté les prix de ses blocs de capacité EC2 pour le ML d'environ 15 %. L'instance p5e.48xlarge (huit accélérateurs NVIDIA H200 dans un trenchcoat) est passée de 34,61 $ à 39,80 $ par heure dans la plupart des régions, tandis que la p5en.48xlarge est passée de 36,18 $ à 41,61 $. Les clients de la région Ouest des États-Unis (Californie du Nord) sont confrontés à des hausses plus importantes, les tarifs p5e passant de 43,26 $ à 49,75 $. Ce changement avait été annoncé : la page des tarifs d'AWS indiquait (et indique toujours, curieusement) que « les prix actuels devraient être mis à jour en janvier 2026 », sans toutefois préciser dans quel sens.
Cette annonce intervient environ sept mois après qu'AWS ait annoncé « des réductions de prix allant jusqu'à 45 % » pour les instances GPU, bien que cette annonce concernait les plans à la demande et les plans d'économies plutôt que les blocs de capacité. C'est drôle comme cela fonctionne.
Pour les non-initiés, les blocs de capacité sont la réponse d'AWS à la demande « J'ai besoin d'une capacité GPU garantie pour ma tâche d'apprentissage automatique mardi prochain ». Vous réservez des instances GPU spécifiques pour une période définie (allant d'un jour à plusieurs semaines) et payez à l'avance à un tarif fixe. Ce service est très apprécié des entreprises qui effectuent des tâches d'apprentissage automatique importantes et qui ne peuvent se permettre d'interrompre leur formation en raison d'une capacité ponctuelle épuisée. Le prix devrait clairement indiquer que les utilisateurs ne sont pas des amateurs, mais des équipes disposant de budgets de plusieurs millions.
Un porte-parole d'Amazon a déclaré : « Le prix des blocs de capacité EC2 pour le ML varie en fonction des modèles d'offre et de demande, comme indiqué sur la page de détails du produit. Cet ajustement de prix reflète les modèles d'offre/demande que nous prévoyons pour ce trimestre. »
En fait, AWS a déjà augmenté ses prix par le passé, mais rarement sous la forme d'une augmentation directe d'un élément de ligne. L'entreprise préfère modifier entièrement les dimensions de ses prix, présentant souvent cela comme une réduction de prix pour la plupart des clients. Les augmentations de prix directes historiques ont été liées à des mesures réglementaires : frais par SMS sur certains marchés, etc. Ce n'est pas le cas ici.
Le choix du timing, un signal envoyé au marché
Augmenter ses prix un samedi n’est pas anodin. Dans l’IT, le timing est aussi un outil de communication. Publier une modification tarifaire en fin de semaine réduit la visibilité médiatique immédiate et laisse moins de temps aux équipes techniques et financières pour réagir à chaud.
Ce choix alimente un malaise déjà latent dans la relation entre hyperscalers et clients. Beaucoup d’entreprises ont accepté le cloud en échange de promesses de flexibilité, de prévisibilité et de baisse des coûts à long terme. Or, ce type d’ajustement soudain rappelle que le rapport de force s’est inversé. La flexibilité existe toujours, mais surtout dans le sens du fournisseur.
Le moment choisi est curieux pour une autre raison : il offre à Azure et GCP un argument de vente sur un plateau d'argent. Les deux sociétés ont activement courtisé les charges de travail ML, et « AWS vient d'augmenter les prix des GPU de 15 % » est exactement le genre d'argument dont rêvent les équipes commerciales des entreprises. La question de savoir si les concurrents peuvent réellement absorber la demande est une autre question – les contraintes liées aux GPU ne sont pas propres à AWS – mais la perception compte dans les transactions commerciales.
Pour les entreprises bénéficiant de programmes de remises pour les entreprises ou d'autres accords négociés, cela soulève des questions délicates. Les programmes de remises pour les entreprises garantissent généralement des remises sur les prix publics. Ainsi, si les prix publics augmentent de 15 %, votre tarif « réduit » devient plus cher en termes absolus, même si le pourcentage reste stable. Il faut s'attendre à des discussions animées entre les équipes commerciales d'AWS et leurs gros clients dans les semaines à venir.
Difficile de ne pas y voir un signe avant-coureur
Les GPU sont de plus en plus limités à l'échelle mondiale, alors que le monde s'oriente vers la génération de « slop-as-a-service » dans tous les domaines imaginables. La question est de savoir ce que cela signifie pour les autres types de ressources à l'avenir. La pénurie mondiale de RAM signifie-t-elle que les services centrés sur la RAM sont les prochains sur la liste ? Vous pouvez ignorer la tarification ML Capacity Block si vous n'utilisez pas de charges de travail d'apprentissage automatique, ce qui représente plus de 95 % des dépenses cloud de la plupart des entreprises, mais la RAM touche tous les services proposés par AWS. À l'exception peut-être de leur fonction d'assistance, mais celle-ci est en train de devenir rapidement « alimentée par l'IA », alors laissez-lui le temps.
Le signal d'alarme ici ne concerne pas spécifiquement les GPU, mais plutôt le précédent que cela crée. AWS a passé deux décennies à conditionner ses clients à s'attendre à ce que les prix ne fassent que baisser. Cette attente est désormais rompue. Une fois que vous avez augmenté les prix d'un service et que le monde ne s'est pas écroulé, la deuxième augmentation devient plus facile. Et la troisième. Les règles du jeu ont changé.
Gardez un œil sur les services pour lesquels AWS est confronté à de réelles contraintes d'approvisionnement ou dont les coûts ont...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.