ACTUALITÉS TECH – Le GB200 offre des marges de profit élevées aux entreprises qui l’utilisent. En revanche, ceux qui misent sur AMD observent l’effet inverse.
Morgan Stanley Research a publié de nouvelles données comparant les coûts d’exploitation et les marges bénéficiaires des charges de travail d’inférence IA. La plupart des « usines d’IA » atteignent plus de 50 % de marge, et Nvidia domine clairement.
L’étude a évalué des centres IA de 100 MW intégrant des serveurs Nvidia, Google, AMD, AWS et Huawei. La plateforme Nvidia GB200 NVL72 Blackwell a affiché la marge la plus élevée, 77,6 %, soit environ 3,5 milliards USD de profit estimé. Le TPU v6e de Google a pris la 2ᵉ place avec 74,9 %, suivi de l’AWS Trn2 Ultraserver avec 62,5 %. Les autres solutions tournent autour de 40–50 %. En revanche, AMD affiche des résultats alarmants.
La plateforme AMD MI355X enregistre -28,2 % de marge en inférence, tandis que l’ancienne MI300X atteint -64,0 %. Avec un prix moyen de location de 10,5 USD/h, la puce Nvidia GB200 NVL72 génère 7,5 USD/h, suivie du HGX H200 avec 3,7 USD/h. L’AMD MI355X plafonne à 1,7 USD/h. La plupart des autres puces rapportent entre 0,5 et 2 USD/h.
L’avantage de Nvidia repose sur le support du FP4 et l’optimisation continue de la pile CUDA IA. Même les GPU plus anciens comme Hopper et Blackwell progressent chaque trimestre. Les plateformes AMD MI300 et MI350 sont solides matériellement et le logiciel a progressé, mais l’inférence IA reste leur point faible.
Le coût total de possession (TCO) du MI300X atteint 744 M USD, proche du GB200 (~800 M USD), sans avantage de coût. Les serveurs MI355X récents ont un TCO estimé à 588 M USD, équivalent au Huawei CloudMatrix 384. Nvidia, malgré un coût initial élevé, séduit car il offre des performances d’inférence nettement supérieures, qui représenteront 85 % du marché IA dans les années à venir.
Nvidia lancera cette année le Blackwell Ultra, avec +50 % de performances par rapport au GB200. Suivront Rubin (2026), Rubin Ultra et Feynman. AMD répliquera en 2026 avec le MI400, optimisé pour l’inférence. L’affrontement sur le marché IA s’annonce donc passionnant.
Source : WCCFTech, Morgan Stanley