ACTUALITÉS TECH – Nvidia pourrait perdre un client majeur, car un acteur clé du secteur pourrait bientôt se tourner vers les puces d’un concurrent…
Selon une source citée par The Information, Google aurait réussi à s’approprier une partie des besoins en calcul d’OpenAI au détriment de Nvidia. OpenAI a commencé à s’appuyer sur les Tensor Processing Units (TPU) de Google pour faire fonctionner ses produits d’intelligence artificielle. Jusqu’à présent, on pensait qu’OpenAI dépendait principalement de Microsoft, Oracle et d’autres fournisseurs pour utiliser les GPU de Nvidia dans l’entraînement et l’exécution de ses modèles IA. Le rapport indique qu’OpenAI souhaite réduire ses coûts opérationnels en utilisant les TPU de Google, qui n’ont d’ailleurs pas été loués à des concurrents directs par la firme de Mountain View.
En avril, Google a lancé sa septième génération de TPU, présentée comme la première gamme de puces spécifiquement conçue pour l’inférence en IA. Ces TPU ont fait sensation l’an dernier lorsque Apple a révélé les avoir utilisés pour entraîner sa plateforme Apple Intelligence. Mais l’entraînement ne représente qu’une partie de l’équation : c’est l’inférence qui permet aux modèles d’IA de générer des réponses en fonction des requêtes des utilisateurs. OpenAI utilise désormais ces TPU pour faire fonctionner ChatGPT et d’autres produits IA, et le changement aurait eu lieu récemment.
Cette décision stratégique s’explique par une volonté de réduire les coûts, notamment face à une demande accrue après le lancement en début d’année d’une nouvelle plateforme de génération d’images. Google prévoit également de proposer ses TPU à des fournisseurs d’infrastructures cloud. Avec les prix élevés de Nvidia et la pénurie persistante de GPU, le marché semble prêt à accueillir des alternatives plus abordables.
Si Google parvient à convaincre ces prestataires d’utiliser ses puces, cela pourrait lui permettre de rogner sérieusement la part de marché de Nvidia – surtout dans le contexte actuel de rareté des composants. Google s’appuie aussi sur ses propres puces pour entraîner ses modèles, et s’impose comme l’une des entreprises les plus polyvalentes du secteur, intervenant à la fois sur les couches matérielle et logicielle. En plus de ses TPU, la firme propose également son modèle Gemini, déjà intégré à Gmail et Google Search.
Jusqu’à présent, OpenAI dépendait exclusivement des GPU de Nvidia, notamment via ses partenaires Microsoft et Oracle. Ce dernier se targue de posséder l’un des plus vastes stocks de GPU Nvidia de l’industrie. Mais si OpenAI migre progressivement vers les TPU de Google, cela pourrait mettre fin à la quasi-hégémonie de Nvidia sur le marché haut de gamme de l’intelligence artificielle.
Source : WCCFTech, The Information