TECH ACTUS – Selon l’entreprise, la demande pour ses GPU dépasse l’offre, car les géants de la technologie vont bientôt déployer des milliers de puces d’intelligence artificielle.
En plus de ChatGPT, d’autres outils de génération de langage, d’images et de vidéos s’appuient sur la puissance de traitement de l’IA, et c’est là que réside la force de Nvidia. C’est pourquoi les grandes entreprises technologiques utilisant ChatGPT (telles que Microsoft) utilisent les GPU Nvidia pour fournir la puissance dont elles ont besoin pour répondre à leurs besoins croissants en IA. Cela pourrait entraîner une pénurie de cartes graphiques équipées de cette technologie dans les mois à venir.
FierceElectronics a signalé qu’OpenAI entraînait ChatGPT sur des GPU Nvidia 10K, mais depuis qu’il a été porté à l’attention du public, le système est devenu surchargé. C’est pourquoi OpenAI a introduit ChatGPT Plus, qui coûte 20 $ par mois, et vous donne non seulement accès aux serveurs même en cas de surcharge, mais également des temps de réponse plus rapides et un accès anticipé aux nouvelles fonctionnalités et améliorations pour votre argent. “Il est possible que ChatGPT ou d’autres modèles d’apprentissage en profondeur puissent être formés ou exécutés sur des GPU d’autres fournisseurs à l’avenir. Cependant, les GPU Nvidia sont actuellement largement utilisés dans la communauté d’apprentissage en profondeur en raison de leurs hautes performances et de la prise en charge de CUDA. CUDA est un plate-forme de calcul parallèle et modèle de programmation développés par Nvidia, permettant un calcul efficace sur ses GPU. De nombreuses bibliothèques et frameworks d’apprentissage en profondeur, tels que TensorFlow et PyTorch, ont un support intégré pour CUDA et sont optimisés pour les GPU Nvidia. “, indique le site.
Forbes rapporte que Microsoft et Google intégreront un LLM (modèle d’apprentissage des langues) de type ChatGPT ) dans leurs moteurs de recherche. Pour Google, s’il devait ajouter cette technologie à chaque recherche, il aurait besoin de 512 820 serveurs A100 HGX avec un total de 4 102 568 GPU A100, ce qui représenterait une dépense d’investissement d’environ 100 milliards de dollars en coûts de réseau et de serveur, et le site indique que ne se produira jamais. And Investing.com indique qu’au lieu des 10 000 GPU Nvidia utilisés dans la version bêta de ChatGPT, l’entreprise en compte désormais 25 000 : “Nous pensons que GPT 5 est actuellement en cours de formation sur des GPU 25k – 225 millions de dollars environ de matériel Nvidia – et les coûts d’inférence sont probablement bien inférieurs à certains des chiffres que nous avons vus.En outre, la réduction des coûts d’inférence sera essentielle pour résoudre le débat sur le “coût de la recherche” des titans du cloud. ”
Joueurs, attention : l’offre de GPU de Nvidia est rare au cours de ces trois premiers mois en raison du Nouvel An chinois, qui affectera le plus les cartes haut de gamme. Et ceux-ci ont une meilleure capacité d’IA que le matériel de serveur à une fraction du prix et peuvent être achetés par des entreprises…
Source : WCCFTech