TECH ACTUS – Jensen Huang, PDG de Nvidia, a fait un commentaire quelque peu étrange lors d’une séance de questions-réponses après sa présentation Computex.
La consommation d’énergie d’une pile de GPU axés sur l’IA peut être monstrueusement élevée, et Huang, qui vit aujourd’hui selon la devise “plus vous achetez, plus vous économisez” avec ces puces, a des réflexions similaires sur la consommation d’énergie associée à les derniers modèles d’IA, car ils fonctionnent principalement sur du matériel Nvidia. Les GPU de Nvidia sont plus rapides et plus efficaces que leurs concurrents, et il pense qu’accélérer tout permettra d’économiser du temps et de l’énergie.
“L’IA générative n’est pas une question de formation, c’est une question d’inférence. Le but n’est pas la formation, le but est l’inférence. Lorsque vous faites de l’inférence, la quantité d’énergie que vous utilisez est bien inférieure à celle de la méthode alternative de calcul. Par exemple, Je vous ai montré la simulation climatique à Taiwan : 3 000 fois moins d’énergie, pas 30 % en moins, 3 000 fois moins. Cela se produit application après application, peu importe où elle va à l’école.
Le monde n’a pas assez de pouvoir proche de la population. Mais le monde dispose de beaucoup d’énergie excédentaire. La quantité d’énergie provenant du soleil est incroyable. Mais ce n’est pas au bon endroit. Nous devrions installer des centrales électriques et des centres de données pour la formation là où nous n’avons pas de population, former le modèle ailleurs. Déplacez le modèle pour inférer que tout le monde soit plus proche des gens – dans leur poche sur les téléphones, les PC, les centres de données et les centres de données cloud », a déclaré Huang.
Le Forum économique mondial (WEF) a récemment estimé que la consommation d’énergie liée à l’IA augmenterait de 26 à 36 % par an et pourrait atteindre le niveau d’un petit pays (par exemple l’Islande) d’ici 2028. Mais réduire la consommation nécessiterait des améliorations significatives de l’efficacité, car plus la tâche est exécutée rapidement, plus il faut d’énergie.
Le GPU AI de Nvidia commence à environ 40 000 $, c’est donc une barre assez haute à franchir pour qu’une startup d’IA investisse dans un tel matériel.
Source : PCGamer