ACTUALITÉS TECH – Google adopte encore une position assez incompréhensible sur ses propres puces, et le G5 n’avait déjà rien d’impressionnant…
Ce ne serait pas vraiment Google si l’entreprise ne trouvait pas un moyen de brider d’une manière ou d’une autre les performances de ses puces de la gamme Tensor. Et il semble que cette tendance regrettable puisse se poursuivre avec le futur SoC Tensor G6, qui devrait très probablement être équipé d’un GPU lancé dès 2021. Google utilise déjà, dans la Tensor G5, des cœurs CPU ARM vieux de plusieurs générations. Heureusement, selon les dernières fuites, Google aurait au moins choisi d’intégrer dans le prochain Tensor G6 les tout derniers cœurs CPU ARM C1 Ultra et C1 Pro, avec un unique gros cœur cadencé à 4,11 GHz. Malgré cela, contrairement à l’architecture à huit cœurs de son prédécesseur, le futur SoC Tensor G6 adopterait une architecture à sept cœurs en 1+4+2. On peut supposer que ce recul s’explique par des considérations de coût. Mais la nouvelle la plus récente est encore plus difficile à avaler.
Une source contribuant à la chaîne Telegram Mystic Leaks affirme maintenant que la puce Google Tensor G6 utilisera le GPU PowerVR CXT-48-1536, commercialisé en 2021. Autrement dit, Google semblerait s’appuyer sur un GPU vieux de cinq ans dans une étrange obsession consistant à minimiser la taille de la puce Tensor G6, avec l’espoir que le NPU compensera les lacunes, notamment du côté des tâches liées à l’IA. Aucun doute, ce choix bizarre aiderait Google à préserver ses marges, surtout alors que les coûts de la DRAM continuent d’augmenter. Mais cela signifie aussi que les acheteurs de la gamme Pixel 11 risquent de se faire sérieusement avoir…
Heureusement, le futur SoC embarquerait aussi la nouvelle puce de sécurité Titan M3. Les coprocesseurs de sécurité de la gamme Titan de Google offrent une protection matérielle des données utilisateur, y compris les clés de chiffrement et les données biométriques. Mais cela reste une consolation bien maigre au regard de ce qu’Alphabet semble économiser en rognant sur le GPU…



