TECH NEWS – Les “verts” voudraient apparemment retirer les cartes graphiques GeForce GTX 1600 avec ce GPU…
Jusqu’à présent, nous avons entendu dire que le nouveau modèle de la GeForce RTX 3050 de génération précédente basé sur l’architecture Ampere sortirait en janvier (en même temps, on peut s’attendre à la sortie des RTX 4080 Super, RTX 4070 Ti Super et RTX 4070 Super. ..), mais en février. Sur le forum chinois Board Channel, nous pouvons également lire que le prix américain sera largement conforme aux capacités de la carte, en dessous de 200 $, à 180 $.
Le RTX 3050 actuel dispose de 8 Go de VRAM et commence à 230 $, tandis que le RTX 4060 (car il n’y a pas de version de bureau du RTX 4050 sur l’architecture Ada Lovelace…) est disponible pour 300 $. Sauf qu’AMD nous lance en riant une Radeon RX 6600 de 8 Go pour 200 $, et que l’Intel Arc A580 peut être obtenu pour 170 $. En d’autres termes, Nvidia n’est tout simplement pas compétitif dans cette gamme de prix pour le moment, et c’est pourquoi ils s’appuient sur le RTX 3050 vidé.
Ses spécifications sont le SKU GA-107-325-Kx, le PCB PG173 SKU16, 2048 cœurs (20 % de moins que le modèle 8 Go), une vitesse d’horloge de 1470 MHz (17 % plus lente) et 6 Go de VRAM avec bus mémoire 96 bits. (25% de moins dans les deux facteurs). Cependant, la carte dotée de trois connecteurs DP et d’un connecteur HDMI n’aura peut-être pas besoin d’un connecteur d’alimentation externe (6/8 broches), car sa consommation électrique de 70 à 100 W peut être facilement gérée via le connecteur PCI-E (si elle est de 75 W ou moins). , vous n’avez certainement pas besoin de connecter un câble supplémentaire à l’alimentation !)
S’il est compréhensible que Nvidia veuille lancer quelque chose dans la gamme de prix inférieure, nous ne parlons pas d’un RTX 4050. Cela ne vaut pas la peine pour l’entreprise de mettre en place une véritable carte budgétaire basée sur l’architecture Ada, donc le RTX 3050 de 6 Go sera un bon choix pour ceux qui jouent uniquement à des jeux eSports (par exemple Counter-Strike 2) et n’ont pas les moyens financiers de passer à un GPU plus puissant…
Source : WCCFTech