Gigabyte Gtx1660ti 6gb Gddr6

Adieu le branding GTX, NVIDIA a uniformisé l'IA et le RT sur l'ensemble de sa gamme en ne gardant que des RTX. C'était inéluctable !

Quand les cartes graphiques basées sur Turing sont arrivées, on parle de 2018 quand même, nous étions beaux et jeunes, pectoral lubrifié, regard lubrique, océan de testostérone et petit duvet moustache finement dessiné, il y avait les RTX d'un côté, et les GTX de l'autre.

Comme leur nom l'indique, les RTX possédaient des unités dédiées à l'IA et au ray tracing, alors que les GTX 16 utilisaient la même architecture Turing mais dépourvue de ces unités spécifiques. En matière de GTX, NVIDIA avait été inventif, trop même, puisque 9 modèles ont été déclinés depuis à partir de 4 GPU Turing. Voici les candidates à Famille Nombreuse par ordre décroissant de patate :

GTX 1660 Ti sur TU116-400
GTX 1660 SUPER sur TU116-300
GTX 1660 sur TU116-300
GTX 1650 SUPER sur TU116-250
GTX 1650 sur TU117-300 puis sur TU106 puis TU116
GTX 1650 initiale sur TU117-300
GTX 1630 sur TU117-150

Non, nous ne sommes pas devenus débilos, mais vous voyez que la GTX 1650 a servi à recycler 4 GPU différents ! Selon Board Channels, la fin de ces modèles serait actée, elle débuterait dès le début du premier trimestre 2024. Pendant Q1 2024, NVIDIA cesserait la production du/des GPU, et les partenaires ne seraient plus approvisionnés. Autre information, NVIDIA ne prévoirait rien d'autre comme carte pour combler le gap.

Toutefois, la RTX 3050 dégradée devrait fort logiquement occuper le segment des ces GTX 16, à supposer que la chose soit vraie. Désormais, il ne subsistera que de la RTX, donc de la carte graphique capable d'IA et de RT, à différents degrés bien évidemment !

Gigabyte Gtx1660ti 6gb Gddr6

M Galonnier


  • Il était temps les derniers gtx ont duré trop longtemps

    La 3050 6 go castré aurait du sortir plus tôt et sous un autre nom merci la confusion

    Du nvidia dans tout ce qu'il fait de pire

    A non j'ai oublié l interface Windows xp de ces drivers 🤣

    • Les rtx 30 on bientôt 4 ans

      Les RTX 30 vont finir par disparaitre complètement du marché, mais ça va prendre des années, le temps que tous les stocks de GPU soient écoulés

      Il était temps les derniers gtx ont duré trop longtemps

      La 3050 6 go castré aurait du sortir plus tôt et sous un autre nom merci la confusion

      Du nvidia dans tout ce qu'il fait de pire

      A non j'ai oublié l interface Windows xp de ces drivers 🤣

      Pour le coup je préfère 10x le panneau de config NVIDIA même pas updaté que l'usine à gaz adrenalin AMD où la moindre option doit être recherchée et pas facile. Autant à l'arrêt du CCC, c'était bien, là c'est imbitable

      • Je te le concède que le nouveau système d amd a eux tellement d'ajoue de fonctionnalités que ça devient complexe

        Mais au moins il est jolie et fluide

  • C'est une bonne nouvelle, les GTX n'avaient plus beaucoup d'intérêt (Sauf les GT 710, 730 et 1030 si on veut du passif)

    J'avais acheté une GTX 1650 il y a quelques mois pour le PC de mon beau frère (Core i5-2500), c'était le seul modèle Nvidia à 177 € ayant quand même 4 Go de VRAM

    C'est un modèle qui consomme très peu, fiable, et qui permet de faire tourner de petits jeux casual

    Si la RTX 3050 6Go ne coûte pas trop cher, ça sera bien en entrée de gamme

    • Ce n'est pas normal que tu es du acheter ça

      Nvidia aurait dû décliner les rtx 30 à tous les tarif

      La 1630 est sortie en juin 2022 turing c'est fin 2018 4 ans après

      C'était une 3030 qui était attendue

      Même la nvidia nous sort une 3050 6 go c'est la 4050 qui est attendue maintenant

      • Sauf que ca dépend du prix, ne vaut mieux t'il pas une plus vieille carte mais qui fait le travail demandé à un prix moindre ?

        Les RTX nécessite des fonctions qui n'intéresse pas les gens qui veulent des GTX 1650 mais qu'il faut du coup quand même payer, alors oui Nvidia peut descendre le prix mais ca c'est une autre histoire.

        Enfin une puce moins complexe aura toujours moins de chance de tomber en panne et ca peut jouer aussi :p

        • Les effets rt en entée de gamme sont inutile oui

          Mais le dlss pour gagner gratuitement en perf ou le support de l av1 pour ceux qui ont un cpu qui a du mal a le gérer ça peut être utile

          Le 8 nm de Samsung des rtx 30 est ultra rentable c'est le 10 nm de Samsung adapté à tout type de transistors et sans euv pour coûter moins cher

          Je ne vois pas en quoi un produit plus vieux est forcément plus fiable il y a plein de contre exemple

          • Je parle de complexité et non de vieille puce, une puce plus haut de gamme ou complexe sera toujours moins fiable (hors anomalie).

            Alors certes en ajoutant des techno tu la rends plus intéressantes mais surtout plus couteuse, ici j'ai vendu une GTX 1650, car les gens voulait juste une carte pour faire de l'affichage (surveillance caméra), c'était la carte la moins cher qui avait toutes les spéc voulues.

          • Je parle de complexité et non de vieille puce, une puce plus haut de gamme ou complexe sera toujours moins fiable (hors anomalie).

            Alors certes en ajoutant des techno tu la rends plus intéressantes mais surtout plus couteuse, ici j'ai vendu une GTX 1650, car les gens voulait juste une carte pour faire de l'affichage (surveillance caméra), c'était la carte la moins cher qui avait toutes les spéc voulues.

            Ton choix est le bon vis à vis du marché actuel pas de problème

            Mais c'est pas normal que tu es du faire se choix

            Après ils se plaignent que les gens ne renouvelles pas leurs matériels

            A eux de crée la nouveauté aussi

      • Ca permet de recycler les GPU 3050 partiellement défectueux, ça fait des économies pour Nvidia

        Le public ne s'en rend pas trop compte, mais Nvidia conserve énormément de GPU à moitié opérationnels dans ses stocks, en vue de les réutiliser plus tard

        Raison pour laquelle on se retrouve avec l'ancienne gamme pour l'entrée de gamme

14 commentaires

Laissez votre commentaire

En réponse à Some User