Pat Gelsinger

Pat Gelsinger reconnait la domination de NVIDIA sur ce secteur de l'IA. Mais il ne compte pas rester les bras croisés à l'observer engranger les biftons !

L'Intelligence Artificielle, NVIDIA fut un des premiers à s'y jeter dessus, conscient des ouvertures que cela pouvait apporter aux clients, et du pognon qu'il y avait en jeu. Reconnaissons aux verts cette capacité à pénétrer tous les marchés porteurs, et d'arriver à s'imposer plus ou moins. Pour autant, il ne suffit pas de dire qu'on veut faire de l'IA pour rentrer de l'oseille, encore faut-il penser ses créations en ce sens et les rendre très performantes dans ce domaine. NVIDIA a réussi ce pari, et il y en a d'autres qui ne l'ont pas vu venir ou qui vont s'y adapter, probablement trop tard. En tout cas, Jim Keller avec sa boîte Tenstorrent ne comptent pas laisser NVIDIA rafler toute la mise. Intel également veut se jeter sur l'IA, avec ses puces de 5e génération Emerald Rapids prévues désormais pour Q3 2023, probablement Q4 2023, selon le patron bleu qui a fait quelques confidences sur Yahoo Finance Live.

Meteor Lake également comprendra une partie IA, avec bien entendu tout l'écosystème qui va avec pour exploiter les facultés de ses puces. Pat Gelsinger a donc tenté de séduire et de rassurer en ce sens, en déclarant d'une part que NVIDIA a fait du bon boulot dans ce secteur, qu'il a travaillé dur pour en arriver là, ça c'était surtout pour la séance de massage gratuite avec finition.

Car Pat Gelsinger reste Pat Gelsinger, capable de punchlines que personne ne voit venir. Selon lui, la fête est finie avec NVIDIA, ses produits sont excellents en IA tout en étant supérieurs à ceux des verts, mais surtout ils seront moins chers et pomperont moins de jus d'électrons que les solutions du caméléon. Que le CEO d'Intel pardonne notre méfiance, il ne suffit pas de le dire pour le croire, mais accordons lui le bénéfice du doute. Tant que rien n'est sorti, tant d'un point de vue hardware que logiciel, cela reste des promesses pour replacer Intel au centre de l'échiquier, lui qui est attaqué de toutes parts et qui aura raté pas mal de virages depuis l'ère Paul Otellini, au point de fermer une énième activité récemment.

M Galonnier


  • L'IA pourrait accroitre la demande de GPU, même grands public, comme pour les crypto-monnaies, avec une différence sympathique :

    L'IA a besoin de beaucoup de VRAM, à l'inverse des crypto-monnaies, donc ça va inciter les fabricants à mettre plus de VRAM sur leurs cartes graphiques, comme par exemple pour la RTX 4060Ti 16Go

    Donc ça sera tout bénef pour les gamers, enfin, les choses vont bouger dans le bon sens

    • Sauf si les gamers se retrouvent à devoir payer plus cher une carte qui a plus de VRAM que ce dont ils ont besoin (comme le surcout désormais imposé pour les LED dans le matos "gaming"), ou si on se retrouvait à nouveau en pénurie de GPU parce que les IA-Center achèteraient le stock. Moi, l'IA, plus les géants du numérique s'y mettent, plus je m'en méfie... Quoi qu'il en soit, il n'y a pas besoin de tant de VRAM  si Intel parvient effectivement à faire mieux avec des CPU et de la DDR SDRAM classique, j'imagine.

      • L'argument de Scrabble (et encore, je rejoins ton avis) serait vrai si et seulement si Intel ferait exactement la même chose que NVIDIA, c'est-à-dire utiliser des GPU.

        Or, Intel cherche plutôt a réaliser des accélérateurs en co-processing, sous forme d'accélérateur dédié collé sur un CPU ou un GPU, voire sous forme d'accélérateur dédié. Donc non seulement ça n'aidera en rien le marché des GPU, mais en plus : 

        • Cela va manger des places dans les nodes de gravure pour produire d'autres puces, sur d'autres dies
        • Les mémoires utilisées pour ce domaine sont de plus en  plus siit de la DDR, soit de la HBM, mais pas de la GDDR forcément (à part NVIDIA)
        • Cela réoriente une partie non négligeable de la R&D pour des accélérations pas toutes liés aux GPU, donc ça n'aide pas totalement à obtenir de meilleurs GPU
        • Les architectures qui sont en cours de recherche au sein du monde scientifique se détachent de plus en plus du PC standard pour aller vers des machines complètement différentes.

        Il faut bien se dire que le développement du machine learning (pour rappel, l'IA qu'on nous balance aujourd'hui est surtout un abus de langage) ne sera pas quelque chose qui va aider les gamers comme dit, mais plutôt un risque de détachement de ce segment au profit de marchés plus lucratifs. Si ces évolutions peuvent nous servir, ça n'est pas pour autant qu'elles utilisées dans le sens qui nous convient 😭

3 commentaires

Laissez votre commentaire

En réponse à Some User