Après un (trop) long séjour passé dans les méandres du code et des rapports de bugs (promis, le thème sombre H&Co arrive... une fois d'autres modules plus critiques terminés), voilà que le vent tourne et que votre humble serviteur peut enfin se consacrer à nouveau à suivre l'actualité. Voilà qui tombe bien, notre Jensen préféré - qui n'a évidemment pas financé le développement d'Hardware and Co, ou alors le chèque s'est perdu en route ! - a décidé de lancer sa conférence favorite, la GeForce (ou GPU) ? Technology Conference d'ici un gros quart d'heure. Voilà l'occasion rêvée de causer de son futur en tant qu'IA, ou de la baisse à venir des prix des GPU (plus facile à dire en tant que fabricant que consommateur...). Si vous désirez la suivre avec nous, bienvenue ! Prenez un café, lancez le tuyal favori de Google et squalala, vous êtes partis !
Résumé de la conférence:
- 15h45 (ou 07h45 pour les cuisiniers à l'heure Pomme de Terre) : pas encore tout à fait remis de sa discussion nocturne avec Chat J'ai Pété dont nous tairons le contenu pour des raisons de bienséance, Titi se demande ce que l'oncle préféré des neveux riches garde sous sa veste !
- 15h53 : Nicolas lance les paris : il sera question d'apprentissage automatisé et de Generative Pre-trained Transformer !
- 15h56 : Après une minutieuse recherche consistant à étudier les initiales du terme proposé, Riton se ravise et range son portefeuille.
- 15h58 : Notre secrétaire apporte le café, la tension est à son comble !
- 15h59 : Mais ? H&Co n'a pas de secrétaire ? De qui s'agit-il ? Un fantôme viendrait-il perturber l'équipe ? Une candidature spontanée d'un rédacteur de talent ?
- 16h00 : Nicolas n'avait pas mis correctement ses lunettes, il s'agissait en fait de Matt avec une perruque. Mais chuuuut, l'émission va commencer !
- 16h00, 1s : Générique ! Attentiiioonn mesdammess et meessieeeuurrrsssss dans un instant, ça va commencer !
- 16h00, 5s : NVIDIA tente l'hypnose à base de carrés concentriques multicolores. Avec un 18 en volonté, la team résiste facilement à cette attaque de charme.
- 16h01 : À peine la conférence commencée que ce pauvre Moore et sa loi sont déjà remis sur le devant de la scène. Allez, premier shot de café, pour un jeu à boire en toute sobriété !
- 16h02 : Jensen fait son Zidane et remercie ses partenaires, avec pas moins de 40 000 entreprises liées de près ou de loin à la firme. En même temps, faire des GPU sans clients, cela ne sert pas à grand-chose !
- 16h04 : Le chat flatulent fait son entrée dans la conférence : il n'a pas fallu longtemps !
- 16h05 : Un petit récapitulatif des utilisations possibles des GPU : simulation et machine learning, avec de jolis exemples d'applications.
- 16h07 : L'IA vous parle et récapitule ses progrès... sans oublier un clin d’œil à une GTC précédente, parce que bon, les autoréférences, c'est cool. Rien à voir, mais vous savez que l'IA va peut-être servir pour la vidéosurveillance au JO 2024 ?
- 16h08 : OH, UN TROMBONE À COULISSE !
- 16h10 : Retour vers le futur avec une RGTX 580 et son aspect crucial dans le développement d'ImageNet, l'une des révélations des réseaux de neurones modernes.
- 16h12 : Exclusivité : NVIDIA nous fait part de sa stratégie commerciale : faire des cartes puissantes avec des bibliothèques permettant de les exploiter au mieux. Impossible !
- 16h13 : NVIDIA utiliserait des cartes NVIDIA pour produire des cartes NVIDIA au refroidissement optimal. Incroyable !
- 16h13 : Si vous avez lé cou-da, hé ben NVIDIA est content de vu, car son écosystème de programmation GPGPU - CUDA en toutes lettres - se porte mieux que jamais. D'ailleurs, ce cu-DA se meut davantage en Q-DA ces derniers temps pour investiguer les bienfaits de l'informatique quantique.
- 16h16 : Arg ! NVIDIA aide Capital One à spammer toujours plus votre boite aux lettres (Dieu merci, pas encore en France) !
- 16h17 : NVIDIA vous présente le problème du voyageur de commerce, un grand classique illustrant une classe de problème complexe à résoudre par informatique. Au moyen de ses cartes, NVIDIA a permis le développement de solutions approchées via cuOPT, ce qui a des répercussions sur un bon tas de domaines : livraisons, optimisation de trajets de robots, et bien plus encore.
- 16h20 : TensorRT et Triton sont des solutions vertes utilisées par Roblox, la Poste américaine, et bien d'autres encore. Pour quoi faire ? Toujours plus de machine learning, bien sûr !
- 16h22 : Pour les applications de traitement vidéo, CV-CUDA est là et VPF sont là, dans les nuages ! Qu'est-ce que cela permet en pratique ? Oohh, mais regardez, des images, et puis c'est utilisé par Microsoft ! Si vous souhaitez essayer, le bousin est en early access.
- 16h24 : Vous pensez que les GAFA n'ont pas assez de données à votre sujet ? Parfait, NVIDIA a aidé à l'accélération du séquençage ADN !
- 16h25 : NVIDIA annonce aujourd'hui MedTronics, une plateforme dédiée aux applications dans le domaine médical.
- 16h25 : NVIDIA vous montre une coloscopie en direct, Titi est aux anges et prépare le carnet de contact !
- 16h26 : Visiblement, la partie production a passionné Jensen qui nous offre de magnifiques rendus 3D des dernières machines d'ASML. Bien évidemment, c'est l'occasion de vanter les mérites de NVIDIA dans l'assistance à la conception de puces !
- 16h27 : TSMC, Synopsis, ASML : et c'est le triooooooo gagnant !
- 16h28 : Si vous avec un souci de gravure, cu-Litho sera là pour vous aider, à moins que vous vous n'ayez un souci de joint de cu-Lace !
- 16h30 : Transition écologique vers leur architecture Grace. Bon, ça n'est pas plus écologique qu'un CPU x86, mais, comme toutes les autres progressions générationnelles, le ratio performance / consommation progresse !
- 16h32 : Regardez ma puce ! Elle est belle ma puce ! Et en plus, elle peut être refroidit par air ! S'il vous plait, achetez laaaaaaaaa !
- 16h34 : Asus, ATOS, Gigabyte, HPE, QCT, Supermicro, Wistron et ZT ont des serveurs à l'étape "sampling" intégrant Grace : pas sûr cependant que cela suffise pour un test sur H&Co !
- 16h35 : Bluefield, qui n'a rien à voir avec un superméchant de James Bond, mais plus à une carte réseau de la firme traitant directement les données on-chip, est présent en production dans de nombreux data center, et ça, ça plait à Jensen !
- 16h36 : Retour au machine learning avec la série DGX, les serveurs tout-en-un de la firme.
- 16h37 : "Nous en sommes au moment iPhone de l'IA.". Pas sûr que ce soit vendeur pour tout le monde !
- 16h37 : NVIDIA lance son cloud DGX pour faciliter l'embobinage le déploiement de solutions sur-mesure aux clients ne possédant pas de cluster de calcul.
- 16h39 : Name-dropping de trucs en vogue : ChatGPT, MidJourney, Transformers.... C'est le futur, messieurs-dames !
- 16h40 : Pour plaire aux internets, voilà un chat dans un scaphandre sur la Lune !
- 16h41 : Mais, au fait, où donc est le MetaVerse dans tout ça ?
- 16h42 : L'IA peut être utilisé pour générer du contenu, inférer des structures moléculaires, réaliser un brouillon d'un papier important...
- 16h43 : NVIDIA AI Foundation est lancé, une plateforme dédiée à l'entraînement de clients possédant leur propre jeu de données propriétaires afin d’entraîner leur propre version de modèle en toute sérénité. Si ces questions ne défraient pas la chronique, nul doute que cette initiative sera couronnée de succès, les données étant le nerf de la guerre de l'IA !
- 16h45 : Avec NeMo, NVIDIA fait voyager les entreprises dans l'IA comme un poisson dans l'eau !
- 16h46 : NVIDIA propose Picasso pour fournir une infrastructure de génération automatique de contenu sous licence. Un mouvement ironique au vu des récentes révélations des données utilisées pour entraîner certains réseaux (spoiler : les boites n'avaient absolument pas les droits sur toutes les images utilisées !).
- 16h47 : NVIDIA Omniverse, jumeau digital : c'est bon, le projet est bien toujours à l'ordre du jour !
- 16h48 : GettyImage et ShutterStock sont dans le coup pour toujours plus d'images génériques.... générées !
- 16h49 : Adobe aussi tient à être dans le coup, mais aucune application précise dans un logiciel existant n'est mentionnée.
- 16h51 : Pour les chercheurs travaillant dans la biochimie testant et découvrant des médicaments, BioNeMo est là pour proposer des modèles d'IA pour prédire les interactions molécules-protéine, prédire la structure de protéines depuis leur formule chimique (oui, oui, il s'agit d'une problématique complexe de recherche !)
- 16h52 : Vous n'allez pas le croire, mais l'IA c'est le fuuuutttuuuurrreeeeee !
- 16h53 : Un seul type d'accélérateur peut visiblement rendre un centre de calcul élastique. Nicolas part chercher le latex !
- 16h54 : Visiblement, il s'agissait d'une métaphore permettant à NVIDIA de vanter ses 4 nouvelles plateformes intégrant leur GPU, dont le L4 intégrant 8 GPU !, utilisé par Snapchat et Google. Si le bousin sert bien évidemment à l'IA, d'autres tâches comme la réalité augmentée et le transcodage AV1 sont également au programme.
- 16h56 : On passe rapidement sur le L40 et ses performances 10 fois plus grandes qu'une carte NVIDIA T4 - en même temps, comparer un serveur et un GPU...
- 16h58 : NVIDIA annonce le H100, un nouveau GPU PCIe équipé de 94 Gio de HBM3, capable de (quasiment) faire tourner ChatGPT à lui tout seul ! De quoi réduire les coûts d'exploitation d'un ordre de grandeur selon la firme.
- 17h00 : Grace - Hopper, le duo CPU-GPU de la firme sur un seul PCB grâce à un interconnect maison de 900 Gio/sec, est également dans (la transformée de) la place !
- 17h01 : Nous avions peur que les possesseurs d'usines et Amazon se sentent délaissés, hé bien il n'en sera rien : Omniverse a bien droit à son coup de projecteur, son efficacité dans la simulation de système complexe multiagents toujours au top ; bref, de quoi booster les exosquelettes des déménageurs du futur !
- 17h02 : En anglais, le terme passe sans encombre, mais la digitalisation, en français, c'est uniquement la transition vers... des doigts !
- 17h03 : Si PhysX est de moins en moins utilisé dans le domaine des jeux vidéos, au point que les IP d'accélération ne soient plus présentent sur les cartes depuis les RTX 2000, la technologie reste utilisée, en tout cas pour des démonstrations sur fond de piano et d'orchestre à corde.
- 17h06 : Une nouvelle couche d'Omniverse ? Et voilà, c'est parti pour son utilisation par les fabricants automobiles.
- 17h08 : Pour aider à l’entraînement des voitures autonomes, Omniverse permet d'utiliser des expériences passées pour générer des variations des scénarii existants et corriger les erreurs qui ont peut être effectuées.
- 17h10 : BMW utilise Omniverse pour relier toutes ses équipes dans un framework commun. Visiblement, cela permet d'avoir Jensen qui s'incruste posé dans une réunion Teams absolument pas naturelle de planification de construction d'une usine.
- 17h12 : Un gros voyant vert et tout se met en route : c'est pas beau, cette débauche de technologie ?
- 17h13 : Oh oh, de nouveaux systèmes à venir courant mars, équipés de la "dernière génération de processeur Intel" ? Voilà qui semble alléchant !
- 17h14 : Vu le contexte, il s'agit de machines à destination des pros. NVIDIA en profite pour vanter son interface web permettant d'accéder à Omniverse Cloud : la simplicité même !
- 17h16 : D'ailleurs, ce Omniverse Cloud est disponible dès aujourd'hui pour les professionnels intéressés.
- 17h17 : Petit récap' des annonces de la firme : des machines, des framework, des partenariats, et une nouvelle fois cet iPhone de l'IA qui semble décidément bien plaire au tonton.
- 17h19 : Déjà que la conférence était dense, mais ces 5 dernières minutes (probablement destinés aux investisseurs) ont de quoi rendre jaloux les Bretons et leur Kouign-amann dans le concours de la densité ! En tout cas, c'en est tout pour cette introduction, place aux conférences plus spécialisées !
Ouloulou ! j'aime beaucoup le concept de cet "article" dynamique XD peux-tu développer un truc qui le rende encore plus "interactif" ? 😅
Sinon... je suis le seul à vouloir des détails là-dessus ? ^^
"Retour vers le futur avec une RGTX 580 et son aspect crucial dans le développement d'ImageNet, l'une des révélation des réseaux de neurones modernes."
> Peux-tu développer un truc qui le rende encore plus "interactif" ? 😅
Malheureusement non, ça passera par un live ou un Discord pour quelque chose de plus interactif. Vu la densité de la conférence, difficile de prendre en compte des question des viewers de toute manière : mieux vaut faire un débrief après-coup à mon avis ?
C'était une blague ! XD Oui oui Twitch etc, c'est prévu du coup ^^
Désolé, tout ce que j'ai retenu c'est le thème sombre ❤️😅
il commence a me gonfler le Jensen avec son excuse de la loi de Moore, son boulot c'est de nous pondre des gpu dans les prix historique du marché, si il peut pas nous faire des gpu aux prix avec +50% de perf en plus, ben il nous fait des gpu qui donnent moins de gain.
Après tous les rtx 3000 nous ont donné les plus gros gain de perf depuis le passage a la rasterisation, mais entre les deux, des gains générationnel de l'ordre de 15 - 20% était courant.
Donc ils se démerdent pour nous donner des gains dans le budget.
Si ils sont sortie du budget c'est pas a cause de la loi de moore, c'est un choix stratégique, qui a pour but (et c'est mon analyse personnel qui n'engage que moi) de faire basculer le marché des utilisateurs de gpu a moins de 500€ (la majorité du marché) dans leur service de cloud gaming, en rendant le prix d'une machine de jeux inaccessible, et permettant a leur offre d’être financièrement attractive en comparaison (pour l'instant tous du moins).
Un peu des deux : la loi de Moore faiblit, si bien que les puces plus puissantes sont aussi plus chère à fabriquer. Mais pour les marges et l'image de marque, il vaut mieux se concentrer sur le haut de gamme. Avec le COVID, on a vu qu'il y avait de la clientèle pour des cartes à plus de 1000 €... alors pourquoi se priver ?
certes elle ralentie, mais ça fait un bon bout de temps que c'est le cas, c'est pas franchement une nouveauté.
et sur le marché du cpu y a pas eu un doublement du prix ..., mais oui on a plus les gains de perf générationnel que l'on avais il y a 20 ans.
leur boulot c'est de fournir au prix ce qu'ils peuvent faire, y a un marché pour des gpu plus chère certes, mais il est nettement plus faible. historiquement le gros du marché doit se situé sur les gammes autour des 300 - 350 €.
sur ce secteur les marge sont nettement plus faible, et Nvidia veux pousser de force ces consommateurs sur son service de cloud gaming, où leur marges par utilisateur seront nettement plus intéressante. Et ça, ça me gonfle profondément.
j'ai aucun problème sur l’extension de la gamme vers le haut, pour rajouter des ref plus performent et plus chère, pour ceux qui ont les moyens (et j'en fait partis), mais là en réalité, on assiste a un glissement tarifaire des mêmes gammes de gpu vers plus chère, qui ne me semble pas fondé( en tous cas le prix de la rtx 4080 ne l'est clairement pas), j'ai peu être tord mais dans ce cas là, on aurais pas vu jensen se venter au près de ses actionnaires de faire payer en moyenne les joueurs 300 euro de plus le renouvellement de leur gpu a gamme égale...
enfin bref ça me gonfle.
PS: désolé si j'ai l'aire un peu agressif c'est pas contre toi hein ! 😉
Hahaha, merci Nico, ça m'avait manqué de te lire dans ce format !
C'est un des plus denses que tu aies fait, il me semble, et je me suis énormément marré, ça fait du bien !
Bon, toutes ces histoires d'IA me désespèrent, mais il y a des limites à ce que je peux nier, et c'est clairement ce vers quoi se dirige toute l'industrie depuis quelques années...
C'est pour fêter le premier article, ça m'avait manqué :) !