Consommation Energie Ia

Alors que toute une industrie mise sur l'intelligence artificielle, son impact énergétique questionne de plus en plus. Finalement, une RTX 5090 n'est pas grand chose à côté !

Les intelligences artificielles sont une révolution technologique, mais comme toute révolution, elles ont un impact flagrant sur les systèmes en place. Vous le savez certainement, mais l'entrainement d'un modèle d'intelligence artificiel tel que les GPT ne va pas sans une dépense d'énergie conséquente. A en croire les valeurs rapportées par BestBrokers, se chauffer en hiver à l'aide d'un SLI de RTX 5090 ne serait rien comparé à l'énergie déjà demandée et qui risque d'être demandée dans le futur par les différents modèles sur le marché.

Rien que pour ChatGPT et uniquement sur le sol Etats-Unien, on serait sur 2 900 MWh par jour d'utilisation, soit une facture énergétique de l'ordre de $ 382 800. C'est sans compter sur le coût énergétique de son entrainement, avec un GPT 3 à 1 287 MWh ($ 169 844) et GPT 4 à 62 318 MWh ($ 8 226 082). Pour mettre ça en perspective, une année de fonctionnement de ChatGPT pourrait alimenter plus de 100 000 foyers aux USA sur la même durée. La douloureuse est salée et plus on affine l'outil, plus il consomme. Si on en croit le gouvernement chinois, son DeepSeek serait bien moins énergivore (on parle de 95% moins de consommation que GPT 4 sur le papier), mais aucune preuve n'est donnée à ce sujet pour l'instant. Même sans preuve, faire baisser l'impact énergétique de ces outils semble être plus qu'une bonne idée, surtout lorsque le neveu de Picsou compte lancer aux États-Unis d'Amérique un projet Stargate qui vise à encore accentuer les ressources investies dans l'IA et surtout dans celle d'OpenAI.

D'un autre côté, on a le projet GRASP (Global Risk and AI Safety Preparedness) qui démarrera le 9 février justement pour anticiper et réguler les risques liés à l'IA. On a la une équipe internationale de chercheurs et d'experts en intelligence artificielle qui veulent travailler sur la question. Le résultat de ce brainstorming donnera naissance à une cartographie présentant une analyse approfondie des risques et des dérives liés au développement de l'IA, ainsi que des solutions concrètes destinées aux gouvernements, aux entreprises et aux chercheurs. Ces propositions ont pour but de permettre à ces acteurs de prendre des décisions éclairées pour assurer un développement éthique et responsable de cette technologie.

Sur le papier c'est joli, reste à voir ce que la bonne volonté du monde de la recherche trouvera comme écho chez les dirigeants d'entreprises ou de gouvernements. Si l'on se base sur le GIEC, on peut se dire que les IA ont de beaux jours devant elles ! Et de votre côté, l'impact de vos prompts sur la facture électrique d'OpenAI, ça vous questionne ?

Consommation Energie Ia

Ghiom


  • Ca me choque pas

    Au moins, l'I.A., ca sert a quelque chose, a l'inverse de la crypto monnaie qui ne sert a rien

    Voir plus
    • Cela reste encore à prouver. Les I.A génératives conversationnelles dont il est question dans cet article ne peuvent pas être utilisé dans le moindre processus sérieux. Elle se contente de balancer des mots statistiquement plausibles. La plupart du temps en sortant de grosses âneries. Aucune solution ne pourra résoudre cela, car c'est le mode de fonctionnement même de cette techno qui est comme cela. 

      Remplacer 60 ans d'informatique déterministe par une boite noire sans intelligence balançant des mots de manière statistiques est pour le moins "risqué". Les deux réponses correctes que j'arrive à avoir sont pour des questions trouvables en 10s avec un moteur de recherche traditionnel. Donc cramé des milliers MWh pour cela est, je trouve, une aberration. 

      Par contre, les I.A de générations d'images sont très performantes, et les autres types d'IA capable de résonner ont clairement de l'avenir.

      Voir plus
      • Moi qui fait occasionnellement du dev, je peux affirmer que le gain de temps est bien là. Car à part quelques domaines innovants on passe son temps à re developper. 
        L’intérêt d’un llm ce n’est pas de remplacer une recherche google/Wikipedia ou de répondre à des exos de maths ou de géopolitique. 

        Voir plus
      • En tant que dev pro, je peux te dire que l'IA est extrêmement utile. Un simple exemple avec Cursor, qui permet un gain de temps considérable dans de nombreux domaines (création d'un projet, copie d'une fonctionnalité entière en l'adaptant à un autre usage, auto-complétion des fonctions car l'IA va comprendre ce que tu souhaites faire, etc).

        Pas plus tard qu'il y a un mois, je devais faire une fonctionnalité de création de modèle d'email type sur un assez vieux projet. Nous avions déjà une fonctionnalité similaire pour les SMS. Ça aurait dû me prendre une bonne journée pour copier et adapter le code pour les emails. Au final, j'ai mis 2h.

        Donc dire que ça remplace juste une recherche Google, faut vraiment pas chercher loin.

        Voir plus
  • Roundtable featuring experts from RAND, OECD, UN, and top AI academics

    Pas très inspirant.

    Dans le cas présent j'ai plus confiance dans l'autorégulation du marché. La recherche est déjà à l'oeuvre pour augmenter l'efficacité énergétique. La compétition entre entreprises vers la rentabilité fera le reste, via de meilleurs algorithmes et du matériel plus efficace.

    Voir plus
    • Vu les milliards balancé par les grosses boîtes, pas sûr que l’énergie soit un facteur important. Pour l’instant c’est la course au monopole. Lorsqu’un des machins d’IA aura pris trop d’avance sur les autres, les Google et autre couperont les dépenses d’investissement et payeront pour avoir accès à « la meilleure IA ». Qui ensuite tentera de se faire un max de fric en virant tout son personnel et en faisant payer son API à prix d’or. Je vous mal l’intérêt énergétique dans cette équation.

      Voir plus
      • En théorie le but c'est de gagner de l'argent avec. Et pour ça il faut vendre un service. A qualité équivalente le moins cher emporte généralement la mise. On a vu l'effet qu'a eu DeepSeek avec un coût du token environ 30x plus bas qu'OpenAI. Donc diminuer les coûts, aussi bien d'entraînement que de service, est important, et l'énergie est un des facteurs.

        Pour le reste, je ne pense pas que Google et autres couperont l'investissement vu que c'est considéré comme stratégique. On a déjà vu l'impact de la censure dans les moteurs de recherche et les réseaux sociaux. Et vu le biais qu'ont ces "IA", c'est quelque chose que ces entreprises (et sans doute des gouvernements à travers ces entreprises) veulent contrôler. 

        Voir plus
  • 2900 MWh par jour (donc en moyenne 120 MW) c'est 0,023% de la production moyenne d'electricité des USA. C'est beaucoup, mais par rapport au gachi des cryptos c'est négligeable.
    Ce serait plus pertinent d'avoir la conso moyenne par requête sur o1 par exemple. Est-ce que c'est négligeable par rapport aux 20kWh que je consomme en gaming par semaine ?

    Voir plus
    • On est sûr de ça ?

      J'aurais cru que 2900 mégawattheures, c'était 2900 mégawatts...  par heure.

      Voir plus
      • On est sûr de ça ?

        J'aurais cru que 2900 mégawattheures, c'était 2900 mégawatts...  par heure.

        2900 mégawatts par heure ca ne veut rien dire

        Voir plus
      • C'est une puissance (2900MW, soit trois réacteur nucléaires avec le vent dans le dos ou 2 EPR) utilisée pendant un temps (1h) qui donne une quantité d'énergie, les 2900 MWh.

        Pour améliorer l'occupation de leurs serveurs, openai et les autres ont mis en place une soumission en batchs qui sont exécutés lorsque qu'il y a un creux de demande, surtout la nuit.

        Voir plus
  • Article intéressant, surtout dans ce type de presse informatique où l'on retrouve peu de billets de réflexion.

    Je viendrais juste rajouter 2/3 choses à propos de DeepSeek, parce que ça a fait tout un foin mais bon, il y a quand même des fortes limitations :

    • avec les données et l'entrainement du modèle réalisés, déjà que les datasets sont pas parfaits globalement, dans un pays autoritaire comme la Chine, les bavures sur ce qu'exprime l'algorithme risquent d'être fortes
    • les avantages techniques annoncés sont un peu discutable pour dire que le réseau est aussi qualitatif que GPT. Alors oui, les modèles de NLP on peut les améliorer et ça soyons franc, les entreprises comme openAI on réalisé trop tôt certaines choses avant d'attendre la stabilisation technique des outils de ML. Cependant, DeepSeek avance des choses qui réduisent le cout en calcul (et non pas la consommation élec, même si c'est lié, il faut faire attention aux raccourcis) mais qui ont aussi un cout non négligeable sur les performances réelles du modèle.
    • utiliser un système d'apprentissage par renforcement n'est pas forcément le plus pertinent, ça demande une régulation forte et le risque d'hallucination est énorme.

    Notons que l'on a rien sans rien. Le principal problème de quelque chose comme chatGPT, c'est que ça sort trop tôt, sans que le matériel ou le logiciel ne soit stabilisé, et plus que la consommation électrique de ces systèmes, c'est le cout en unités de calcul immense qui est à craindre. Tant de ressources gâchées dans la conceptions de serveurs, la plus grande source de pollution en informatique n'est pas son exploitation, mais bien sa production et son recyclage. 

    Et clairement, ça ne sera pas des entreprises américaines (et encore moins aujourd'hui) qui vont s'inquiéter de ces soucis j'en ai bien peur.

    Voir plus
  • Sur l'entraînement, s'agissant d'une compétition entre plusieurs acteurs je doute sérieusement d'un effort quelconque sur la conso d'énergie, le but étant de dire le plus vite possible qui a la plus longue, pardon qui a le llm le plus puissant.

    En revanche, aussi bien pour des raisons de modération énergétique qu'afin de préserver ses données, je pense que pas mal des utilisateurs d'AI en ligne pourraient, pour l'usage qu'ils en ont, faire tourner en local certains modèles uniquement à la demande (ou encore via un serveur pour la famille) .

    Voir plus
    • Tu imagines les gens avoir un serveur pour ça ? on ne connait pas les mêmes gens 😅

      Voir plus
      • Installer ollama, lancer tel modèle + un des nombreux RAG dispos me semble accessible.

        Y a même des RAG qui vont chercher les principaux modèles à la demande sans que l'utilisateur n'entre la moindre ligne de commande.

        A mon avis, c'est moins la difficulté d'installation que la méconnaissance de ces solutions qui limite le recours à des AI locales.

        J'ai installé ollama chez plein de copains avec un RAG que j'aime bien, téléchargeant des modèles de 2G, le plus souvent ceux qui allaient sur chatgpt en ligne (et son méga modèle) pour faire mumuse ne voient pas de différence.

        Voir plus

18 commentaires

Laissez votre commentaire

Créez un compte pour personaliser votre avatar, débloquer davantage d'options de mise en forme et être notifié par mail en cas de réponse.
En réponse à Some User