Les intelligences artificielles sont une révolution technologique, mais comme toute révolution, elles ont un impact flagrant sur les systèmes en place. Vous le savez certainement, mais l'entrainement d'un modèle d'intelligence artificiel tel que les GPT ne va pas sans une dépense d'énergie conséquente. A en croire les valeurs rapportées par BestBrokers, se chauffer en hiver à l'aide d'un SLI de RTX 5090 ne serait rien comparé à l'énergie déjà demandée et qui risque d'être demandée dans le futur par les différents modèles sur le marché.
Rien que pour ChatGPT et uniquement sur le sol Etats-Unien, on serait sur 2 900 MWh par jour d'utilisation, soit une facture énergétique de l'ordre de $ 382 800. C'est sans compter sur le coût énergétique de son entrainement, avec un GPT 3 à 1 287 MWh ($ 169 844) et GPT 4 à 62 318 MWh ($ 8 226 082). Pour mettre ça en perspective, une année de fonctionnement de ChatGPT pourrait alimenter plus de 100 000 foyers aux USA sur la même durée. La douloureuse est salée et plus on affine l'outil, plus il consomme. Si on en croit le gouvernement chinois, son DeepSeek serait bien moins énergivore (on parle de 95% moins de consommation que GPT 4 sur le papier), mais aucune preuve n'est donnée à ce sujet pour l'instant. Même sans preuve, faire baisser l'impact énergétique de ces outils semble être plus qu'une bonne idée, surtout lorsque le neveu de Picsou compte lancer aux États-Unis d'Amérique un projet Stargate qui vise à encore accentuer les ressources investies dans l'IA et surtout dans celle d'OpenAI.
D'un autre côté, on a le projet GRASP (Global Risk and AI Safety Preparedness) qui démarrera le 9 février justement pour anticiper et réguler les risques liés à l'IA. On a la une équipe internationale de chercheurs et d'experts en intelligence artificielle qui veulent travailler sur la question. Le résultat de ce brainstorming donnera naissance à une cartographie présentant une analyse approfondie des risques et des dérives liés au développement de l'IA, ainsi que des solutions concrètes destinées aux gouvernements, aux entreprises et aux chercheurs. Ces propositions ont pour but de permettre à ces acteurs de prendre des décisions éclairées pour assurer un développement éthique et responsable de cette technologie.
Sur le papier c'est joli, reste à voir ce que la bonne volonté du monde de la recherche trouvera comme écho chez les dirigeants d'entreprises ou de gouvernements. Si l'on se base sur le GIEC, on peut se dire que les IA ont de beaux jours devant elles ! Et de votre côté, l'impact de vos prompts sur la facture électrique d'OpenAI, ça vous questionne ?

Ca me choque pas
Au moins, l'I.A., ca sert a quelque chose, a l'inverse de la crypto monnaie qui ne sert a rien
Cela reste encore à prouver. Les I.A génératives conversationnelles dont il est question dans cet article ne peuvent pas être utilisé dans le moindre processus sérieux. Elle se contente de balancer des mots statistiquement plausibles. La plupart du temps en sortant de grosses âneries. Aucune solution ne pourra résoudre cela, car c'est le mode de fonctionnement même de cette techno qui est comme cela.
Remplacer 60 ans d'informatique déterministe par une boite noire sans intelligence balançant des mots de manière statistiques est pour le moins "risqué". Les deux réponses correctes que j'arrive à avoir sont pour des questions trouvables en 10s avec un moteur de recherche traditionnel. Donc cramé des milliers MWh pour cela est, je trouve, une aberration.
Par contre, les I.A de générations d'images sont très performantes, et les autres types d'IA capable de résonner ont clairement de l'avenir.
Moi qui fait occasionnellement du dev, je peux affirmer que le gain de temps est bien là. Car à part quelques domaines innovants on passe son temps à re developper.
L’intérêt d’un llm ce n’est pas de remplacer une recherche google/Wikipedia ou de répondre à des exos de maths ou de géopolitique.
En tant que dev pro, je peux te dire que l'IA est extrêmement utile. Un simple exemple avec Cursor, qui permet un gain de temps considérable dans de nombreux domaines (création d'un projet, copie d'une fonctionnalité entière en l'adaptant à un autre usage, auto-complétion des fonctions car l'IA va comprendre ce que tu souhaites faire, etc).
Pas plus tard qu'il y a un mois, je devais faire une fonctionnalité de création de modèle d'email type sur un assez vieux projet. Nous avions déjà une fonctionnalité similaire pour les SMS. Ça aurait dû me prendre une bonne journée pour copier et adapter le code pour les emails. Au final, j'ai mis 2h.
Donc dire que ça remplace juste une recherche Google, faut vraiment pas chercher loin.
Pas très inspirant.
Dans le cas présent j'ai plus confiance dans l'autorégulation du marché. La recherche est déjà à l'oeuvre pour augmenter l'efficacité énergétique. La compétition entre entreprises vers la rentabilité fera le reste, via de meilleurs algorithmes et du matériel plus efficace.
Vu les milliards balancé par les grosses boîtes, pas sûr que l’énergie soit un facteur important. Pour l’instant c’est la course au monopole. Lorsqu’un des machins d’IA aura pris trop d’avance sur les autres, les Google et autre couperont les dépenses d’investissement et payeront pour avoir accès à « la meilleure IA ». Qui ensuite tentera de se faire un max de fric en virant tout son personnel et en faisant payer son API à prix d’or. Je vous mal l’intérêt énergétique dans cette équation.
En théorie le but c'est de gagner de l'argent avec. Et pour ça il faut vendre un service. A qualité équivalente le moins cher emporte généralement la mise. On a vu l'effet qu'a eu DeepSeek avec un coût du token environ 30x plus bas qu'OpenAI. Donc diminuer les coûts, aussi bien d'entraînement que de service, est important, et l'énergie est un des facteurs.
Pour le reste, je ne pense pas que Google et autres couperont l'investissement vu que c'est considéré comme stratégique. On a déjà vu l'impact de la censure dans les moteurs de recherche et les réseaux sociaux. Et vu le biais qu'ont ces "IA", c'est quelque chose que ces entreprises (et sans doute des gouvernements à travers ces entreprises) veulent contrôler.
2900 MWh par jour (donc en moyenne 120 MW) c'est 0,023% de la production moyenne d'electricité des USA. C'est beaucoup, mais par rapport au gachi des cryptos c'est négligeable.
Ce serait plus pertinent d'avoir la conso moyenne par requête sur o1 par exemple. Est-ce que c'est négligeable par rapport aux 20kWh que je consomme en gaming par semaine ?
On est sûr de ça ?
J'aurais cru que 2900 mégawattheures, c'était 2900 mégawatts... par heure.
2900 mégawatts par heure ca ne veut rien dire