Les 10 et 11 février 2025 se déroulait au Grand Palais à Paris un sommet pour l'action sur l'IA. On vous en parlait avec des interrogations sur ce qui allait en être discuté et sans surprise, l'idée était moins dans la règlementation que la promotion. Cependant, l'idée générale est d’aller vers une IA "ouverte", "inclusive" et "éthique" là pour assister l'action humaine. Cela vient directement en opposition à la vision du Trumpland d'une technologie non règlementée, par peur de tuer la poule aux œufs d'or (rappelons qu'Elon Musk vient de proposer à Sam Altman un rachat d'OpenAI).
L'information la plus mise en avant par notre gouvernement et son dirigeant actuel est l'investissement de 109 milliards de fonds privés dans la technologie sur le sol français dans les années à venir. Mais d'où vient cet argent ? Les premières informations laissaient à penser que l’État mettrait la main à la poche, mais il se trouve que l'argent ne viendra presque que du secteur privé et pas forcément sur notre territoire (comme quoi, l’immigration de biftons n'est pas un problème, même hors Europe).
De gros investissements pour une technologie qui fait envie à l'industrie
Un campus axé sur l'IA financé par les Émirats Arabes Unis
Ce sont pas moins de $ 50 milliards qui ont été promis par les pétromonarques via le fond d'investissement MGX. L'idée est de développer sur le sol français des infrastructures pouvant accueillir un centre de données (le plus gros d'Europe) avec une capacité de calcul de 1 GW dédié à l'intelligence artificielle, en plus de permettre de la recherche et des innovations dans ce secteur. Un immense pôle essentiellement dédié à cette technologie, dont la localisation devrait être dévoilée lors du prochain somment "Choose France" qui aura lieu cette année.
Plusieurs centres de données et infrastructures associées venant du Canada
C'est ici le fond Brookfield qui promet d'ici 2030 pas moins de $ 20 milliards pour la fabrication de centres de données et ce qui les accompagne (ça mange de l'énergie et du matériel, il faut donc prévoir en conséquence). Le premier devrait ouvrir à Cambrai, les trois-quarts de la somme engagée sera destinée aux centres de données et le reste aux infrastructures associées. L'énergie étant un enjeu de taille face à gourmandise de ces technologies, il faudra voir ce qui est prévu.
Les USA ne sont pas en reste
Ce sont 5 acteurs qui vont allonger jusqu'à $ 20 milliards de plus à l'horizon 2031. Tout d'abord $ 6 milliards par Amazon pour des centres de données et renforcer l'infrastructure cloud déjà mise en place par le géant. Le fond d'investissement Apollo promet lui un premier investissement pouvant aller jusqu'à $ 5 milliards axé essentiellement sur les infrastructures énergétiques au service des centres de données. La société Digital Realty qui existe déjà en France, envisage $5 à 6 milliards pour 13 nouveaux centres de données aux alentours de Marseille et en région parisienne. Un autre fond d'investissement, Prologis, spécialisé dans la gestion de bâtiments logistiques ajoute $ 3,5 milliards à l'enveloppe et enfin le spécialiste des centres de données Equinix annonce de son côté $ 630 millions.
La Grande-Bretagne dans le "Game"
C'est l'entreprise Fluidstack qui miserait sur l'IA à la française avec pas moins de $ 10 milliards promis dans le but de créer le plus grand supercalculateur Européen sur sol Français, avec une capacité de calcul de 1 GW dédié à l'IA. Pas d'information pour l'instant sur la localisation de la chose où d'éventuelles infrastructures associées.
La Suède aussi intéressée
La société spécialiste du cloud Evroc (ça se prononce étonnement bien !) va construire un centre de données à Mougins, ce qui pourrait motiver les investissements à une hauteur de $ 4 milliards d'après l’Élysée.
Le Japon ouvre également la porte
Déjà présent en Europe via le groupe Telehouse, les japonais de KDDI pourraient également investir jusqu'à $ 400 millions dans le projet. Telehouse ayant déjà des centres de données mutualisés entre Paris et Londres, le renforcement de leurs infrastructures pour accueillir de nouvelles technologies semble tout logique avec une IA qui a plus que le vent en poupe.
Mais également des français, et pas qu'un peu !
Le premier a être clair sur son investissement a été Xavier Niel, patron du groupe Iliad gérant le réseau Free et qui aime bien clasher sur TwiXter, qui souhaite aligner plus de $ 3 milliards dans la technologie via ses centres de données, mais aussi dans l'optique de permettre un accès à l'agent conversationnel payant de MistralAI aux abonnées du réseau Free.
MistralAI (l'IA à la française) n'est pas en reste et, sans donner de somme exacte pour l'instant, compte investir dans la conception d'un centre de donnée massif (le plus gros d'Europe avec 1 GW de puissance de calcul dédiée à l'IA) en Essonne. Ce premier projet nommé Eclairion sera suivi d'un second localisé dans la Sarthe à Bessé-sur-Braye si l'on en croit l'annonce faire par Arthur Mensch, le PDG de MistralAI, au Parisien.
Enfin, 400 millions d'€uros sont engagés par la société d'investissement bien gauloise Sesterce, spécialisée dans l'IA et le GPU Cloud, pour qu'un centre de données de plus pousse dans la drôme.
Ça en fait des sous !
Si pour l'instant l'idée de règlementer semble loin, le pari français de motiver les investissements semble gagné. Avec ces $ 109 milliards, la France peut concurrencer le projet StarGate de Muskus et Trumpex à un niveau équivalent. Avec cette action, la France va pouvoir peser face au $ 200 milliards d'investissements annoncés par l'Europe dont Matt' vous parlait tout récemment. Reste à voir comment tout ce joyeux petit monde compte acquérir les infrastructures nécessaires dans un monde où le marché des composants n'est absolument pas un terrain d'égalité et où la géopolitique peut tout très rapidement déstabiliser.
Et la règlementation alors ?
Parce que c'était NOTRE PROJET le programme à la base, le sommet a aussi quand même dû parler de règlementation. Lancer les mots "éthique", "inclusion" et "ouverture" à chaque discours est un superbe effet d'annonce, mais qu'en est-il dans les faits ? L'IA respectera-t-elle l'individu ? Sera-t-elle utilisée pour les bonnes actions ? Sera-t-elle accessible à tous dans les faits ? Jetons un œil au compte rendu du sommet sur le site de notre gouvernement (spoiler : on n'y parle absolument pas des actions prévues sur sol africain).
AI Safety Report
Les chercheurs n'étaient pas là que pour être une caution scientifique, ils ont aussi pu parler et débattre des risques de l'IA via un rapport (accessible ici au complet en anglais). En l'état (et sans que votre serviteur ne soit un expert en la matière), c'est un rapport d'intention proposant des actions visant à protéger l'utilisateur dans sa vie numérique. Il comprend cependant un large panel d'experts et sera étoffé au fil du temps, c'est donc une action louable. La recherche, ça n'est pas très accessible, mais toujours très utile.
Création de l'INESIA
Acronyme pour Institut National pour l’Évaluation et la Sécurité de l'Intelligence Artificielle, c'est donc un institut gouvernemental ouvert le 31 janvier par Clara Chappaz (ministre déléguée chargée de l'intelligence artificielle et du numérique). Il sera piloté par le secrétariat général de la défense et de la sécurité nationale (SGDSN) pour le premier Ministre, parce qu'il faut réarmer hein, la recherche c'est bien mignon, mais l'armée est plus à même de nous protéger. Ah, mais ils ne seront pas seuls ! La DGE (Direction Générale des Entreprise) aura son mot à dire ! On n'a donc rien à craindre. Si l'armée, la police et les plus grosses entreprises françaises ont nos données entre leurs mains, nous sommes à n'en pas douter en sécurité.
Lancement du leaderboad des modèles de langage pour le français
C'est via la société Hugging Face que la Coordination Nationale pour l'IA, accompagnée de l'Education Nationale, l'INRIA, le LNE et le GENCI, vont comparer les modèles de langage pour déceler les plus à l'aise avec la langue française. L'idée est cependant d'améliorer l'utilisation de la langue française par et pour tous les modèles, peu importe leur origine géographique.
Luter contre les DeepFake
Vous ne serez certainement pas passé à côté, les technologies liées à l'IA permettent de créer énormément de choses et donc de faire des faux (mais pas encore des billets de banque). Ainsi, des actions sont menées pour éduquer les populations à la méfiance dans les contenus partagés sur la toile (ou ailleurs). Aujourd'hui l'accent est mis sur un risque d'altération de la perception de la réalité par les citoyens, ce qui n'est quand même pas rien. Mais à force de voir et revoir les mêmes choses si juvabien, c'est juvamine ! notre cerveau peut s'y habituer et finir par croire l'incroyable. Qu'ont-ils au programme alors ? Des IA qui permettent de détecter les faux contenus générés par IA ! Une pointe de moquerie, mais l'idée n'est en soit pas mauvaise, car qui mieux qu'un faussaire pour en détecter un autre ?
L'IA pour la rédaction
Vous n'êtes pas sans savoir que dans le milieu de la rédaction, l'IA a pris une belle place. Sur H&Co nous n'arrivons pas à nous y résoudre (pourtant de gros médias utilisent l'IA pour pouvoir publier plus et prouvent que cela fonctionne côté référencement), mais la pratique existe et se développe. Il commence donc à se parler de règlementation à ce sujet, car publier via IA est certes pratique, mais tout automatiser peut mener à de la désinformation puisque les IA hallucinent lorsqu'elles ne savent pas répondre (leur job est de répondre, donc elles le font même sans données). Rien d'acté pour l'instant, mais il est intéressant de voir que la question se pose, tant pour protéger le travail humain, que pour protéger le lecteur/auditeur face aux informations erronnées.
Renforcer la Cyber-résilience
Ici il va dans un premier temps être question de sécuriser les systèmes d'IA. C'est bien d'avoir un super outil, mais encore faut-il s'assurer qu'il ne puisse pas nous péter à la tronche, via des schémas d'évaluation et un accompagnement des acteurs du milieu. Ensuite, il va être proposé de développer et utiliser des outils de cyber-sécurité incluant de l'IA afin de renforcer leurs capacités (bonjour Robocop et Skynet !) et enfin d'apporter une plus grande connaissance des mésactions faites par IA, parce que oui comme tout outil, il peut être (et est déjà) utilisé à de mauvaises fins.
Protection de la vie privée
Parce que l'on a parlé d'investissement étrangers ou français pour la conception d'énormes centres de données, mais ces centres carburent à la donnée et là dedans il y a un peu de vous. Comment protéger cette part de vous ? En règlementant en amont. Aujourd'hui, nous ne sommes pas les numéro 1 en France (la Suisse peut nous en rapprendre à ce sujet) et il est nécessaire d'acter des choses à ce sujet. Manque de bol, le sujet est évoqué, mais rien n'est pour l'instant proposé ou mis en place. Le document officiel botte en touche en refilant la balle à l'Europe la grande reine de la règlementation.
Alors, l'IA à la française ?
Sans grande surprise, ce sommet pour l'action sur l'IA aura majoritairement été le théâtre d'une vente aux enchères du sol français pour l'avancée de l'IA. D'ailleurs, plusieurs acteurs annoncent construire le plus gros centre de calcul dédié à l'IA jamais vu en Europe (avec 1 GW de puissance de calcul) ce qui va assurer une concurrence rude risquant de précipiter les choses.
La France se doit de faire partie de cette évolution technologique, à moins d'avoir passé les 10 dernières années dans une grotte il n'est pas possible de manquer le fait que l'IA est une technologie qui investit tous les pans de notre société. De vos jeux vidéos à vos téléphones en passant par les commentaires de votre site de vente préféré, les agents, qu'ils soient conversationnels ou pas, sont de plus en plus présent et l'industrie est tellement lucrative que ça n'est pas prêt de s'arrêter. Il faut donc que notre pays faisant partie des grands de ce monde ne loupe pas le coche et capitalise sur ses compétences (parce qu'on a encore des gens super compétents en France, mais de plus en plus dans le privé) pour ne pas rester sur la touche.
Est-ce que ce sommet nous a mis sur la bonne route ? Le capitalisme dirait oui vu l'argent engagé, mais à quel prix ?
Pour les curieux, le rapport complet est par ici
![Bannière de l'auteur Ghiom](/images/system/author-banners/ghiom.webp)
Merci Gui pour cette superbe synthèse ! L'exercice de compilation ne devait certainement pas être maigre et la présentation est excessivement claire, chapeau bas !
Au sujet du droit au respect de la vie privée, en juin dernier (ça date), à l'occasion de rencontres juridiques ayant pour thème "le droit face à l'intelligence artificielle", de grands acteurs du secteur assumaient qu'il était, techniquement, rigoureusement impossible de retirer d'un modèle d'IA des données ayant servi à son entraînement.
Au regard de l'applicabilité du droit européen, en particulier des droits d'opposition, d'accès, de rectification et d'effacement des données personnelles ainsi collectées et compilées, théoriquement protégés par le RGPD, j'interrogeais le fait que l'UE ait permis à ce type d'outils, bafouant manifestement ses règlements, de pénétrer son marché intérieur sans imposer à leurs distributeurs des sanctions record.
Se posait, en creux, la question de la séparation des pouvoirs puisque, manifestement, le législateur européen a décidé de règles que l'exécutif n'entend pas faire respecter, et seul un député invité à la table ronde à semblé trouver cela dérangeant.
L'on pourrait poser, à l'identique, la question de la propriété intellectuelle et des droits d'auteur, car il n'est pas davantage possible de retirer les données pillées ayant servi à l'entraînement d'un modèle d'IA.
Tout ça pour dire que, si l'Union européenne représente le seul pouvoir d'importance qui semble montrer des velléités de régulation du numérique et de l'IA en particulier, elle ne paraît pas rigoureusement déterminée à faire triompher le droit des citoyens européens face aux bénéfices qu'elle pourrait trouver à le raboter pour participer à l'essor de l'IA.