Europe Numerique

Les nouvelles règles européennes sur l'IA commencent maintenant à s'appliquer. Forcément, certains s'en inquiètent...

C'était il y a un an, après un long parcours pour le moins complexe, que la loi européenne sur l'IA avait en fin de compte été adoptée et signée. Entre-temps, d'autres formalités avaient été accomplies pour entériner la législation et préparer sa mise en œuvre, par exemple, telles que la publication de la loi au Journal Officiel de l'Europe pendant l'été 2024. Un an plus tard, depuis dimanche dernier pour être exact, les premières règles du règlement européen sur l'intelligence artificielle ont commencé à s'appliquer aux acteurs commerciaux situés dans l'espace européen.

Avant de continuer, n'hésitez surtout pas à revisiter notre présentation de la loi. Le texte introduit entre autres la définition de ce qu'est un système IA et définit un certain nombre d'usages de l'IA" désormais interdits, et lesquels présentent notamment un "risque inacceptable", peuvent manipuler les comportements et causer préjudices. La loi oblige maintenant aussi les entreprises concernées (telles que les banques) à éduquer ses employés sur leurs systèmes IA. Voici quelques exemples d'usages interdits, pour les détails, il faut consulter l'article 5 : 

  • Le « social scoring » par l'IA qui cause un préjudice injuste ou disproportionné.
  • L'évaluation des risques visant à prédire le comportement criminel uniquement sur la base du profilage.
  • L'identification biométrique à distance en temps réel non autorisée par les forces de l'ordre dans les espaces publics.

Notez que le travail autour de l'"AI Act" n'est pas encore terminé. La Commission européenne doit encore publier les lignes directrices sur la définition d'un système d'IA, un référentiel vivant des pratiques de maitrise de l'IA pour encourager l'apprentissage et les échanges, ainsi que des lignes directrices sur les pratiques d'IA interdites. La prochaine grande étape devrait avoir lieu en avril avec la publication de la version définitive du "Code of Practice for General Purpose AI Models". Ce code entrera à son tour en vigueur pendant l'été et c'est à ce moment-là aussi que les autorités de surveillance des États membres pourront faire appliquer la loi. Soit, mais n'est-ce pas-là faire un peu les choses à l'envers ?

De l'admission d'un des auteurs du texte, ce règlement ne s'applique pour l'instant qu'à un nombre très restreint d'entreprises, principalement dans les domaines bancaires et financiers, de la santé et les forces de l'ordre. Assez naturellement, un bon nombre d'exceptions qui ne surprendront pas sont prévues pour ces dernières, notamment dans leur lutte contre le terrorisme et le trafic humain. En cas de non-respect du règlement, le risque est de se voir infliger une amende représentant jusqu'à 7 % du chiffre d'affaires mondial de l'acteur négligent. 

Évidemment, l'impact de la loi divise. Pour les auteurs du texte, la loi IA n'est pas une contrainte à l'innovation et va au contraire lui permettre de se développer dans un meilleur cadre . La Commission européenne estime aussi que la loi est indispensable en matière d'éthique et de protection des droits. 

Elle met en place les garde-fous ainsi que le cadre de gestion de la qualité et des risques dont elle a besoin pour se développer. Elle ne freine pas l'innovation… Elle permet au contraire l'essor des innovations en IA que nous souhaitons tous voir émerger.

Sans surprise, de son côté, l'industrie de la technologie s'inquiète des conséquences potentiellement négatives sur l'innovation et des désavantages que la loi représente pour les entreprises européennes face à la concurrence internationale. La présidente de la Commission européenne, ainsi que la présidente de la Banque centrale européenne, ont d'ailleurs récemment fait écho à certaines de ces inquiétudes dans une publication commune et ont averti que l'Europe pourrait perdre du terrain dans la course mondiale à l'IA. Mais tout en insistant au passage que toutes les conditions sont désormais réunies pour permettre à l'Europe de revenir dans la course.
Un investissement de 56 millions d'euros en faveur de l'IA open-source a d'ailleurs été annoncé ce début de mois. Certes, la somme peut paraitre risible par rapport au plan "Stargate" de 500 milliards annoncé outre-Atlantique, ou encore, par rapport au cout réel estimé de 1,6 milliard (266 plus élevé qu'annoncé initialement) de l'IA chinoise de DeepSeek... Mais qui sait, en supposant que l'investissement soit bien ciblé et que ce n'est probablement qu'un début, tout n'est pas encore forcément perdu dans une course qui ne fait encore que commencer. Au moins, nous aurons une IA... sympa ? (Source : Europe, Hardwareluxx)

Parlement Ue Bruxelles

Matt


  • Bah la reglementation en elle même est saine même si comme d'hab beaucoup trop vague pour un domaine si précis -> ou sont les exigeances claires, du type "les modèles seront évalués sur 7232122 questions types", le problème c'est que l'Europe est déjà à la ramasse côté IA. 
    Je me souviens du "human brain project" centré sur la simulation informatique du cerveau humain (et avec comme ligne de mire l'IA justement) dans lequel l'Europe a balancé plus d'un milliard pour au final sortir quelques articles peu cités. Pendant ce temps là, les GAFAM américains ont fait GPT-chat et tous ses émules (gemini, grok,..) ou les alternatives "open source" (Llama et maintenant deepseel r1 chez les chinois).
    Alors certes il y a bien Mistral , startup française un peu sombrée dans l'oubli depuis la hype de 2023 mais les investissements massifs de Microsoft dedans et le fait que leur entrainement se fait aux US relativise beaucoup le côté "français". En plus ils abandonnent progressivement l'open source pour une licence hybride (gratuit pour la recherche, payant pour le reste)
    Donc pour moi réglementer, c'est bien mais il faudrait aussi investir 1000 fois plus qu'actuellement (50 millards ça semble même pas si énorme par rapport à la valorisation des boites liées à l'IA, même si ça ressemble un peu à une bulle). 
    Dans la même série des commités bidulle pendant que les boites américaines entrainent leurs nouveaux modèles et s'accaparent toutes les reccettes commerciales liés à l'IA  : https://www.entreprises.gouv.fr/espace-presse/le-gouvernement-annonce-la-creation-de-linstitut-national-pour-levaluation-et-la

  • À quel moment ils annoncent qu ils vont encore donner nos millions d impôts à ce  cinglé de Thierry Breton pour être bien sûr qu on jette notre argent par la fenetre

    Notre car déjà qu on nous pond un nième ministère en France cette fois un ministère de l IA quand faudra supprimé des couches et des couches dans tout nos ministères juste consu pour nous faire nos poche et qui font triplons avec les services régionaux et cette saleté de Bruxelles "commission" Europe

    Qui vient faire son ramassage de fric avec son caddy tout les mois dans nos poches

    • Monsieur Breton, que nous aimons tant, ne travaille plus à la Commission, mais pour Bank of America. Il se murmure qu'il y superviserait la vente de L'Oréal aux ricains.

  • C'est intéressant leur texte. On y trouve des choses comme celle où les forces de l'ordre doivent enregistrer leur utilisaton exceptionnelle de l'IA dans un dossier de l'UE. Ou encore que la juridiction d'un état membre, si jugée pertinente par la commission, doit être appliquée dans tous les autres états membres. L'UE est donc de facto un état fédéral. Qui a voté pour ça?

    Intéressant également les contraintes sur les données pour les IA à haut risque (III-2-10):

    Les ensembles de données de formation, de validation et d'essai sont pertinents, suffisamment représentatifs et, dans la mesure du possible, exempts d'erreurs et complets au regard de l'objectif visé.

    l'examen en vue d'éventuels biais susceptibles d'affecter la santé et la sécurité des personnes, d'avoir une incidence négative sur les droits fondamentaux ou d'entraîner une discrimination interdite par le droit de l'Union, en particulier lorsque les données de sortie influencent les données d'entrée pour des opérations futures ;

    C'est tellement vague, n'importe qui peut attaquer la boite qui fait l'IA. Mais vu les tendances qu'on peut observer à la Commission, on se doute qu'il faudra suivre un certain système de pensée.

    Surtout, quelle bureaucratie! Il faut tout noter! La masse d'infos à transmettre semble tellement gigantesque qu'une IA dédiée à la bureaucratie de l'UE ne serait pas de trop pour faire ce sale boulot 😅

6 commentaires

Laissez votre commentaire

En réponse à Some User