Parlement Europeen Numerique

De multiples dangers entourent l'utilisation de l'IA et de la reconnaissance biométrique. Et si le sauveur était le Parlement européen ?

La commission spéciale sur l'intelligence artificielle à l'ère numérique, créée à l'initiative du Parlement européen le 18 juin 2020, était pensée pour présenter une feuille de route pour la gestion de l'IA par l'Union Européenne (UE). Ses travaux ont abouti sur un projet de réglementation sur l'intelligence artificielle (Artificial Intelligence Digital Act ; AIDA), qui a été amendé et adopté par le Parlement européen presque 3 ans après, soit le 14 juin dernier. Il s'agirait du premier projet au monde à encadrer juridiquement l'emploi de l'IA de manière globale.

Une liste des avantages et des dangers clairement déterminée

Les avantages de l'IA sont réels et multiples et le Parlement est sensible aux arguments solides présentés par les thinktanks et lobbies de ce secteur d'activité :

  • Pour les citoyens, l'utilisation d'IA peut permettre des services, publics et privés, plus performants, mieux adaptés et moins couteux (santé, transport, énergie, gestion des déchets, accès à l'information, à l'éducation ou la formation, délégation de tâches dangereuses à des bots, création de nouveaux emplois...) ;
  • Pour les entreprises, elle peut favoriser l'aide au développement de nouveaux produits et services pour permettre aux entreprises européennes de s'assurer des places de leaders sur différents marchés (économie verte et circulaire, machinerie, agriculture, santé, mode, tourisme...), améliorer la maintenance des machines, augmenter le rendement, permettre des économies d'énergies, etc. ;
  • Pour la démocratie, utilisée de façon vertueuse, elle peut contribuer à la lutte contre la désinformation et les cyber-attaques et atténuer les risques de préjudices discriminatoires lors d'une embauche, par exemple.

En ce qui concerne les inconvénients, le législateur européen se montre particulièrement vigilant quant aux risques et défis qui sont très nombreux :

  • Risques de sous-exploitation de l'IA qui pourrait fragiliser l'UE sur les marchés internationaux par défaut de compétitivité ;
  • Risques de sur-exploitation de l'IA qui serait aussi dangereuse et pourrait présenter un risque financier ou créer de nombreux problèmes si elle était utilisée pour de mauvais usages, notamment pour des procédures pénales ;
  • Risques de mathwashing si l'on en venait à considérer que l'IA est factuelle pour traiter de réalités sociales complexes, alors qu'elle contient des biais structurels ;
  • Risques d'atteintes graves au droit à la vie privée ou à la protection des données, notamment par la reconnaissance biométrique ou la traque de personnes en ligne ;
  • Risques sérieux pour la démocratie puisque les algorithmes sont responsables des chambres d'écho, ne proposant aux individus que des contenus avec lesquels ils sont d'accord, sans jamais les confronter aux idées et avis opposés ;
  • L'IA est utilisée pour les deepfakes et peut être un outil dangereux de désinformation ;
  • Sur l'emploi, l'IA est susceptible de causer un chômage structurel à long terme et, même si elle peut susciter l'émergence de nouveaux emplois, ils nécessiteront des formations adaptées et longues ;
  • Sur la concurrence, la collecte massive de données peut fausser les équilibres et permettre d'éliminer les acteurs ayant accès à moins d'informations ;
  • Sur la sécurité, l'IA utilisée dans les armes ou autour du corps peut être sujette au piratage et à une perte de contrôle humain ;
  • Sur la transparence, de nombreux risques sont inhérents à l'utilisation d'IA : complexité pour une personne de déterminer si elle s'adresse à quelqu'un d'autre ou à une IA, messages politiques qui pourraient être modifiés automatiquement pour être personnalisés aux destinataires, prédiction de la disposition à payer d'une personne pour lui vendre un produit au prix maximal, etc.

Le constat qu'il tire de ces listes est sans appel : il est impératif de légiférer, rapidement, pour encourager le développement de l'IA tout en empêchant ses dérives sauvages et dangereuses.

Ce mercredi 14 juin a donc été adopté par le Parlement européen une position qui comporte des interdictions d'usage strictes, des obligations générales, des catégorisations et des incitations.

Traçages biométriques interdits

Pas question pour l'UE de suivre les pas de la République Populaire de Chine qui pratique notamment du social rating (notation sociale) et la emotional recognition (reconnaissance des émotions) qui permet, par exemple, de détecter la fatigue d'un chauffeur routier.

Mais au-delà de ce qui se pratique dans les régimes dits répressifs, l'interdiction de tout système d'identification biométrique, en temps réel comme a posteriori, dans les espaces accessibles au public, sauf pour la poursuite des crimes les plus graves et uniquement après l'autorisation d'un juge risque de heurter radicalement certains des Gouvernements de l'Union, à commencer par la France.

Le Parlement européen ne s'arrête pas là car il interdit strictement toute identification biométrique utilisant des données sensibles (voir notre dossier), ainsi que les systèmes de police prédictive et la saisie indiscriminée d'images provenant d'internet ou de vidéosurveillance en vue de créer des bases de données de reconnaissance faciale. Il est possible de relever, au passage, que le Parlement européen utilise toujours le terme vidéosurveillance et pas celui de vidéoprotection comme c'est désormais régulièrement le cas en France.

Le cas des IA généralistes

Les IA généralistes, tels ChatGPT ou Midjourney par exemple, seront tenues par ce règlement d'être transparentes et d'indiquer si un contenu a été généré par IA. Elles devront également offrir des garanties contre la génération de contenus illicites et devront publier des résumés détaillés des données protégées par le droit d'auteur qui ont été utilisées dans leur entraînement. Leurs modèles devront impérativement être enregistrés dans la base de données de l'Union Européenne avant leur mise en circulation sur le marché.

La responsabilité d'accomplissement de ces formalités sera directement imputable aux fournisseurs de ces logiciels et systèmes qui seront également tenus d'évaluer et atténuer les risques potentiels.

En cas de manquement, les entreprises pourraient être contraintes à supprimer leur application ou susceptibles d'être condamnées à une amende pouvant aller jusqu'à 7% de leurs revenus.

Classification et responsabilité

Certains systèmes d'IA sont considérés à haut risque et il s'agit, non seulement de ceux susceptibles de porter gravement atteinte à la santé, à la sécurité et aux droits fondamentaux des personnes ou de l'environnement, mais également de tous les algorithmes utilisés dans les systèmes de recommandation des réseaux sociaux ayant plus de 45 millions d'utilisateurs. Ces derniers feront donc l'objet d'une surveillance et de règles particulières, destinées à lutter contre la création de chambres d'écho.

Pour renforcer l'accès au droit, les députés européens désirent permettre aux citoyens de porter plainte contre les systèmes d'IA ou de réclamer des explications sur les décisions critiques qui les concernent et ont été prises à l'aide d'une IA. En plus d'un possible contrôle humain, une documentation technique ou encore un système de gestion des risques doivent être mis à disposition du public concerné.

Quelques mesures favorisant le développement

Comme cela a été expliqué plus avant, trop freiner le développement des systèmes d'IA lèserait l'UE face à l'international et différentes dispositions assouplissent ce règlement pour encourager la recherche et les PME.

Ainsi, des exceptions concernent les activités de recherche (universitaires et privées) ainsi que "les composants d'IA fournis dans le cadre de licences libres". Il en va de même des environnements d'expérimentation réglementaires qui seront mis en place par les autorités publiques.

Et ensuite ?

Cette position va désormais devoir être débattue avec le Conseil de l'Union Européenne (qui regroupe les ministres concernés de tous les États membres) et ce ne sera certainement pas facile tant certains prennent les devants pour autoriser des collectes et traitements à des fins sécuritaires qui n'auraient pas pu être adoptés si cette réglementation était en vigueur. C'est en particulier le cas de la France avec sa loi JO 2024 ou la proposition de loi sur la reconnaissance biométrique, en cours d'examen parlementaire qui sont des premières au sein de l'Union.

Malgré l'urgence et le besoin d'uniformiser les règles au sein de l'UE afin d'être en mesure de les faire appliquer, il semble peu probable que ce règlement soit ratifié et en application avant l'année 2026 au plus tôt.

Vous pouvez retrouver le communiqué de presse (en Français) ou le texte adopté sur le site du Parlement européen

Vaark


  • Superbe article comme d'hab', comme je le disais dans une autre brève, je suis pour l'IA mais "contrôler", c'est dur de se dire que quotidiennement on le sollicite "sans le savoir":

    • IA oui pour la recherche scientifique (prédilection de catastrophe naturel, recherche de remède contre le cancer et j'en passe)
    • Oui pour le développement d'entreprise (pour des prises de décision à risque)
    • Oui de façon ludique (pour le jeux entre autre)
    • Sécurisation du territoire sans en abuser par les autorité compétentes (biométrie?)

    Je peux me tromper mais j'ai l'impression, que l'UE est pour, MAIS souhaite une transparence et avoir une certaine "mainmise" là dessus (à raison évidente),

    Ce qui me chiffone et qui le deviendra dans un avenir proche, c'est la militarisation de cette outil (je n'ai pas dit technologie)..

    Merci pour cet article de qualitad'. 😉

Un commentaire

Laissez votre commentaire

En réponse à Some User