CE QUE VOUS ALLEZ APPRENDRE DANS CET ARTICLE
L’Union européenne souhaite encadrer le développement de l’intelligence artificielle, tout en favorisant l’innovation technologique.
L’UE met en place les conditions pour que les données, moteurs de l’intelligence artificielle, circulent plus facilement dans l’UE et puissent être réutilisées sans porter atteinte à la vie privée des Européens.
Un projet de règlement prévoit aussi de classer les systèmes d’IA selon les risques qu’ils font porter aux droits fondamentaux, de “minime” à “inacceptable”. Avec plus ou moins de contraintes, voire un bannissement pour les technologies les plus controversées considérées comme “inacceptables” (notation sociale, reconnaissance biométrique à distance en temps réel…).
Une intelligence artificielle qui bat un pilote humain lors d’une course de drones en Suisse, un programme informatique qui remporte un tournoi de mots croisés aux Etats-Unis ou encore un robot champion de poker… Depuis quelques années, les exploits de l’intelligence artificielle se multiplient. Le lancement en novembre 2022 du logiciel de conversation ChatGPT, capable de générer des textes à la demande, semble avoir accéléré le phénomène. Ou au moins sa médiatisation.
Au-delà de ces quelques exemples, l’IA prend une place de plus en plus importante dans l’économie et les sociétés. Mais ses applications diverses, balbutiantes ou bien installées dans des secteurs d’activités variés, rendent sa régulation difficile au regard des enjeux industriels et éthiques qui l’accompagnent.
Dans sa proposition de règlement d’avril 2021, la Commission européenne a choisi une définition large de l’intelligence artificielle, la désignant comme un logiciel “qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit”. Cette approche vaste fait écho aux deux piliers de l’IA cités par le député français Cédric Villani dans un rapport parlementaire de 2018 : “comprendre comment fonctionne la cognition humaine et la reproduire ; créer des processus cognitifs comparables à ceux de l’être humain”.
L’enjeu central de la stratégie européenne en la matière pourrait être résumé ainsi : développer l’intelligence artificielle, ainsi que ses potentialités sociales et économiques, tout en encadrant les risques qu’elle fait peser sur les droits fondamentaux des êtres humains. A côté des utilisations ludiques de l’IA, des pratiques plus controversées se sont en effet développées : reconnaissance biométrique de masse, développement des vidéos deepfake, notation des citoyens selon leurs comportements en Chine, ou encore traitement à grande échelle des données personnelles par les multinationales américaines du numérique, dans un but commercial ou politique.
À LIRE AUSSILa politique numérique de l’Union européenneFace aux modèles des deux autres grandes puissances mondiales, dans quelle mesure l’Europe peut-elle creuser son propre sillon en matière d’intelligence artificielle ?
Favoriser le développement de l’IA en EuropeDevant le constat d’un certain retard par rapport aux Américains et aux Chinois en matière d’intelligence artificielle, une des priorités des autorités européennes est ainsi de créer un marché unique des données. Celles-ci sont au cœur de l’IA : elles permettent à un programme informatique d’apprendre à discerner des images, des sons ou des comportements. Un bien rentable, qui explique en partie pourquoi nos données personnelles et l’activité en ligne des internautes sont devenues une marchandise dans les modèles économiques des géants du numérique.
Le 19 février 2020, la Commission européenne a publié une stratégie dédiée, dans laquelle l’ambition est clairement affichée : “l’objectif est de créer un espace européen unique des données, un véritable marché unique des données”. Celles-ci doivent ainsi mieux circuler entre les différents pays et secteurs d’activités de l’UE, tout en respectant les règles européennes de concurrence et de protection de la vie privée. Ce marché unique est déjà en cours de construction : depuis 2016, le Règlement général sur la protection des données (RGPD) encadre l’utilisation des données personnelles, en conférant notamment aux utilisateurs un droit à l’information, à la portabilité ou à l’oubli de leurs données. En parallèle, un règlement de 2018 avait aboli les restrictions de circulation des données à caractère non personnel, c’est-à-dire celles qui ne portent pas sur des individus en particulier. C’est par exemple le cas des informations sur l’utilisation de l’eau ou des pesticides dans l’agriculture. Les Etats membres ne peuvent donc pas exiger une localisation précise du traitement de ces données, ce qui ferait peser le risque d’une distorsion de la concurrence au sein du marché de l’UE. De plus, une directive de 2019 assure que les données ouvertes des organismes publics des Etats membres sont librement réutilisables et consultables, notamment celles concernant l’observation de la terre et de l’environnement, les statistiques ou encore les mobilités.
Plus récemment, la loi européenne sur la gouvernance des données – ou Data Governance Act – est allée plus loin. Pleinement applicable en septembre 2023, elle pose les bases d’un mécanisme harmonisé de réutilisation de certaines données protégées du secteur public, comme celles qui relèvent des droits de propriété intellectuelle. Dans les faits, des intermédiaires de données fonctionneront comme des tiers neutres qui pourront mettre en relation des individus et des entreprises d’un côté avec des utilisateurs de données de l’autre, sans pouvoir monétiser les informations collectées.
Des dispositions y sont également prévues afin de faciliter le traitement d’informations personnelles, recueillies avec le consentement des individus concernés, à des fins non commerciales, pour la recherche médicale, la lutte contre le changement climatique ou l’amélioration des services publics par exemple. C’est ce qui est appelé “l’altruisme des données”.
À LIRE AUSSIDonnées personnelles : que prévoit l’Union européenne ?Toujours sur le plan réglementaire, la Commission a présenté dans sa proposition de règlement d’avril 2021 un cadre juridique pour les “bacs à sable réglementaires” en matière d’intelligence artificielle. Ces dispositifs permettent aux entreprises de tester ponctuellement leurs technologies sans avoir à respecter l’intégralité de la législation, au sujet notamment des données personnelles. Les autorités désignées par les Etats membres ou le Contrôleur européen de la protection des données seraient alors chargées de surveiller ces initiatives, dont les données personnelles qu’elles utilisent ne doivent pas être transmises ou utilisées par des tiers. L’article 55 du texte prévoit par ailleurs un accès privilégié à ces exceptions pour les PME et les jeunes entreprises.
L’UE compte également investir. L’objectif affiché dans le nouveau plan coordonné sur l’intelligence artificielle est “d’augmenter progressivement les investissements publics et privés dans l’IA pour atteindre un total de 20 milliards d’euros par an” en Europe. Une utilisation efficace des données implique ainsi d’investir à la fois dans des infrastructures, notamment de collecte puis de traitement des data, et dans les compétences numériques des Européens. Aussi, le plan d’avril 2021 insiste-t-il sur la nécessité d’augmenter le nombre de professionnels de haut niveau formés à l’intelligence artificielle. Il s’agit notamment de soutenir les initiatives de reconnaissance mutuelle, entre pays européens, des formations spécialisées dans l’IA ainsi que le développement de nouveaux programmes éducatifs dédiés aux nouvelles technologies dans l’UE.
Les programmes de financement de l’UE sont donc mobilisés : la Commission a proposé qu’au moins 1 milliard d’euros des dispositifs Digital Europe et Horizon Europe soient consacrés chaque année à des projets concernant l’intelligence artificielle. Sans compter le plan de relance européen, dont les déclinaisons nationales doivent contribuer pour 20 % à la transition numérique des Etats membres, et qui contient des mesures sur l’IA. L’UE a déjà financé plusieurs initiatives, comme Fabulos qui teste des mini-bus autonomes dans plusieurs villes, ou Nevermind, une chemise connectée à un smartphone qui promet aux personnes atteintes de dépression de prévenir une rechute en analysant leurs modes de vie.
À LIRE AUSSIDigital Europe, le programme pour une Europe numériqueÀ LIRE AUSSIHorizon 2020, le programme pour la recherche et l’innovationUne communication intitulée “L’intelligence artificielle pour l’Europe” avait été publiée en avril 2018. La proposition de règlement d’avril 2021 s’appuie sur des travaux préparatoires menés avec un groupe d’experts sur l’IA, composé de 52 membres, qui a fait connaître ses lignes directrices au printemps 2019. Au début de l’année 2020, la Commission avait également dévoilé son Livre blanc pour une approche européenne en matière d’IA basée sur “l’excellence et la confiance”.
Une approche par les risquesLa Commission européenne considère donc que les nouvelles technologies liées à l’IA sont une chance et qu’elles sont porteuses de nombreux bénéfices sociaux et économiques dans des secteurs tels que l’agriculture, les mobilités et la santé. Toutefois, elle part également du principe que l’IA peut porter atteinte aux droits fondamentaux des citoyens comme le droit à la dignité humaine, le respect de la vie privée et le principe de non-discrimination. C’est pourquoi elle a fait le choix d’une approche par les risques pour une intelligence artificielle “digne de confiance”. Quatre catégories sont distinguées dans la proposition de règlement d’avril 2021.
Concernant les systèmes à risque élevé, des normes de qualité et de sécurité s’appliquent, telles que la traçabilité de l’utilisation de la technologie (article 12), la transparence vis-à-vis des utilisateurs (article 13) ainsi que la nécessité d’un contrôle humain (article 14). Ils doivent par ailleurs “atteindre un niveau approprié d’exactitude, de robustesse et de cybersécurité” (article 15). Des contrôles ex ante et ex post sont également prévus. Le fournisseur devra enregistrer officiellement son système d’intelligence artificielle dans une base de données de l’UE après une évaluation de sa conformité aux exigences décrites ici (articles 51 et 60).
Les sanctions pourront aller jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires en cas de non-respect des règles relatives aux pratiques prohibées ou à l’usage des données.
Concernant les applications comportant un risque faible ou minimal d’atteinte aux droits fondamentaux, les fournisseurs sont encouragés à appliquer, sur la base du volontariat, des codes de conduite facultatifs. La Commission prévoit la création d’un Comité européen de l’intelligence artificielle afin de coordonner toutes ces mesures.
La proposition de règlement s’appuie sur l’article 114 du TFUE concernant les mesures destinées à renforcer le marché intérieur européen. La Commission fonde également ces dispositions en droit sur l’article 16 du TFUE qui dispose que “toute personne a droit à la protection des données à caractère personnel la concernant”.
Le Parlement européen se prononceLe Parlement européen a adopté sa position concernant le règlement sur l’IA le 14 juin 2023. En mai, les eurodéputés des commissions des libertés civiles et du marché intérieur avaient déjà adopté des amendements afin d’enrichir le règlement… et le durcir. Ces dispositions ont été approuvées à une large majorité lors de la session plénière de juin.
Les eurodéputés ont élargi la liste des technologies qui entrent dans la catégorie des “risques inacceptables”, afin de bannir de l’UE une utilisation “intrusive et discriminatoire de l’IA”. Cela comprend notamment les systèmes de police prédictifs fondés sur le profilage, la localisation ou les antécédents judiciaires, les systèmes de reconnaissance des émotions (dans les domaines de la justice, des frontières, sur le lieu de travail et dans l’enseignement), ou encore la reconnaissance biométrique à distance en temps réel dans l’espace public. La position du Parlement introduit par ailleurs des mesures concernant les applications d’IA génératives, telles que ChatGPT ou MidJourney, qui se verraient obligées de labelliser leurs contenus pour indiquer aux utilisateurs qu’ils sont en présence d’un texte ou d’une image créée par une IA. Les députés européens veulent aussi prévenir la génération de contenus illégaux et que soit rendue public l’utilisation de données protégées par le droit d’auteur lorsqu’elles sont utilisées pour l’entraînement des algorithmes.
Les élus ont par ailleurs ajouté à la liste des technologies à risque élevé celles utilisées pour influencer les électeurs lors de campagnes politiques. Tout comme les systèmes de recommandations des réseaux sociaux, afin de compléter le Digital Services Act (DSA) déjà entré en application.
“Alors que les grandes entreprises technologiques tirent la sonnette d’alarme au sujet de leurs propres créations, l’Europe est allée de l’avant et a proposé une réponse concrète aux risques que l’IA commence à poser”, a déclaré à l’issue du vote le rapporteur italien Brando Benifei (S&D). D’où la volonté d’appliquer une définition large de l’IA, qui permettrait de prendre en compte les futures innovations dans ce domaine.
À LIRE AUSSIIntelligence artificielle : le Parlement européen veut renforcer les règles dans l’UELes Etats membres, réunis au Conseil, avaient quant à eux adopté leur position le 6 décembre 2022. Les ministres avaient restreint la définition de l’IA “à des systèmes développés au moyen d’apprentissage automatique et d’approches fondées sur la logique et les connaissances”. Le Conseil a aussi étendu aux acteurs privés l’interdiction d’utiliser l’IA à des fins de notation sociale, là où la Commission l’appliquait aux seules autorités publiques.
L’examen du texte en trilogue a débuté dès le 14 juin, dans l’objectif de finaliser la législation avant la fin de l’année. Elle devrait entrer en application d’ici 2026.
La recherche de l’équilibreAprès la publication de cette proposition de règlement en 2021, plusieurs organismes avaient critiqué le document, soulignant un mauvais équilibre entre, d’un côté, la régulation des pratiques risquées et, de l’autre, l’encouragement à l’innovation. Le Center for data innovation estime ainsi que la proposition en l’état actuel risquerait de réduire de 20 % les investissements dans l’IA en Europe. L’association pointe du doigt en particulier les coûts de mise en conformité, potentiellement élevés pour les entreprises, concernant les systèmes d’intelligence artificielle considérés comme à haut risque.
De l’autre, plusieurs associations et ONG, dont Amnesty international et l’International Freedom Foundation (IFF), appellent les législateurs à bannir complètement le recours à la “reconnaissance faciale et à la reconnaissance biométrique à distance permettant une surveillance de masse”. Un sujet sur lequel Etats membres et députés européens ne sont pas d’accord : ces derniers souhaitent bannir les technologies utilisant la reconnaissance en temps réel, là où le Conseil invoque la lutte contre le terrorisme pour introduire des exceptions dans cette interdiction.
Dans un avis commun sur cette proposition de la Commission, le Comité européen de la protection des données (EDPB) et le Contrôleur européen de la protection des données (EDPS) estiment que plusieurs applications de l’intelligence artificielle manquent dans la catégorie “risque élevé”, comme celles destinées à déterminer une prime d’assurance, à évaluer des traitements médicaux ou à des fins de recherche en santé. Plus encore, les deux organes considèrent également que certaines formes intrusives d’IA doivent être prohibées, comme la notation sociale par les entreprises privées qui peuvent amasser de grosses quantités de données (l’interdiction dans la proposition de la Commission s’appliquant seulement aux pouvoirs publics dans ce domaine, pour rappel) ou les technologies permettant de déduire les émotions d’une personne.
Plus largement, les critiques portent sur le flou de certaines définitions et les imprécisions de certaines mesures. Dans une tribune parue dans Le Monde, le politiste Charles Thibout parie sur le fait que “les conflits d’interprétation seront nombreux”. Par exemple sur l’interdiction de la reconnaissance faciale “en temps réel”, laquelle demeure possible “dans un délai signifiant”, sous certaines conditions. Des questions que pourront soulever le Conseil et le Parlement, qui doivent encore se mettre d’accord avant que le règlement n’entre en vigueur.
À LIRE AUSSICybersécurité : que fait l’Union européenne ?Dans le plan conjoint de 2021, les Etats membres et la Commission ont défini plusieurs domaines d’avenir : l’environnement, la santé, les services publics, les mobilités, la robotique, la gestion des migrations et l’agriculture. L’Union européenne a par ailleurs des structures de dialogues bilatéraux avec le Japon et le Canada, et participe aux travaux de l’OCDE sur l’intelligence artificielle.
L’article Intelligence artificielle : que fait l’Union européenne ? est apparu en premier sur Touteleurope.eu.
Dernière ligne droite pour une nouvelle régulation du numérique dans l’Union européenne. A une écrasante majorité, les eurodéputés ont adopté mercredi 14 juin leur position sur une législation visant l’intelligence artificielle (499 voix pour, 28 contre et 93 abstentions).
Proposé par la Commission européenne en avril 2021, le texte ambitionne à la fois de développer l’intelligence artificielle face aux concurrences américaine ou chinoise et d’encadrer les risques qu’elle fait peser sur les droits fondamentaux des êtres humains. Certaines pratiques seraient bannies de l’UE, à l’image de la notation sociale pour évaluer les citoyens selon leur comportement.
Les eurodéputés ont approuvé une version renforcée du règlement, incluant une interdiction de la reconnaissance biométrique à distance. A l’issue du vote, la présidente du Parlement européen Roberta Metsola a salué “l’approche équilibrée et centrée sur l’humain” du texte. “Il n’y aura pas de compromis possible : dès que la technologie avance, il faut que cela aille de pair avec le respect des droits fondamentaux et des valeurs démocratiques”, a-t-elle ajouté, citant par exemple la protection de la vie privée.
Le règlement doit encore faire l’objet d’un accord entre eurodéputés et Etats membres. L’Union européenne entend ainsi être la première au monde à se doter d’un cadre juridique exhaustif pour encourager l’innovation, tout en limitant les dérives de l’IA. L’enjeu est de taille, les technologies concernées par le texte allant des filtres anti-spams des boîtes mails, a priori inoffensifs, jusqu’aux outils plus controversés d’identification des individus dans l’espace public.
Interdiction de la reconnaissance biométrique à distanceL’un des sujets les plus sensibles de ce texte était justement la reconnaissance biométrique à distance en direct, cette technique qui permet par exemple à une caméra d’identifier une personne dans une foule. Les conservateurs du Parti populaire européen (PPE) voulaient introduire des exceptions pour que les forces de police puissent utiliser ces outils sous certaines conditions.
C’est finalement une interdiction totale de la reconnaissance en temps réel qui a été approuvée par les parlementaires à Strasbourg. “Nous devons avoir le courage d’interdire les usages qui sont inacceptables”, a défendu le rapporteur italien Brando Benifei (S&D).
Les Etats membres ne sont pas de cet avis. Leur position votée en décembre dernier prévoit que la police puisse utiliser la reconnaissance fondée sur des données biométriques en cas d’attaque terroriste ou pour rechercher un enfant disparu. Ces opérations seraient réalisées sous la houlette d’une autorité indépendante, judiciaire ou administrative. La version proposée par la Commission européenne en 2021 ouvrait déjà la voie à la reconnaissance biométrique à distance et en direct pour les mêmes raisons.
À LIRE AUSSIIntelligence artificielle : que fait l’Union européenne ?Parmi les interdictions réclamées par le Parlement européen, figure également les systèmes de reconnaissance des émotions utilisés par les forces de l’ordre, pour la gestion des frontières, au travail et à l’école. Une nouveauté par rapport à la position du Conseil, qui a seulement introduit une obligation d’informer les utilisateurs s’ils sont soumis à une IA pouvant reconnaître leur enthousiasme ou leur colère. “Les émotions ne peuvent pas être numérisées. La volonté, le jugement, la conscience nous appartiennent”, a insisté la présidente du Parlement européen Roberta Metsola.
La police prédictive fondée sur les données personnelles ou la création de bases de données de reconnaissance faciale via la vidéosurveillance ont également été ajoutées à la liste des interdictions par les députés européens.
ChatGPT dans le viseurLa règlementation doit aussi concerner les IA génératives, telles que ChatGPT ou MidJourney. Ces systèmes sont capables de générer des textes, des sons ou des images en réutilisant des contenus déjà existants.
Les députés européens ont introduit une plus grande protection du droit d’auteur. L’utilisation de données couvertes par la propriété intellectuelle pour l’entraînement des outils d’intelligence artificielle devra être rendue publique.
Les systèmes d’IA générative devront aussi respecter d’autres exigences de transparence, en mentionnant par exemple aux utilisateurs que le contenu a été généré par de l’intelligence artificielle. Les concepteurs auront par ailleurs l’obligation d’offrir des garanties contre la génération de contenus illicites.
Les rapporteurs du Parlement européen défendent un texte “équilibré” qui ne bride pas l’innovation en matière d’IA en Europe. Les eurodéputés ont ainsi prévu des exceptions pour les activités de recherche et les composants d’intelligence artificielle sous licence libre.
À LIRE AUSSILa politique numérique de l’Union européenne Et ensuite ?Le Parlement européen est désormais prêt à négocier avec les Etats membres et la Commission européenne en trilogue. Reste que le règlement ne devrait pas entrer en application avant 2026, dans le meilleur des cas, les délais d’application étant souvent de deux ans. La présidente Roberta Metsola a toutefois admis des “inquiétudes” face aux risques de manipulation à l’approche des élections européennes de juin 2024. De là à accélérer l’entrée en vigueur du règlement si un accord intervenait rapidement entre les institutions ? “Il est possible que les entreprises s’alignent sur ces règles en amont de l’application de la législation”, a avancé le député Brando Benifei.
Signe que les législateurs de l’UE tiennent à ce texte, ces discussions doivent débuter dès mercredi soir. Parmi d’autres, le sujet de l’identification biométrique à distance fera sans doute l’objet de longues heures de négociations entre eurodéputés et Etats membres. Le corapporteur roumain Dragoş Tudorache (Renew) l’a admis mercredi : “Nous avons du pain sur la planche avec le Conseil”.
À LIRE AUSSIIntelligence artificielle : le Parlement européen se prononce en faveur d’un encadrement plus strictÀ LIRE AUSSI[Infographie] Le Parlement européen 2019-2024L’article Intelligence artificielle : le Parlement européen veut renforcer les règles dans l’UE est apparu en premier sur Touteleurope.eu.
La question de la réparabilité des produits est un sujet hautement emblématique de l’action de notre Comité pour deux raisons. D’abord, parce qu’elle s’inscrit dans une longue dynamique ancrée sur la protection des consommateurs, notamment pour la durabilité des produits ou contre les allégations environnementales trompeuses. Ensuite parce que, sur ces sujets, nous réussissons presque toujours à atteindre une très large majorité lors des votes en session plénière.
L’avis INT/1015, « Droit à la réparabilité » que j’ai co-rédigé avec Emilie Prouzet (Co-rapporteuse), adopté en séance plénière le 14 juin 2023 (177 voix pour, 1 abstention, 1 contre), marque un rapprochement toujours plus fort entre les enjeux de consommation et ceux de protection de l’environnement. Des produits réparés nécessitent moins d’extraction de matières premières, notamment au regard des enjeux de matériaux critiques, et surtout moins de mise en décharge à l’heure où l’on évalue à 7,4 millions de tonnes par an les déchets issus des filières électrique et électronique des produits qui auraient pu être réparés dans l’Union européenne.
Dans notre avis, nous soutenons la proposition de la Commission (22 mars 2023), mais nous lui demandons d’aller plus loin, afin que le droit à la réparation ne soit pas un droit purement théorique. Cela passera par l’interdiction de certaines pratiques visant à empêcher la réparation, à l’exemple de la sérialisation (produits conçus de telle sorte que seul le fabricant peut le réparer), mais également par le soutien aux produits reconditionnés et aux imprimantes 3D, un soutien effectif aux réparateurs, notamment pour leur formation. Il faudra aussi mieux sensibiliser les consommateurs qui ont pour beaucoup perdu le réflexe de faire réparer leurs produits au profit du simple remplacement. L’action en la matière ne peut être que globale et concerner tous les acteurs.
À LIRE AUSSIThierry Libaert : “Faire du consommateur européen un levier de la transition écologique”L’article Thierry Libaert (CESE) : “Pour un véritable droit européen à la réparabilité” est apparu en premier sur Touteleurope.eu.