L’AI Act européen entre en vigueur (update)
En décembre dernier, les négociateurs du Parlement et du Conseil européens étaient parvenus à un accord concernant la réglementation de l'intelligence artificielle. Le Parlement européen a approuvé la législation en mars de cette année. Le texte est entré en vigueur le 1er août.
Mise à jour du 2 août 2024: L'AI Act de l'UE est entré en vigueur le 1er août 2024. Dans le communiqué de la Commission européenne, la vice-présidente exécutive Margrethe Vestager explique que l'intelligence artificielle promet de nombreux avantages pour les personnes, la société et l'économie. «L’approche européenne de la technologie place les citoyens au premier plan et veille à ce que les droits de chacun soient préservés. Avec la législation sur l’IA, l’UE a franchi une étape importante pour veiller à ce que l’adoption des technologies IA respecte les règles de l’UE en Europe».
La plupart des règles définies dans l'AI Act bénéficient d'une période de transition jusqu'au 2 août 2026, mais les interdictions de systèmes d'IA présentant un risque inacceptable s'appliquent déjà après six mois et les règles relatives aux modèles d'IA à usage général (dont font partie les LLM) après 12 mois.
La Commission européenne a également défini le Pacte pour l'IA sur une base volontaire. Par cette initiative, elle appelle les développeurs d'IA à adopter volontairement les principales obligations de la loi sur l'IA avant même l'expiration des délais légaux.
Mise à jour du 13 mars 2024: En décembre dernier, les négociations marathon avec les Etats membres de l’Union européenne avaient abouti à un accord sur l’AI Act, le texte qui va réglementer l’intelligence artificielle (lire ci-dessous). Dans un communiqué, le Parlement européen fait savoir que le texte a été formellement adopté par les députés (523 votes pour, 46 contre et 49 abstentions). Les compromis trouvés sont censés garantir la protection contre les risques liés à l’IA, tout en encourageant l’innovation.
«Un Bureau de l'IA sera désormais mis en place pour aider les entreprises à commencer à se conformer aux règles avant qu'elles n'entrent en vigueur. Nous avons veillé à ce que les êtres humains et les valeurs européennes soient au cœur même du développement de l'IA», a déclaré le corapporteur de la commission du marché intérieur, Brando Benifei (S&D, Italie).
Article du 11 décembre 2023: L’Union Européenne est parvenue à un accord sur l’AI Act, le texte qui va réglementer l’intelligence artificielle (IA). Le marché économique européen devient ainsi le premier à fixer des règles contraignantes en la matière. Le compromis trouvé entre les négociateurs du Parlement et du Conseil «vise à garantir que les droits fondamentaux, la démocratie, l’Etat de droit et la durabilité environnementale sont protégés contre les risques liés à l’IA, tout en encourageant l’innovation et en faisant de l’Europe un des leaders dans ce domaine», explique le communiqué du Parlement européen. Selon l’agenda publié par le Conseil européen, le texte final doit maintenant être formellement adopté et la loi n'entrera pas en vigueur avant 2026.
L’AI Act de l’UE est fondé sur une approche basée sur les risques et prévoit des contraintes et sanctions en fonction du type d'applications. Les systèmes qui menacent les droits des citoyens et la démocratie sont interdits, à l'image des outils de catégorisation biométrique utilisant des caractéristiques sensibles ou de l’extraction non ciblée d’images faciales. Pour ce type de systèmes, des exceptions existent néanmoins, sous conditions, pour certaines tâches des forces de l’ordre (luttre contre le terrorisme, la traite, l’exploitation sexuelle, etc.).
Exigences de transparence pour les développeurs de LLM
Le projet de réglementation de l’IA dans l’Union Européenne ne date pas d’hier. La première proposition de cadre légal avait été publiée au printemps 2021. Depuis, ce domaine technologique a fait des progrès considérables. Avec notamment le lancement de chatbots dopés à l’intelligence artificielle génératives, tels que ChatGPT. Le version finalisée de l’AI Act intègre ainsi ces systèmes reposant sur des grands modèles de langage (LLM) ou, selon la formulation des législateurs européens, sur des systèmes généraux d’intelligence artificielle (typiquement GPT-4). Le texte stipule des exigences de transparence pour les développeurs de tels modèles. L'objectif consiste, entre autres, à veiller à ce que les développeurs partagent des informations importantes avec les fournisseurs d'IA en aval, a précisé dans un post sur Linkedin le Commissaire européen Thierry Breton. Il s’agit notamment de mettre à jour la documentation technique, de se conformer à la législation de l’UE sur les droits d’auteurs et de diffuser des résumés détaillés sur le contenu utilisé pour leur formation. Des obligations plus strictes (évaluation et atténuation des risques systémiques, réalisation de tests, garanties de cybersécurité, etc.) concerneront les systèmes présentant un risque systémique. «Nous nous sommes alignés sur la possibilité de tester les systèmes d'IA à haut risque dans des conditions réelles (en dehors du laboratoire, avec les garanties nécessaires)», explique Thierry Breton.
Sanctions prévues
Enfin, l’AI Act de l’UE prévoit la création d’un bureau de l'IA au sein de la Commission à des fins de supervision et pour faire appliquer les sanctions. En fonction de l'infraction et de la taille de l'organisation, les sanctions peuvent aller de 7,5 millions d'euros, ou 1,5% du chiffre d'affaires mondial, à 35 millions d'euros, ou 7% du chiffre d'affaires mondial.
Une loi à l’accouchement difficile
En projet depuis des années, l’AI Act a été compliqué à mettre sur pied et à finaliser. Le dernier round des négociations a duré 38 heures, fait savoir Thierry Breton. Il s’agissait de trouver un compromis visant à réglementer sans pénaliser l’innovation. On sait que les milieux économiques et de la tech ont exercé passablement de pression, craignant un impact négatif sur la compétitivité des entreprises européennes. Des préoccupations partagées par certains dirigeants des pays membres. Le site spécialisé Euroactiv a rapporté mi-novembre que le texte était menacé par les représentants de plusieurs Etats, notamment la France, l'Allemagne et l'Italie, qui se seraient exprimés contre tout type de réglementation pour les grands modèles de langage (LLM).
Des lacunes pointées du doigt
L’accord européen sur la réglementation de l’IA ne laisse pas insensibles les organisations de défense des droits civils et de consommateurs. AlgorithmWatch observe d'importantes lacunes dans le texte adopté, comme le fait que les développeurs d'IA ont eux-mêmes leur mot à dire sur la question de savoir si leurs systèmes sont considérés comme étant à haut risque. Sont aussi pointées du doigt les exceptions pour les systèmes à haut risque utilisés par les forces de l'ordre. «Alors qu'un accord sur la loi sur l'IA a été annoncé, les projets plus techniques qui seront rédigés au cours des prochaines semaines seront décisifs. Non seulement des dispositions clés seront clarifiées, mais il se pourrait également qu'un grand nombre de détails importants doivent encore faire l'objet d'un accord au cours des prochaines semaines», souligne AlgorithmWatch.
De son côté, le Bureau européen des unions de consommateurs (BEUC) juge le texte adopté «insuffisant compte tenu de l'ampleur des risques contre lesquels les consommateurs seront mal protégés à l'avenir». Le BEUC déplore notamment la non interdiction des systèmes d'IA capables d'identifier et d'analyser les sentiments des consommateurs. De même que l’absence d'obligation d'auditer les LLM par un tiers indépendant. Le BEUC constate que ces modèles ne seront pas, non plus, soumis à des exigences de transparence suffisantes pour garantir un contrôle public.