La confédération fixe ses orientations pour l’intelligence artificielle, mais c’est à Bruxelles que ça se joue
Le Conseil fédéral a adopté un rapport fixant sept lignes directrices pour encadrer et préserver l’innovation en matière d’intelligence artificielle dans le pays. Si une règlementation voyait le jour, c’est sans doute l’UE qui en fixerait le cap: les travaux sont déjà engagés.
Le Conseil fédéral a adopté un rapport fixant ses lignes directrices sur l’intelligence artificielle. Le document doit orienter l’action des différents départements en la matière et assurer une politique cohérente. Les sept lignes directrices s’appuient sur un rapport d’experts publié en décembre 2019, qui se base lui-même sur des travaux menés à l’échelon international, notamment à l’OCDE et dans l’UE.
Comme la plupart de ces travaux, les lignes directrices de la confédération ont pour objectif d’encadrer les risques spécifiques liées aux technologies d’IA tout en préservant la recherche et l’innovation. Il ne s’agit donc pour nullement d’une quelconque règlementation. Le rapport relève d’ailleurs les diverses lois en vigueur applicables au domaine (protection des données, droits fondamentaux, discrimination, sécurité des produits, etc.).
Sept lignes directrices
Les sept lignes directrices extraites du communiqué de la Confédération:
1. Placer l’être humain au cœur des préoccupations: la dignité et le bien-être de chaque individu, de même que l’intérêt public, doivent figurer au premier plan lors du développement et de l’utilisation de systèmes d’IA. Une attention toute particulière est accordée à la protection des droits fondamentaux dans l’utilisation de l’IA.
2. Conditions propices au développement et à l’utilisation de l’IA: la Confédération continue de veiller à l’existence de conditions propices à l’exploitation des chances qu’offre l’IA afin de renforcer la création de valeur et le développement durable. La Suisse doit continuer de se positionner comme l’un des principaux sites pour la recherche, l’application et l’exploitation commerciale de l’IA.
3. Transparence, traçabilité et explicabilité: les processus de décision fondés sur l’IA doivent être conçus de sorte à être identifiables et vérifiables.
4. Responsabilité: afin de déterminer les responsabilités en cas de dommage, d’accident ou de violation du droit, il est nécessaire d’établir clairement la responsabilité lors de l’utilisation de l’IA. La responsabilité ne doit pas être déléguée à des machines.
5. Sécurité: dès leur conception, les systèmes d’IA doivent être sûrs, robustes et résilients de sorte à déployer des effets positifs et à ne pas pouvoir être détournés à des fins abusives ni être utilisés de manière erronée.
6. Participation active à la gouvernance en matière d’IA: pour la Suisse, il est essentiel de participer activement à la gouvernance mondiale dans le domaine de l’IA et de s’impliquer dans l’élaboration de normes et de standards internationaux en matière d’IA, tout en défendant ses propres intérêts et valeurs.
7. Implication de tous les acteurs pertinents aux plans national et international: la Suisse doit s’engager pour que les processus de décision sur la gouvernance en matière d’IA intègrent toutes les parties prenantes.
Bruxelles fixe le cap
Dans sa dernière ligne directrice, le rapport du Conseil fédéral souligne l’importance de la coopération internationale en matière de gouvernance «avec pour objectif de renforcer la position de Genève en tant que pôle de la gouvernance numérique en matière d’IA». La mention fait sans doute écho à la Swiss Digital Initiative lancée officiellement au World Economic Forum 2020. Présidée par Doris Leuthard, la fondation regroupe les géants de la tech, de grandes entreprises et universités suisses, ainsi que des organisations internationales. Elle a pour objectif «d’accroître la confiance du public à l’égard des technologies numériques et des acteurs qui participent à la transformation numérique».
La gouvernance et la possible règlementation de l’intelligence artificielle ne se jouent néanmoins ni à Berne, ni à Genève, mais bien davantage à Bruxelles. Avec le RGPD, l’Union Européenne a montré qu’elle était capable de faire cavalier seul en matière de règlementation du monde numérique. Son règlement a donné un cap un matière de protection des données et a depuis été repris hors de l’UE en Suisse ou en Californie dans des versions certes moins contraignantes.
L’Europe pourrait bien rééditer le coup avec la gouvernance de l’intelligence artificielle. Ce n’est pas un hasard si les lobbys des géants de la tech s’activent dans les débats menés à Bruxelles, comme notre rédaction a pu le constater lors de l’assemblée de l’Alliance européenne pour l’IA qui s’est déroulée début octobre (en ligne forcément).
Dans un livre blanc publié ce printemps, l’UE affichait sa stratégie en matière d’IA entre encadrement des usages à risque et volonté de ne pas prétériter l’innovation dans la région, alors que les principaux développements et investissements se font aujourd’hui en Chine et aux Etats-Unis.
Mode de gouvernance et périmètre concerné
Depuis la publication du livre blanc, l’UE consulte et évalue les options de gouvernance à sa disposition avec peut-être un premier projet en 2021. Divers scénarios sont envisagés, entre le status quo, de simples recommandations, la création d’un label volontaire et la véritable règlementation. Dans les débats auxquels notre rédaction a assisté, l’enjeu principal entre géants de la tech, éthiciens, chercheurs et autres associations de consommateurs, concerne notamment le périmètre d’une règlementation sur l’IA. Certains préconisent de ne règlementer que certains secteurs (par exemple, santé, automobile), d’autres de distinguer les applications risquées quel que soit le secteur, d’autres encore de ne pas différencier les domaines compte tenu des implications systémiques de l’intelligence artificielle - un usage individuel a priori bénin pouvant se révéler à risque dans un contexte particulier ou s’il est généralisé. Autre enjeu, la question de décider si la règlementation s’applique aux entreprises qui recourent à des systèmes intelligents, ou aux fournisseurs qui développent les outils et technologies sous-jacentes.
Si une règlementation voit le jour, les entreprises concernées pourraient notamment se voir obligées de conserver et de documenter les données d’entraînement, les algorithmes, leur robustesse et leur précision, et le monitoring humain dont ils font l’objet.
> Pour en savoir plus, notre dossier complet sur les enjeux éthiques de l'intelligence artificielle