Sécurité et gouvernance

Le monde varié de la réglementation de l’IA

par Nicolas Zahn, Managing Director, Swiss Digital Initiative

Des lois aux normes techniques, en passant par les engagements volontaires via des cadres ou de nouvelles certifications et labels. Pour la réglementation de l’IA, nous pouvons nous servir d’une multitude d’outils, qui présentent tous leurs propres avantages et inconvénients.

Le thème de l’intelligence artificielle ne préoccupe pas seulement l’économie, mais aussi la politique. Depuis le lancement de ChatGPT, l’IA est sur toutes les lèvres et les pronostics sur ses effets sur l’économie et la société ainsi que sur les voies de développement possibles de l’IA se bousculent. Pour les uns, l’IA générale, qui rendra l’homme superflu, est à notre porte, pour les autres, tout cela n’est qu’un grand battage médiatique.

Indépendamment de cela, il est clair que la politique voit la nécessité d’agir et s’est activée en conséquence. Outre les stratégies nationales en matière d’IA, qui existent en partie depuis des années et qui s’intéressent surtout à la question de savoir comment un pays peut encourager le plus possible le développement de l’IA et en tirer profit, les questions de la réglementation des éventuels effets négatifs sont désormais au centre des préoccupations. Des efforts internationaux déjà en cours depuis longtemps, comme les travaux de l’OCDE sur l’IA, sont désormais complétés par des propositions de réglementation nationales, comme l’Executive Order du président américain Joe Biden ou de nouvelles lois régionales comme l’EU AI Act.

Une large palette d’outils

Il existe une multitude d’outils pour réglementer l’intelligence artificielle et nous constatons des évolutions dans tous ces outils. Outre les lois et les nouveaux traités, comme par exemple la convention du Conseil de l’Europe récemment adoptée, il existe la possibilité pour les régulateurs d’appliquer désormais les lois existantes à l’IA, comme le fait par exemple la FTC pour l’utilisation de l’IA dans les campagnes. D’autre part, de nouvelles normes techniques et organisationnelles sont constamment créées, que ce soit par les autorités publiques ou par des initiatives privées. Il existe par exemple un cadre d’IA de l’organisation de normalisation américaine NIST, ainsi qu’une nouvelle norme d’IA de l’ISO. En outre, diverses organisations, des ONG aux sociétés de conseil, établissent leurs propres cadres et directives pour l’utilisation de l’intelligence artificielle, comme par exemple le Responsible AI Institute.

De l’abstrait au concret

Ces principes et règles souvent non contraignants – contrairement aux lois – se composent aujourd’hui de dizaines de documents émanant de différentes institutions, de la recherche et de l’économie privée aux organisations internationales et à la société civile. Malgré cela, les contenus évoluent le long de thèmes similaires, comme par exemple la transparence et la sécurité.

Une grande difficulté reste cependant la traduction de ces principes abstraits dans la réalité concrète. C’est également la difficulté rencontrée lors de la rédaction de nouvelles règles contraignantes telles que des lois. La technologie évolue si rapidement, mais d’un autre côté, les règles ne peuvent pas rester trop abstraites, sinon on ne sait pas comment les respecter. Les négociations sur le EU AI Act le montrent clairement. Le lancement de ChatGPT a été inattendu et a provoqué de fortes tensions dans les négociations. Est-ce que nous établissons ici les bonnes règles pour continuer à protéger certains droits à l’avenir? La question de savoir comment les principes peuvent être réellement respectés et rendus mesurables préoccupe également les organisations de normalisation.

Une question de confiance

La confiance dans la numérisation et en particulier dans l’intelligence artificielle est fortement mise sous pression. Ce n’est pas un hasard si c’est justement maintenant que le WEF lance un cadre pour l’élaboration d’une «confiance numérique», un projet auquel nous avons pu participer. En effet, la confiance nécessaire à l’utilisation des services numériques est en recul grâce à divers scandales et pratiques commerciales contraires à l’éthique et risque d’entraver l’utilisation de l’intelligence artificielle.

On dit souvent que la confiance c’est bien, le contrôle c’est mieux. Cela se vérifie également dans la mise en œuvre de la réglementation de l’IA. Les diverses obligations et engagements volontaires pour une utilisation responsable de l’IA dont disposent les entreprises ne semblent pas suffire. De nouvelles règles contraignantes s’imposeront aux entreprises avec la mise en œuvre de l’EU AI Act et d’autres lois comme le Cyber Resilience Act, et la question de l’utilisation responsable de l’IA ne sera pas seulement une possibilité de se démarquer de la concurrence sur le marché, mais devrait également devenir une question de conformité intégrale, comme la protection des données auparavant.

Les audits et les certifications telles que les labels devraient donc gagner en importance à l’avenir. En effet, outre la définition de principes et la traduction de ces principes en normes mesurables et vérifiables, la question se pose de savoir comment une organisation peut communiquer de manière crédible le respect de ces règles à l’extérieur, que ce soit vis-à-vis des régulateurs ou de ses clients. Le TüV AI Lab travaille par exemple sur un schéma de contrôle basé sur le EU AI Act et un groupement d’associations industrielles et d’organisations de normalisation travaille sur un label pour une IA fiable, un projet que nous soutenons au sein de la Swiss Digital Initiative.

Mais ces projets n’en sont qu’à leurs débuts et ne devraient pas donner de résultats avant la fin de l’année au plus tôt. En Suisse, nous sommes déjà plus avancés. Lors du premier Apéro Digital, un format d’échange de la Digital Society Initiative, nous avons discuté non seulement de notre label Digital Trust, mais aussi d’autres possibilités de certification, par exemple au moyen de Modulos AI ou de CertX. Il est également apparu qu’une majorité des participants interrogés considéraient que la certification jouait un rôle important pour les organismes indépendants et que les autorités étatiques ou les initiatives privées étaient jugées en aval.

Nous nous trouvons dans une période de développement rapide de l’IA, tant sur le plan technique que réglementaire. La confiance de la population et des utilisateurs est toutefois centrale et peut encore être améliorée actuellement. Les fournisseurs de services numériques feraient donc bien de se pencher de manière proactive sur la question de savoir comment ils peuvent non seulement prêcher l’utilisation et le développement responsables de l’IA, mais aussi les mettre effectivement en œuvre. Des instruments tels que notre label de confiance numérique peuvent leur fournir une orientation précieuse à cet égard.

L'auteur: Nicolas Zahn est Managing Director de la Swiss Digital Initiative. 

Nicolas Zahn est Managing Director de la Swiss Digital Initiative. (Source: DR)

Tags
Webcode
dPAMD87h