Pourquoi tant d’agitation sur la confiance et la fiabilité de l’IA?
Comme vous l’avez probablement entendu ou lu, la Commission européenne a présenté au mois d’avril une proposition visant à réglementer l’intelligence artificielle (IA), l’objectif étant de permettre à l’Union européenne de profiter des avantages de cette technologie. Au total, les mots «confiance» et «fiabilité» apparaissent plus de 100 fois dans la proposition. De quoi s’interroger: comprenons-nous vraiment le rôle de la confiance en relation avec l’IA? > Un article de Marisa Tschopp (scip AG), Marc Ruef (scip AG) et Prisca Quadroni (AI Legal & Strategy Consulting AG).
Swiss Digital Trust Label, Trust Valley, ou Center for Digital Trust, le thème de la confiance et du numérique est en vogue, y compris en Suisse. Ces initiatives suggèrent que la confiance est un catalyseur pour la réussite des déploiements d’intelligence artificielle. Et pourtant, nulle autre que la professeure Joanna Bryson estime que: «Personne ne devrait faire confiance à l’intelligence artificielle». De quoi s’interroger sur tout ce foin autour de la confiance dans l’IA ou dans le monde numérique. Alors, la blockchain, l’industrie crypto et les labels vont-ils résoudre tous nos problèmes de confiance? (Alerte spoiler: non, non, en quelque sorte).
Première question: Peut-on faire confiance à l’IA? Réponse courte: oui. Réponse longue: c’est compliqué.
La question de savoir si nous sommes réellement capables d’accorder notre confiance à des machines fait l’objet d’un débat animé entre ceux qui ont la foi («oui, c’est possible!») et ceux qui doutent («il ne faut pas faire confiance à l’IA!»). Nous nous rangeons quant à nous du côté de ceux qui y croient. Nous partons du principe que la confiance entre humains peut être transposée et que, bien que différente, elle est à bien des égards similaire à la confiance que ces mêmes humains disent avoir dans les machines.
Dans les relations humaines, on peut comprendre la confiance comme une stratégie d’adaptation face au risque et à l’incertitude. Cette stratégie se présente sous la forme d’une évaluation. Les compétences de la personne à qui l’on va faire confiance seront par exemple examinées. En même temps, celui qui accorde sa confiance se trouve dans une position de vulnérabilité. Comme dans toute relation, on court le risque d’être blessé. Autrement dit, pas de confiance sans risque.
Cette vulnérabilité est tout aussi critique lorsqu’il s’agit de confiance entre l’homme et la machine. Donner sa confiance à une technologie, c’est s’attendre à un certain résultat, à un certain comportement si on l’utilise. La fiabilité d’un système, ses mauvaises performances ou ses processus peu clairs ainsi que d’autres facteurs peuvent altérer la confiance qu’on lui accorde. La confiance et la fiabilité sont ainsi des concepts distincts, malheureusement souvent confondus.
Trois choses sont donc importantes à comprendre: la confiance est une attitude vis-à-vis d’un tiers humain ou machine (1) lequel est censé aider à l’atteinte d’un objectif spécifique (2) dans une situation d’incertitude (3). Je peux ainsi faire confiance à Amazon pour livrer mon colis à temps, mais pas pour respecter ma vie privée.
Pour revenir à la question posée, on peut donc répondre que nous sommes bel et bien capables de faire confiance à l’IA dans un contexte concret. Est-ce pour autant une raison de le faire? C’est une autre question…
Deuxième question: Devons-nous faire confiance à l’IA? Réponse courte: Non. Réponse longue: C’est compliqué.
D’un point de vue pratique et normatif, la question de savoir si nous devons faire confiance à l’IA est beaucoup plus intéressante, car elle déplace la discussion sur le thème de la fiabilité. Alors que la confiance est une attitude humaine et une variable latente complexe en termes psychométriques, la fiabilité est une question beaucoup plus technique liée aux propriétés de la technologie. Lorsque Joanna Bryson affirme que personne ne devrait faire confiance à l’IA, son message est on ne peut plus clair: n’utilisez pas les systèmes d’IA (et quantité d’autres systèmes) aveuglément.
Comme exemple de confiance aveugle ayant mal tourné, on cite souvent le cas d’un conducteur de Tesla très instruit, qui a perdu la vie dans un accident, parce qu’il jouait et ne regardait pas du tout la route, faisant ainsi entière confiance au système. On ne saura sans doute jamais si l’accident fatal est la conséquence d’un excès de confiance, des promesses marketing trompeuses du constructeur, du manque d’intelligence du conducteur ou d’une combinaison de ces trois facteurs. Quoi qu’il en soit, éduquer les gens pour qu’ils adoptent une confiance zéro à l’égard des machines est très probablement le moyen le plus sûr pour éviter des blessés.
Ne pas faire confiance et se priver d’un système pourtant susceptible d’apporter de meilleurs résultats n’est pas pour autant la panacée. L’idéal serait de promouvoir une «confiance calibrée», dans laquelle l’utilisateur adapte son niveau de confiance (si et comment il se fiera) en fonction des performances du système en question. En fonction, ou en dépit des performances, car on sait que de nombreuses entreprises exagèrent ou cachent les capacités réelles de leurs produits (les arguments publicitaires mériteraient d’être mis à l’épreuve).
Ainsi, calibrer notre confiance peut sauver des vies, mais en cas d’incertitude et de risque élevé dans la relation homme-machine, mieux vaut adopter une confiance zéro (mieux vaut prévenir que guérir).
Troisième question: Devrions-nous arrêter de parler de confiance? Réponse courte: oui. Réponse longue: c’est compliqué.
A notre avis, lorsqu’on affirme qu’il ne faut pas faire confiance à l’IA, le message le plus important est le suivant: réfléchissez avant d’agir. Mais réfléchir est épuisant. Ne serait-il pas formidable de pouvoir faire aveuglément confiance à une entreprise pour qu’elle respecte ma vie privée et me livre mes produits à temps? Désolé, mais la blockchain n’est ici d’aucun secours et n’essayez même pas de nous faire miroiter une crypto-solution. Un label peut être un bon début pour toutes les choses qui ne sont pas réglementées par la loi. Mais ne rendons-nous pas les choses encore plus compliquées en ajoutant un autre acteur dans l’équation de confiance que nous ne comprenons déjà pas entièrement? Faudra-t-il dans le futur enquêter sur la confiance dans les labels comme indicateur de la confiance dans les machines?
En fin de compte, la confiance en tant qu’attitude est un sujet intéressant pour les psychologues. Mais lorsqu’on parle de machines ou de caractéristiques, il faut utiliser les bons termes et se concentrer sur la fiabilité, car c’est ce que nous pouvons le mieux contrôler.
Question complémentaire: Qu’en est-il de la loi et de la confiance?
Les labels s’avèrent utiles pour garantir la fiabilité, mais les lois ne sont-elles pas une meilleure option? Ne devrions-nous pas consacrer tous nos efforts aux lois et aux règlements? Est-ce là notre seul véritable indicateur de fiabilité? Premièrement, oui: nous devons consacrer beaucoup d’efforts aux lois et aux réglementations pour garantir la responsabilité des concepteurs. Deuxièmement, non: l’équation «loi et confiance» est une fausse réponse. Les lois ne devraient pas avoir pour motif d’augmenter la confiance, mais plutôt de favoriser la responsabilité et le bon fonctionnement de la société. La visée fondamentale d’une loi reste d’établir des normes, de maintenir l’ordre, de résoudre les différends et de protéger les libertés et les droits, et non de renforcer la confiance dans les personnes ou dans l’IA.
Conclusion: Ne vous inquiétez pas des détails
Les lois et les labels éthiques ne résolvent pas la question de la confiance. En fait, il se pourrait même que la formule «plus on fait confiance, plus on utilise une technologie» ne se vérifie pas. Les gens se fient aux produits les moins dignes de confiance pour les raisons les plus irrationnelles – l’homo œconomicus rationnel a vécu. Social jusqu’au plus profond de ses cellules, l’humain d’aujourd’hui privilégie la commodité et la socialité. Nous aimons les humains, nous aimons tisser des liens et, n’ayant pas d’autres connaissances comportementales à mobiliser, nous humanisons même les machines.
Cet anthropomorphisme n’est pas si mauvais que cela, à condition que des agents ne soient pas conçus à dessein pour manipuler les gens. Certes, la formule «IA digne de confiance» est un langage anthropomorphique, mais elle a le mérite de communiquer un message instantanément compris par presque tous ceux qui ont une idée de ce sentiment flou de confiance. Si vous parliez d’IA explicable ou responsable, seule une très petite fraction de personnes comprendrait.
Ainsi, bien que les termes «confiance» et «fiabilité» soient l’objet de critiques légitimes dans le contexte de l’IA, ils peuvent également être salués. Ils permettent à chacun de comprendre les principales raisons de construire et d’utiliser ces objets technologiques complexes et leur impact sur la société. Peut-être ferions-nous tous mieux de prendre les choses de façon plus détendue et de considérer l’IA digne de confiance plutôt comme une vision que comme une affirmation à la précision technique.