Entre humain et IA, à qui la responsabilité? à qui le mérite?
Lorsqu’une IA opérée par un humain fait une erreur, l’humain est rendu responsable, c’est normal. Mais lorsque l’IA produit au contraire un contenu intéressant, on considère que l’humain qui l’opère n’y est pas pour grand chose.
L’emploi de l’intelligence artificielle pose des questions de responsabilité, c’est bien connu. Lorsqu’un diagnostic algorithmique est erroné, il est bien difficile de déterminer qui est à blâmer: le radiologue, la machine, ses concepteurs? Avec les IA génératives, une nouvelle question de responsabilité émerge: lorsque le résultat est positif, autrement dit lorsqu’on considère que le contenu créé est une réussite, qui en a le mérite? L’humain ou la machine?
Responsabilité négative ou positive
Pour les premiers cas - ce que l’on peut appeler la responsabilité négative -, des mesures et des normes organisationnelles, règlementaires et juridiques émergent et vont sans nul doute se développer pour déterminer qui est responsable d’une faute ou d’une erreur, notamment dans les domaines médical et automobile.
Bien moins d’efforts et de recherche sont en revanche consacrés à la responsabilité positive et à la question de déterminer qui créditer d’un contenu généré par l’IA, constatent des chercheurs dans un article récent. Le sujet est pourtant déjà actuel, dans les domaines du droit d’auteur ou des publications scientifiques.
Asymétrie entre blâme et crédit
La question est d’autant plus importante que les auteurs de l’article relèvent une asymétrie entre la manière dont on envisage la responsabilité négative et la responsabilité positive: on ne blâme pas de la même façon qu’on attribue du mérite.
Lorsque l’issue d’un travail est négative, nous en portons la responsabilité, quand bien même nous avions de bonnes intentions, mais que nous avons manqué de prudence ou fait preuve de négligence. En revanche, pour mériter le crédit d’une issue positive, il faut avoir déployé des efforts, montré un certain talent ou avoir dû faire des sacrifices pour y parvenir.
Des travailleurs responsables mais sans mérite
Appliquée au travail émergent avec des IA génératives, cette asymétrie n’est pas sans poser problème. En se réorientant vers des tâches de supervision et d’entretien des outils LLM, les travailleurs humains pourraient perdre en reconnaissance et en opportunités de se distinguer et d’exceller.
«Il peut en résulter une situation étrange. Si la responsabilité des résultats positifs et négatifs produits par les LLM est asymétrique comme nous l'avons suggéré, les êtres humains peuvent être tenus à juste titre responsables des résultats négatifs créés, ou autorisés à se produire, lorsque eux-mêmes ou leurs organisations utilisent les LLM. Dans le même temps, ils peuvent mériter moins de crédit pour les résultats positifs générés par l'IA, car ils peuvent ne pas faire preuve des compétences et des talents nécessaires pour produire un texte, exercer un jugement pour faire une recommandation ou générer d'autres résultats créatifs», avertissent les auteurs.
Source: Generative AI entails a credit–blame asymmetry, Nature Machine Intelligence 2023