Les foules sont moins sages avec un copilote
L'assistance d'un copilote intelligent augmente la performance des individus, mais neutralise leur performance collective, en raison d'un conformisme trop grand aux recommandations de l'IA, ont expérimenté des chercheurs. La solution: faire que l'IA s'abstienne de donner conseil, lorsqu'elle n'est pas sûre et qu'elle a en face d'elle un humain trop crédule.
Peut-être avez-vous entendu parler de la «sagesse des foules». Le concept repose sur le constat qu'en combinant leurs opinions et connaissances, un groupe de personnes parvient à battre les meilleurs experts. Pour l'illustrer, on relate souvent l'anecdote d'un concours où il fallait deviner le poids d'un bœuf. En calculant la médiane des avis exprimés par les quelque 800 participants, la vox populi parvint à estimer un poids de seulement 1% de différence par rapport à la réalité. Il apparaît que cette intelligence collective est d'autant plus performante que le groupe est diversifié et que les personnes disposent de leurs propres connaissances «locales». Ce surcroît de sagesse est en revanche neutralisé, si la foule est faite d'individus semblables et dépourvus de connaissances distinctives.
C'est peut-être l'un des ingrédients qui fait l'efficacité des démocraties, par rapport aux régimes totalitaires. Mais quel rapport avec l'IA? Il se trouve que la combinaison tant vantée humain-IA, où le premier est assisté par la seconde en mode copilote, détériore cette sagesse des foules, ainsi que l'ont expérimenté des chercheurs de l'université de Cologne (Will Humans-in-The-Loop Become Borgs? Merits and Pitfalls of Working with AI). Un résultat qui a de quoi préoccuper les organisations qui misent sur l'intelligence des décisions prises collectivement.
C'est quoi le chien sur la photo?
Concrètement, les chercheurs ont soumis divers groupes de personnes à un test, leur demandant d'assigner une image qui leur était présentée (un "chien noir" par exemple, à une parmi dix catégories (boxer, berger allemand, etc.) avec à chaque fois des exemples d'images. Un groupe d'individus devait effectuer la tâche sans assistance, l'autre groupe avec le conseil d'une IA particulièrement performante sur ce type de tâche.
Comme on peut s'y attendre, la précision des personnes ayant profité du copilote s'est révélée bien meilleure. En revanche, leur connaissance unique - les images qu'ils ont classées correctement alors que l'IA se trompait - s'est avérée inférieure par rapport aux personnes travaillant sans copilote. Et cela s'est traduit dans leur performance non plus individuelle mais collective. Au lieu que la précision du collectif augmente avec le nombre d'individus, celle-ci a stagné chez le groupe utilisant l'IA, tandis qu'elle n'a cessé de progresser avec le groupe sans IA. A partir de quelques personnes déjà, le collectif sans IA surpasse celui avec IA.
Et si l'IA apprenait à la boucler...
Ces résultats peuvent s'expliquer ainsi: équipés d'une IA (tout auréolée de son savoir), les individus tendent à suivre ses recommandations quand bien même elle a tort et qu'ils auraient eu raison. Les chercheurs ont ainsi fait l'hypothèse que si le copilote algorithmique indique son degré de certitude, les individus feront un meilleur choix et resteront sur leur bonne décision s'ils voient que l'IA «doute». Malheureusement, les chercheurs ont constaté que tel n'est pas le cas. La connaissance distinctive des individus et donc leur performance collective n'a pas progressé.
Ils ont toutefois testé avec succès un autre mécanisme. Faisant l'hypothèse que certains individus tendent à se conformer à la recommandation du copilote, tandis que d'autres exercent leur regard critique, ils ont personnalisé les recommandations. Sur la base de la propension des individus à suivre l'assistant et sur la base de la certitude de l'IA, ils ont programmé le système pour décider de proposer sa recommandation ou au contraire de s'abstenir. Pour le dire autrement, si l'IA n'est pas sûre de son coup et qu'elle sait qu'elle s'adresse à une personne lui obéissant aveuglément, elle s'abstient de donner conseil (comme nous humains le faisons... enfin j'espère). Expérimentation à l'appui, l'astuce a fonctionné (voir graphique ci-dessous). La performance des individus a augmenté, leur connaissance distinctive n'a pas diminué et, ainsi, leur performance collective a progressé à mesure qu'ils étaient plus nombreux.
A gauche, la précision atteinte par les individus, à droite leur connaissance distinctive. Dans les deux cas: sans IA, puis avec IA, puis avec avec une IA qui décide au cas par cas de donner sa recommandation ou de s'abstenir.