Des chercheurs genevois soulèvent le couvercle de la boîte noire de l’IA
Les algorithmes qui se cachent derrière l’IA ne permettent souvent pas de savoir comment et pourquoi les décisions sont prises par ces modèles. Une équipe de chercheurs de l'Université de Genève, des Hôpitaux universitaires de Genève et de la National University of Singapore veut changer la donne. Leur objectif est d'ouvrir la voie à une plus grande transparence des outils de diagnostic et de prédiction basés sur l’IA.
Rendre la «boîte noire» de l'intelligence artificielle moins opaque, tel est l'objectif d'un projet de recherche de l'Université de Genève (UNIGE), des Hôpitaux universitaires de Genève (HUG) et de la National University of Singapore (NUS). Avec leurs travaux, les chercheurs veulent ouvrir «la voie à une plus grande transparence des outils de diagnostic et de prédiction basés sur l’IA», est-il expliqué dans le communiqué de l'Université de Genève. L'approche qu'ils ont développée vise à mieux comprendre ce qui influence les résultats générés par l'IA et savoir à quel point on peut leur accorder notre confiance. Pour l’équipe de scientifiques, y parvenir est particulièrement important lorsque la santé et la vie des personnes sont en jeu, comme dans le cas des applications médicales.
«Le fonctionnement de ces algorithmes est pour le moins opaque», souligne le professeur Christian Lovis, directeur du Département de radiologie et informatique médicale de la Faculté de médecine de l’UNIGE et médecin-chef du Service des sciences de l’information médicale des HUG, qui a co-dirigé ces travaux. «Certes, les enjeux, financiers notamment, sont énormes. Mais comment faire confiance à une machine sans comprendre les bases de son raisonnement?», ajoute le chercheur.
Evaluer les méthodes d’interprétabilité
Pour décrypter le fonctionnement interne d'une IA, il existe déjà un certain nombre de méthodes dites d'interprétabilité, indique Gianmarco Mengaldo, directeur du MathEXLab au College of Design and Engineering des NUS. «Cependant, les méthodes d’interprétabilité actuelles, largement utilisées dans les applications pratiques et les flux de travail industriels, fournissent des résultats sensiblement différents lorsqu’elles sont appliquées à la même tâche. Cela soulève une question importante: quelle méthode d’interprétabilité est correcte, étant donné qu’il devrait y avoir une seule réponse correcte? L’évaluation des méthodes d’interprétabilité devient donc aussi importante que l’interprétabilité elle-même», explique Gianmarco Mengaldo.
L’équipe de chercheurs internationale a développé deux nouvelles méthodes d’évaluation. L’une pour identifier les parties les plus pertinentes d’un signal et l’autre pour évaluer leur importance relative par rapport à la prédiction finale, détaille le communiqué. Le groupe a déjà publié les premiers résultats de ses recherches dans la revue spécialisée «Nature Machine Intelligence». L'équipe prévoit ensuite de tester sa méthode en milieu clinique, où les inquiétudes concernant l'IA sont encore très répandues.