Marisa Tschopp, scip: «Cette maximisation d’une composante humaine dans la machine comporte de sérieux risques»
Marisa Tschopp est chercheuse chez scip AG, spécialisée dans l'étude de l'IA d'un point de vue psychologique. Dans un entretien avec la rédaction, elle réagit à l'annonce de GPT-4o par OpenAI, saluant l'avancée technologique du modèle dévoilé avant d'en souligner à la fois les faiblesses et les risques.
Quelle a été votre réaction en découvrant les capacités du modèle GPT-4o tout juste dévoilé par OpenAI?
Je suis tout à fait favorable au développement des interfaces homme-machine, j'adore parler aux machines. Et les progrès concernant le canal audio sont les bienvenus car ce que l’on connaît avec les assistants vocaux tels que Siri ou Alexa n’est pas une expérience que l’on peut qualifier de naturelle. C’est pourquoi j'étais très enthousiaste à l'idée de regarder les démos de GPT-4o. Les capacités dévoilées sont vraiment impressionnantes. Les conversations sont fluides et il est possible d'interrompre le chatbot vocal sans que cela ne provoque des attentes gênantes. Ces avancées étaient nécessaires et c’est à n’en pas douter un bon en avant de pouvoir interagir avec la machine de façon aussi naturelle. Concernant ces progrès, je respecte profondément ce qu’ils sont parvenus à accomplir.
Cependant, d’autres caractéristiques du nouveau modèle d’OpenAI vous préoccupent, c’est exact?
Effectivement. Je dois confier que d'autres choses dévoilées dans les démos lors de l'annonce me dérangent. Je suis particulièrement gênée par l'enthousiasme excessif du ton de la voix féminine choisie par OpenAI pour l'interaction vocale avec leur chatbot. Selon moi, pour des personnes en Europe ou en Suisse, le style de la voix n'est pas du tout naturel et sonne faux. A mon sens, cette caractéristique ne motive pas les utilisateurs à interagir avec ces interfaces vocales, bien au contraire. J’ai mené des recherches en manipulant la voix d’Alexa qui ont justement montré à quel point les utilisateurs détestent les voix exagérément amicales et émotionnelles car elles ne sont pas perçues comme authentiques. Cela dit, il s’agit d’une problématique de différence culturelle car il est probable que beaucoup d'Américains apprécient ce ton.
Et en humanisant à ce point l’interaction avec la machine, on prend le risque de l'anthropomorphisme…
Cette maximisation excessive d’une composante humaine dans la machine comporte en effet de sérieux risques. Même si l’on a conscience d'interagir avec ChatGPT, on peut aisément tomber dans le piège d'imaginer qu’il s'agit de plus qu’une machine, et ce, jusqu’à devenir émotionnellement attaché à ce type de système. Cette humanisation de l’outil technologique se vérifie également sur le plan de la stratégie marketing. Siri et Alexa étaient présentés comme des outils, des serviteurs. En revanche, l’annonce de GPT-4o a beaucoup insisté sur les termes de collaboration. On présente désormais ces outils comme des copilotes et des collègues, c’est un énorme changement de paradigme.
Comment percevez-vous la capacité de GPT-4o à identifier visuellement les émotions humaines?
Je ne comprends pas pourquoi OpenAI introduit cette capacité. Inférer un état émotionnel interne à partir de caractéristiques externes… ce n’est pas sérieux. C'est de la pseudoscience: il n'y a pas de lien de cause à effet entre vos caractéristiques extérieures et votre état intérieur. Certains signaux donnent bien sûr des indices mais ne suffisent pas. Quelqu'un qui pleure peut être triste ou heureux.