Les chatbots illégaux pullulent sur le GPT Store d'OpenAI
Des agents conversationnels juridiquement problématiques s'accumulent dans le GPT Store d'OpenAI. Les problèmes concernent aussi bien des violations de droits d'auteur que des imitations de personnes réelles.
De nombreux agents conversationnels customisés et distribués sur le GPT Store d'OpenAI, lancé en janvier dernier, enfreignent la loi ou incitent à la fraude. Une réalité dont se fait l'écho le site spécialisé Techcrunch, qui suppose que cette boutique de déclinaisons de ChatGPT a connu une croissance rapide car il n'est pas nécessaire d'avoir des compétences en programmation pour instruire des GPTs. Cette croissance semble toutefois se faire au détriment de la qualité et du respect des conditions établies par OpenAI.
Problématiques de droits d'auteur
Premièrement, il y aurait dans le store des GPTs qui génère des contenus issus de franchises de films, de productions télévisuelles et de jeux vidéo populaires. A la connaissance de Techcrunch, ces GPTs n'auraient pas été créés ou autorisés par les propriétaires de ces franchises.
OpenAI ne serait pas tenue responsable des violations de droits d'auteur commises par les créateurs de GPTs. Les dispositions du Digital Millennium Copyright Act protègent le store, comme c’est le cas avec les plateformes telles que Youtube ou Facebook lorsqu'elles hébergent des contenus violant les droits d'auteur. Mais ce à condition qu'elles se conforment aux dispositions de la loi et qu'elles retirent les contenus problématiques identifiés.
Fraude académique et contrefaçon de personnalités
L'enquête de Techcrunch a également constaté que les conditions générales d'OpenAI interdisent explicitement aux développeurs de développer des GPTs qui encouragent la fraude académique. Pourtant, le store regorge de GPTs de cet acabit, promettant en outre de contourner les détecteurs de contenus créés par l'IA.
Dans ses directives, OpenAI interdit également aux développeurs de créer des GPTs qui se font passer pour des personnes ou des organisations sans leur consentement. Le site spécialisé a toutefois trouvé de nombreux GPTs qui prétendent représenter les opinions de personnes, ou imitent des personnalités connues comme Elon Musk ou Barack Obama. Selon OpenAI, il est permis de donner des instructions aux GPTs pour qu'ils réagissent «dans le style» d'une personne réelle, tant que les GPTs ne se font pas passer pour cette personne.
Le store, qu'OpenAI avait présenté comme un ensemble d'outils d'IA améliorant la productivité et composés par des experts, se transforme désormais en un terrain fertile pour les spams, les GPTs juridiquement douteux et peut-être même nuisibles, écrit Techcrunch. Une situation qui devrait s'aggraver avec les plans de monétisation, OpenAI ayant promis que les développeurs de GPTs seraient un jour en mesure de gagner de l'argent en fonction du nombre de personnes qui utilisent leurs GPTs.