OpenAI dévoile un nouvel outil imparfait de détection de textes écrits par l’IA
OpenAI a mis à la disposition du public un nouvel outil de détection de textes produits par des IA génératives de type ChatGPT. Mais ses concepteurs concèdent que ce «work-in-progress» est encore loin d'être fiable.
La société OpenAI se démène pour remédier au problème dont elle est elle-même à l’origine: la difficulté à détecter les textes produits par ChatGPT. Pouvoir disposer de technologies efficaces en la matière devient urgent, notamment pour le milieu scolaire. Or, les outils actuels peinent encore énormément à déceler des textes créés par ce type de modèle de langage aux performances bluffantes.
OpenAI vient d'annoncer avoir mis au point un nouvel outil de détection de textes générés par des IA, qu’il s'agisse de ses propres modèles ou ceux d'autres fournisseurs. Les concepteurs de ChatGPT préviennent toutefois que leur nouvel outil n’est pour l'heure pas fiable à 100%... loin de là. 26% des textes sont correctement identifiés comme étant écrits par une IA. Et l’outil produit encore 9% de faux positifs (attributions à l’IA alors que le texte est rédigé par un humain). «La fiabilité de notre classificateur s'améliore généralement à mesure que la longueur du texte d'entrée augmente. Par rapport à notre classificateur précédent, ce nouveau classificateur est nettement plus fiable sur les textes provenant de systèmes d'IA plus récents», précise OpenAI dans son communiqué. Et de souligner que son outil, qualifié de «work-in-progress» fonctionne moins bien avec des textes courts (moins de 1000 caractères) et non rédigés en anglais.
OpenAI précise que malgré les limites actuelles de son outil de détection, il est tout de même mis à la disposition du public «afin de recueillir des commentaires sur l'utilité d'outils imparfaits comme celui-ci».