Résumé patient automatisé

L’Hôpital universitaire de Bâle expérimente un assistant GenAI dans le domaine du cancer de la prostate

L’Hôpital universitaire de Bâle a développé un outil s’appuyant sur un grand modèle de langage pour aider le diagnostic des médecins dans le domaine du cancer de la prostate. Puisant dans le repository de données cliniques de l’hôpital, la solution génère automatiquement un résumé de l’historique du patient. Actuellement en phase de test, l’outil doit servir de MVP avant d’être étendu à d’autres disciplines.

(Source: Wikimedia, Wladyslaw Sojka, www.sojka.photo)
(Source: Wikimedia, Wladyslaw Sojka, www.sojka.photo)

L’Hôpital universitaire de Bâle teste l’emploi de LLM dans le domaine du cancer de la prostate. La solution s’appuie sur un Clinical Data Warehouse dans lequel l’établissement a consolidé les informations de multiples disciplines et de quelque 350 systèmes (laboratoires, radiologie, etc.). Un immense réservoir de données en format texte, difficile à exploiter par des humains, explique Maurice Johannes Henkel, chercheur au sein de l’équipe Research & Analytics de l’IT de l’hôpital, à la rédaction. L’idée est donc d’utiliser l’IA générative pour fournir des informations aux médecins en puisant dans la masse de données cliniques au sein d’une interface intuitive.

Le principal projet pilote en cours à l’Hôpital universitaire de Bâle (USB) concerne la génération automatisée d’un résumé de l’historique d’un patient dans le domaine du cancer de la prostate. Le domaine a été choisi, car il est relativement simple d’un point de vue thérapeutique, mais techniquement complexe en raison du nombre élevé de sources de données à consulter, précise Henkel. En tant que produit minimum viable (MVP), la solution pilote doit ainsi servir de modèle.

A terme, l’USB imagine un chatbot commun fournissant des informations utiles aux médecins des différentes disciplines. Dans la solution testée actuellement pour le cancer de la prostate, les usagers ne conversent cependant pas directement avec l’outil, au lieu de quoi c’est un prompt standard qui est envoyé en arrière-plan au LLM pour que ce dernier génère le résumé patient. 
L’USB expérimente plusieurs LLM open source opérant sur son infrastructure, ce qui limite le risque de fuite de données et permet de comparer la précision de différents modèles. Interrogé justement sur cette question de la précision, le chercheur explique recourir à diverses techniques pour améliorer la fiabilité des contenus générés. Le prompt automatisé est ainsi élaboré pour encadrer fortement le «travail» du LLM. D’autre part, un LLM secondaire a été déployé qui vérifie la qualité des «hard facts» contenus dans les réponses. Henkel reconnaît qu’une fiabilité à 100% est inatteignable, ce à quoi il ajoute: «les docteurs aussi font des erreurs».

Le principal objectif du projet est donc l’efficacité. «Les docteurs passent 60% de leur temps sur des tâches stupides. Le LLM peut les soulager», explique Henkel. S’agissant de la fiabilité, c’est au médecin de valider les outputs, ce travail ne pouvant être confié à une secrétaire, précise-t-il. Comme dans d’autres déploiements, les attentes à l’égard des utilisateurs IA sont donc paradoxales: on souhaite à la fois qu’ils prennent confiance dans les contenus automatisés pour gagner du temps, et qu’ils vérifient les informations fournies par le système.
 

Tags
Webcode
n3efprbL