IA générative & santé

La transcription audio dopée à la GenAI s'invite dans les cabinets médicaux

Des solutions basées sur l’IA générative débarquent chez les médecins. Les technologies suisses excellent dans ce domaine et intègrent des outils de transcription et d'extraction de données, afin notamment d'automatiser la rédaction des rapports de synthèse de consultation et la saisie des informations dans les dossiers des patients.

(Source: Tima Miroshnichenko / pexels)
(Source: Tima Miroshnichenko / pexels)

Les solutions basées sur la GenAI commencent à pulluler dans de nombreux secteurs d'activités, y compris celui de la santé. Les assistants IA font par exemple leur entrée dans les cabinets médicaux, promettant comme souvent de réduire le temps consacré aux tâches chronophages. Doctolib, acteur incontournable de la healthtech en Europe, s’est récemment illustré dans ce domaine. En s’appuyant sur la technologie développée par Typeless, une spin-off de l’EPFL qu’elle a récemment acquise, la plateforme Doctolib s’est enrichie d’un assistant IA pour les consultations médicales, doté de capacités avancées de reconnaissance vocale.

L’assistant IA de Doctolib vise à automatiser la prise de notes pendant les consultations. En temps réel, il retranscrit les échanges entre le soignant et le patient, et génère ensuite une synthèse claire et structurée de la consultation. Cette synthèse, soumise à la vérification et à la validation du soignant, est ensuite intégrée directement dans le dossier médical du patient. Les informations médicales y sont codifiées et organisées de manière à être insérées au bon endroit dans le logiciel du praticien.

Plusieurs jeunes pousses suisses misent sur les assistant IA pour les soignants 

Doctolib n’est pas le seul acteur à investir le domaine des assistants numériques pour les professionnels de santé. En Suisse, la start-up zurichoise Saipient a lancé Isaac, un assistant numérique conçu pour optimiser diverses tâches administratives dans les cabinets. Cet outil promet lui aussi de réduire le temps consacré à la documentation des patients et à la rédaction des rapports grâce à des fonctionnalités de transcription automatique et à des modèles personnalisables. Isaac se distingue également par sa capacité à analyser et résumer de grandes quantités de données patients, facilitant ainsi la gestion de dossiers volumineux. Isaac offre également une fonctionnalité dédiée à l’automatisation des processus de facturation.

Une autre start-up zurichoise, PlaynVoice, s’est également positionnée sur ce marché. Sa solution en développement propose elle aussi une transcription automatique des conversations entre les professionnels de santé et leurs patients, avec la génération d’un rapport structuré adapté aux besoins des médecins et des psychiatres. Inspiré par des systèmes similaires déployés aux Etats-Unis, l’outil de PlaynVoice a été conçu spécifiquement pour répondre aux exigences légales et réglementaires en vigueur en Suisse. En plus de l’anglais, l’application est capable de traiter des langues locales telles que le suisse allemand et le français. 

De son côté, Domo Health, une start-up issue de l’EPFL, a récemment intégré une IA générative dans son application dédiée aux professionnels des soins à domicile. Cet outil leur promet de gérer plus efficacement leurs patients, tant sur le plan clinique qu’administratif. Alimentée par le service Microsoft Azure OpenAI, l’IA capture les observations vocales des soignants, les corrige et les reformule instantanément. Elle offre également la possibilité de traduire ces notes de manière intuitive, simplifiant ainsi leur utilisation dans un contexte multilingue.

Le danger des hallucinations dans la transcription par IA

L'exploitation de la GenAI dans ces cas d'utilisation médicale soulève toutefois des questions importantes et comporte des risques non négligeables. De nombreux centres médicaux aux Etats-Unis ont commencé à utiliser Whisper, l'outil d'OpenAI, pour retranscrire les consultations entre les patients et les médecins, rapporte l'Associated Press. Une tendance préoccupante, puisque des chercheurs ont détecté des hallucinations dans huit transcriptions audio sur dix examinées par leurs soins. 

De telles erreurs pourraient avoir des conséquences extrêmement graves en milieu hospitalier, comme l'illustre cet exemple: Whisper a inventé un médicament inexistant, un «antibiotique hyperactivé». On comprend dès lors pourquoi OpenAI, dans ses documents en ligne, déconseille explicitement l'utilisation de Whisper dans des contextes décisionnels, où les erreurs pourraient avoir des conséquences majeures... Et l'on comprend aussi pourquoi les solutions présentées dans cet article imposent aux médecins de valider les informations générées automatiquement par l'IA.
 

Tags
Webcode
nVbvvL7C