Mon chatbot m’a tué (Dr G. Briganti)

Le débat sur le diagnostic par intelligence artificielle refait surface à l’occasion du congrès de médecine générale en Nouvelle Zélande. La twittosphère médicale britannique était particulièrement critique envers la présentation de Babylon Health, la plateforme en ligne d’anamnèse intelligente avec proposition de diagnostic différentiel très populaire sur smartphone. Lors de la présentation, le représentant de Babylon a vanté les prouesses de l’IA de sa compagnie qui aurait performé mieux à l’examen final de médecine générale (du Collège Royal de Médecine Générale britannique MRCGP) que les médecins en fin de formation. Les propos sont très mal passés au sein des médecins tant spécialistes que généralistes anglais, qui ont fortement critiqué les affirmations de la compagnie. 

Dans un cadre plus général, le diagnostic machine non supervisé a été critiqué également dans The Lancet, un des meilleurs journaux scientifiques du monde , dans une correspondance où les auteurs plaidaient pour la mise en place de guidelines de revision indépendante dans applications voulant poser un diagnostic sans l’avis d’un médecin. 

Mon chatbot m’a tué

Un médecin spécialiste anglais, le Dr. Murphy, s’est prêté au jeu et a partagé son propre test de l’application Babylon, avec un cas “textbook”, celui de la suspicion de l’embolie pulmonaire chez un patient à risque. Le patient proposé était un fumeur de 66 ans se plaignant de hémoptysie, douleur latérothoracique respiro-dépendante, dyspnée et un mollet gonflé. 

Le chatbot de Babylon aboutit après une batterie de questions à un diagnostic de pneumonie, en conseillant le “patient” de consulter un médecin. Les diagnostics les plus graves non mentionnés (même en alternative), le Dr Murphy a décidé de lancer le hashtag #DeathByChatbot (mort par chatbot). 

Un problème d’algorithme ou de vision de soins? 

Il est évident que si comme reporté par certains les algorithmes de diagnostic différentiel automatisé basé sur anamnèse ne mettent pas en évidence des diagnostics cliniques de haute gravité, le problème réside dans l’éducation de l’algorithme lui même, que cela puisse provenir des la qualité/quantité de données utilisées comme input ou de par la capacité de l’algorithme à “inférer” le diagnostic pendant le processus de black box. Il est aussi évident que la publicité de certaines applications ait pu également « exagérer » quant à leur capacité à poser un diagnostic indépendant. 

En prenant du recul par rapport au mauvais diagnostic et au delà des implications éthiques et légales, il faut considérer qu’en attendant l’amélioration des algorithmes de diagnostic, des alternatives existent pour tout simplement faciliter la vie tant des patients que des cliniciens. 

Je pense notamment à Bingli, application belge pour l’anamnèse intelligente qui permettrait aux patients d’effectuer l’anamnèse confortablement à la maison, et au clinicien d’accueillir un patient en ayant déjà pris connaissance en détail de ses plaintes. Une anamnèse aussi détaillée que celles proposées par les nouvelles applications augmentées permettrait un gain de temps d’environ 20 minutes, ou plus si nous incluons également le devoir de codage en langage informatique de type SNOMED-CT. 

Dans tous les cas, la chasse aux sorcières n’est pas une façon saine d’aborder le débat de la médecine augmentée, ni d’enfin convaincre le monde médical aux bénéfices de la digitalisation. 

Une safety net de médecins augmentés est nécessaire

Cet exemple ne fait que soutenir la nécessité d’un filet de sécurité tant national qu'international assuré par les médecins augmentés (médecins formés aux problématiques digitales dont l’intelligence artificielle en santé). 

En apprenant les bases de fonctionnement inférentiel des algorithmes (le processus complet impossible à explorer à cause de la Black Box), les futurs experts pourront trouver l’origine des soucis dans les cas cliniques posant des problèmes à l’algorithme mais aussi aider les institutions de soins dans une amélioration permanente et qualitative des algorithmes en utilisation. Ces applications ne pourront pas s’améliorer sans un effort collectif de la part de la communauté de patients et médicale, mais l’intérêt de ces dernières doit être clair, ainsi que la vision de soins que s’y accompagne. 

Dans les prochaines années, peut être suite à des soucis d’économies dans le secteur de la santé (voir la faillite de certains hôpitaux aux Pays Bas et US), les responsabilités en matière de compétences de soins pourraient se retrouver partagées entre le médecin, l’infirmier et la machine. Dans ce cas, il est nécessaire que tant les décideurs politiques tant la communauté de soignants et patients soient informées des différentes modalités de médecine 3.0, notamment en matière de supervision médicale du diagnostic. 

Perspective : l’intelligence artificielle générale

Il est probable que la résolution d’un cas clinique basé sur anamnèse soit classé comme « problème complexe » ce qui expliquerait la difficulté de certaines applications à aboutir au bon diagnostic. Ceci reste un avantage en médecine clinique, et assurant au médecin qu’il gardera le contrôle sur le diagnostic encore pendant un moment. 

Mais poser l’IA comme outil devient urgent sur un plan politique en matière de santé publique, d’autant plus suite à l’annonce de développement d’intelligence artificielle généralisée (ou IA forte). 

Les applications augmentées sont basées à l’heure actuelle sur une IA « faible », c’est à dire une intelligence artificielle pouvant résoudre un problème précis sur base de son apprentissage. 

L’IA forte peut par contre « raisonner à l’humaine » et prendre en charge les différentes complexités d’un problème plus large. Pourrons nous, par exemple, utiliser une IA forte en consultation oncologique multidisciplinaire afin d’aboutir à une indication opératoire? 

Il sera dès lors important de se focaliser sur la sécurité du patient, d’où l’importance d’un cadre favorisant tant le développement que la régulation internationale des soins augmentées.

> Lire aussi : 

Médecine augmentée : face au fossé politique, l’éveil scientifique (Dr Giovanni Briganti)

L’erreur liée au traitement de données par ordinateur est-elle un risque admissible dans les soins de santé? (Dr Sam Ward et Mme Karolien Haese)

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.