Challen R, Denny J, Pitt M, Gompels L., Edwards T., Tsaneva-Atanasova
K. et al Artificial intelligence, bias and clinical safety BMJ Qual Saf 2019;28:231-237
Les recherches en Intelligence Artificielle se multiplient en médecine, avec une priorité sur la capacité d’apprentissage des machines (machine learning) pour les situations complexes. Ces machines se basent sur des milliers de données acquises sur les patients puis établissent leurs corrélations et proposent des prédictions difficiles à imaginer avec la connaissance actuelle.
Certaines prédictions économiques disent que l’IA contribuera à 14% du PIB des nations en 2030, dont la moitié par des gains de productivité.
En médecine, un secteur prioritaire dans la recherche IA, on note certains progrès spectaculaires, mais le résultat global reste modeste, avec à la clé un problème de méthode d’évaluation du gain pour le patient, sans parler des questions d’éthiques et médico-légales associées à ces nouvelles technologies.
Les systèmes IA d’aide au diagnostic fonctionnent sur la base de règles ‘ (extraite du savoir des professionnels, et des résultats observés). Certains sont déjà très efficaces comme les aides au diagnostic de malignité dans l’imagerie, ou même les analyses de photos de peaux (cancers), ou les conseils optimisés sur la radiothérapie.
Mais en regardant à peine plus loin, on voit arriver la possibilité de systèmes IA qui iraient bien au-delà des recommandations cliniques, pourraient par exemple effectuer des tris de patients pour des priorités d’accès aux traitements, évidemment avec le cortège de problèmes éthiques associés. Les questions de Qualité et Sécurité de ces systèmes sont aussi matières à de nombreux débats, car on ne sait pas ce que ces systèmes apprennent vraiment, et ce qu’ils savent à l’issue de l’apprentissage, de sorte qu’on a bien du mal à les évaluer (boite noire et évolutive dans le temps en plus). L’article pointe très pédagogiquement une série de défis sur la Qualité de ces systèmes (1) à court (faux positifs, mauvais apprentissage, réponse forcée même quand les données manquent – pas d’autocritique), (2) moyen (biais de confirmation, sur confiance et difficulté croissante à critiquer, renforcement des certitudes du passé et fixité fonctionnelle) et (3) long terme (effet local au détriment d’une vision globale, exploration et adoption de nouvelles stratégies dangereuses, effet d’échelle non maîtrisé dans le temps à passer à contrôler le système).
Mon avis : des bonnes questions sur l'arrivée de l'intelligence artificielle en médecine : quelques bénéfices et déjà tant de problèmes nouveaux à résoudre.