Vous êtes dans : Accueil > Actualités > E-Santé >

Diagnostic médical et intelligence artificielle : deux comités d’éthique formulent des recommandations et appellent à la vigilance

DSIH, LUNDI 16 JANVIER 2023

Le Comité consultatif national d’éthique (CCNE) et le comité national pilote d’éthique du numérique (CNPEN), en réponse à une saisine adressée par le Premier ministre, ont publié le 10 janvier un avis sur les enjeux d’éthique de l’utilisation de l’intelligence artificielle (IA) dans le champ du diagnostic médical.

Cet avis de 58 pages, accessible sur le site du CCNE, est divisé en quatre parties. Il commence par décrire les principaux soubassements de l’utilisation de systèmes d’intelligence artificielle dans le diagnostic médical (partie 1) et leur portée opérationnelle (partie 2), avant de questionner la procession de régulation de ces systèmes, qui « reste à construire » (partie 3) et de décrire les enjeux éthiques posés (partie 4).

Si les auteurs de l’avis notent que les systèmes d’intelligence artificielle appliqués au diagnostic médical (SIADM) sont d’ores et déjà pourvoyeurs de nombreux progrès (identification de lésions qui échappent à l’œil humain ; traitement rapide de cas assez aisés à diagnostiquer mais répétitifs ; amélioration de l’organisation des soins ; etc.), ils rappellent que « les promesses sont nombreuses et nécessitent dans un premier temps de bien les distinguer des faits ». Ils insistent également sur le fait que les SIADM « produisent des résultats basés d’une part sur des approches qui peuvent être probabilistes et d’autre part peuvent être entachés d’erreurs ».

Les deux comités d’éthique estiment qu’il ne serait pas éthique de priver, a priori, les équipes soignantes et les patients des atouts des SIADM. Néanmoins, ils invitent les utilisateurs à « se donner constamment les moyens de prendre de la distance avec le résultat fourni » et jugent « indispensable » de mieux encadrer ces systèmes pour augmenter la confiance en eux.

Ils formulent pour cela seize recommandations. Ils appellent notamment à améliorer le contrôle de conformité des SIADM, qui doit « être accompagné d’une évaluation de son efficacité clinique montrant, au-delà de son absence de nocivité, qu’il contribue efficacement au principe de bienfaisance ». Les autorités doivent s’assurer que « les SIADM s’inscrivent dans une logique d’amélioration continue de la qualité et de la sécurité des soins » et éviter qu’ils « ne soient positionnés dans une logique de substitution à l’intervention humaine des professionnels de santé ».

D’autres recommandations préconisent de soumettre les SIADM à un contrôle humain à toutes les étapes-clés de la conception et de l’application en vie réelle du dispositif ; de faciliter l’explicabilité des résultats obtenus afin que les médecins soient en mesure de leur donner un sens clinique ; d’informer le patient en cas de recours à un SIADM ; mais aussi d’encourager la recherche afin d’améliorer les processus de validation de l’intérêt clinique et de conformité des SIADM.

Les systèmes d’intelligence artificielle doivent en outre « toujours être utilisés en priorité dans une optique d’amélioration du soin, avant les intérêts organisationnels, économiques, ou managériaux », souligne l’avis.

#national#numérique#clinique