Intelligence artificielle et santé publique
Parmi les thèmes débattus lors des états généraux de 2018 pour ou non la promulgation de nouvelles lois bioéthiques (2 août 2021), figurait la fiche « Neurosciences et intelligence artificielle ».
Le Conseil consultatif national d’éthique (CCNE) et le Comité national pilote d’éthique du numérique (CNPEN) viennent de rendre public un avis soulignant les « tensions éthiques » que posent les systèmes d’intelligence artificielle pour le diagnostic médical (SIADM). Son titre est : « Avis 141 – Diagnostic Médical et Intelligence Artificielle : Enjeux Éthiques ».
En effet, l’IA (Intelligence artificielle) pourrait être utilisée « dans une logique de substitution à l’intervention humaine » avec une confiance aveugle de l’algorithme qui peut donner de faux négatifs comme de faux positifs. Le contrôle humain reste nécessaire à toutes les étapes du soin. D’où l’avis du CCNE et du CNPEN qui comprend 16 recommandations et 7 points de vigilance. Si l’IA a sa place pour aider, elle ne peut se substituer au travail des équipes médicales, et à plus fortes raisons les remplacer.
L’avis recommande de promouvoir le statut d’auxiliaire – ou d’aidant – numérique, qui aiderait les patients à mieux comprendre les résultats produits par l’intelligence artificielle et soulagerait les soignants de sa complexité.
Avis 141 du CCNE et 4 du CNPEN
Neurosciences et Intelligence artificielle
IA et diagnostic : le CNPEN alerte sur les risques