europia logo white

Regard éthique sur l’intelligence artificielle dans la relation médecin-patient

futuristic-computer-eq`uipment-glows-dark-connected-by-network-server-generated-by-ai-1080x675.png
12 Dec, 2024

Regard éthique sur l’intelligence artificielle dans la relation médecin-patient

par Jérôme Beranger, Expert "IA & Éthique"

 

L’intelligence artificielle (IA) s’est imposée dans le domaine de la santé comme une technologie majeure, transformant la pratique médicale et l’organisation des soins. Le développement rapide de l'IA en médecine introduit des changements majeurs, bouleversant non seulement la pratique clinique mais aussi la manière dont les patients perçoivent les soins. Ce phénomène est amplifié par la capacité de l'IA à traiter de grandes quantités de données et à générer des analyses prédictives, ouvrant la voie à une médecine « 4.0 », plus personnalisée (Béranger et Rizoulières, 2021), participative et préventive. Des applications variées telles que l’aide au diagnostic, la personnalisation des traitements, et la surveillance à distance permettent aujourd’hui d'améliorer la qualité des soins, la planification du parcours de santé, et l’optimisation les coûts. 

Cependant, cette avancée technologique pose des questions éthiques importantes, notamment en ce qui concerne la relation entre le médecin et le patient. Cette alliance thérapeutique, historiquement fondée sur la confiance et l’échange humain, doit désormais s’adapter à l’introduction de solutions numériques sophistiquées. À travers une réflexion éthique sur le rôle de l’IA dans la médecine moderne, il est essentiel de considérer comment ces innovations influencent la dynamique tripartite entre le médecin, le patient, et la machine, tout en garantissant le respect des valeurs humaines fondamentales. 

 

La place de l’IA dans la relation médecin-patient

L’IA est souvent présentée comme un levier permettant aux médecins de mieux gérer leur temps, de se concentrer sur les patients nécessitant leur expertise, et de bénéficier d’une aide à la décision pour des diagnostics complexes. Par exemple, dans des disciplines comme la radiologie, la cardiologie ou la dermatologie, les algorithmes de machine learning peuvent détecter des anomalies avec une précision croissante, soulageant ainsi les praticiens de certaines tâches répétitives et techniques. Cette optimisation du temps et des ressources peut théoriquement renforcer la qualité de la relation médecin-patient, en offrant plus de temps aux échanges humains.

Cependant, malgré les bénéfices potentiels, l’IA ne saurait remplacer la dimension humaine et empathique du soin. Les moments clés de la relation de soin nécessitent souvent une compréhension nuancée des émotions et des besoins du patient, ce qui reste hors de portée des systèmes algorithmiques. L’IA, qualifiée de « faible » car n’ayant ni conscience ni compréhension réelle de ses actions, peut assister le médecin mais ne peut se substituer à lui dans la construction de la confiance, qui repose sur l’écoute, le ressentis, et l’empathie (Hervé et Stanton-Jean, 2018). Ainsi, l’IA doit être envisagée comme un outil d’intelligence augmentée, où la décision finale reste entre les mains du médecin, garantissant ainsi le maintien de la dimension humaine dans la relation thérapeutique.

 

La vigilance éthique face à la déshumanisation potentielle des soins

L’intégration de l’IA dans le parcours de soin n’est pas sans risques. L’un des défis majeurs réside dans la préservation de la dimension humaine du soin, à l’heure où les interactions peuvent devenir de plus en plus médiées par des technologies (Coeckelbergh, 2015). L’automatisation de certaines tâches médicales pourrait mener à une déshumanisation de la relation médecin-patient, où les échanges entre le soignant et le soigné se verraient réduits à des interactions minimales avec la machine (Nakrem et al., 2018). Cette situation, couplée à une potentielle dépendance technologique des professionnels de santé, risque de transformer la perception même de l’exercice médical, et on pourrait assister à moyen terme à une perte du savoir-faire médical pour certaines pratiques et tâches médicales.

Par ailleurs, l’introduction de solutions d’IA pourrait exacerber les inégalités, en particulier pour les patients les moins connectés ou les plus vulnérables. Les personnes âgées ou socio-économiquement défavorisées peuvent être particulièrement exposées à un risque d’exclusion numérique, ce qui soulève des préoccupations éthiques quant à l’accessibilité et à l’équité dans l’accès aux soins (Kim, 2016) (Campolo et al., 2017). Une réflexion éthique sur l’inclusion de ces populations est donc essentielle pour garantir que l’IA contribue à un système de santé plus juste, égale et solidaire (Mittelstadt et Floridi, 2016).

 

L’importance de l’explicabilité et de la transparence des systèmes d’IA

La notion d’explicabilité est au cœur de la vigilance éthique en matière d’IA médicale. L’un des enjeux réside dans la capacité des médecins à comprendre les résultats fournis par les algorithmes et à les expliquer aux patients de manière claire (Ananny et Crawford, 2018). La « boîte noire » des algorithmes peut créer un sentiment de méfiance chez les patients, qui pourraient douter de la légitimité des recommandations données par des systèmes technologiques opaques. Ainsi, l’obligation pour les concepteurs de rendre ces systèmes explicables et compréhensibles pour les professionnels de santé est déterminante pour maintenir la confiance dans la relation médecin-patient (Selbst et Barocas, 2018).

L’enjeu de la transparence est également souligné par les régulations récentes, telles que la loi de Bioéthique en France[1], qui impose aux professionnels de santé de tenir les patients informés de l’utilisation des systèmes d’IA et de leurs interprétations. Ce cadre réglementaire vise à garantir un contrôle humain effectif et à préserver le droit des patients à être informés sur les outils qui influencent leur prise en charge.

 

Vers une redéfinition des rôles du patient et du médecin ?

Traditionnellement, le médecin est chargé de donner un sens à la plainte de son patient, en s’appuyant sur la science, l’expérience, l’empathie, et la dignité humaine. Ce rôle doit évoluer pour intégrer les outils numériques comme compléments à la décision médicale. Cela nécessite une formation adéquate des médecins pour qu'ils puissent s'approprier ces nouvelles technologies telles que l’IA et ainsi enrichir leur pratique. Avec l'introduction des IA, des questions se posent sur le libre arbitre et l'intuition des médecins. Les solutions d'IA, tout en apportant des gains en efficacité, modifient la répartition des responsabilités entre le médecin et le patient, transformant le modèle traditionnel de prise de décision médicale.

La relation entre le médecin et le patient évolue vers une approche plus collaborative. Auparavant, le médecin assumait l’essentiel de la responsabilité de la décision médicale. Aujourd’hui, les patients participent davantage grâce à l'accès à l'information et aux outils numériques. Cette évolution, qualifiée d'empowerment du patient, est renforcée par l’usage de l’IA, qui facilite l’autonomisation des patients et incite les médecins à diversifier leurs compétences. Les applications numériques et les objets connectés offrent aux patients un suivi personnalisé et les incitent à adopter des comportements plus sains, améliorant ainsi la prévention et la gestion de leur santé.

L’avenir de la médecine semble reposer sur une complémentarité entre l’humain et la machine, où les IA, de plus en plus intégrés, participent à la réorganisation des pratiques médicales autour des besoins des patients. Mais cela implique une formation continue des médecins pour qu’ils maîtrisent ces outils tout en conservant les compétences humaines essentielles à la relation de soin. Le Parlement européen[2] a mis en avant l’importance d’une formation appropriée pour les professionnels de santé, visant à les préparer à l’utilisation des technologies numériques tout en renforçant leur expertise clinique. Cette formation doit inclure une dimension éthique, essentielle pour une intégration responsable des technologies d'IA dans la pratique médicale. En France, les facultés de médecine ont commencé à intégrer la médecine numérique dans leurs programmes, sensibilisant les futurs médecins aux enjeux de l’IA et à ses implications éthiques. 

Par ailleurs, il est indispensable de renforcer les compétences sociales et humaines des médecins, comme l’empathie et l’écoute, qui sont fondamentales dans la relation thérapeutique. Des études ont montré que l'empathie a des effets positifs sur les patients, mais elle tend à diminuer au fil des études médicales. Pour contrer ce phénomène, il est essentiel de valoriser ces compétences dans la formation des futurs médecins.

 

De nouvelles perspectives grâce à l’IA

En conclusion, l’introduction de l’IA dans le secteur de la santé ouvre de nouvelles perspectives pour améliorer la qualité des soins et l’efficacité des processus médicaux. Cependant, elle soulève des questions éthiques complexes concernant la place de l’humain dans une relation de soin de plus en plus numérisée. Pour que l’IA contribue à une médecine de qualité, respectueuse des valeurs humaines, il est essentiel de veiller à ce que ces technologies restent des aides à la décision et non des substituts au jugement et à la décision clinique. La transparence, la supervision humaine et l’accessibilité des technologies doivent être les principes directeurs de cette transition numérique. Il est essentiel que les outils numériques améliorent réellement l'autonomie des patients sans introduire de nouvelles inégalités. Le risque de discrimination, notamment pour les populations vulnérables moins à l’aise avec ces technologies, doit être pris en compte. Dans cette nouvelle configuration de la relation de soins, les médecins et les patients partagent la gestion de la maladie et la prise de décision, ce qui modifie les rôles respectifs de chaque acteur dans le parcours de soins. En développant une approche de l’éthique fondée sur une réflexion continue, transversale et adaptative, il est possible de garantir que l’IA en santé demeure un outil de progrès, sans dénaturer la relation soignant-soigné. Le défi est donc de concilier innovation et humanité pour une médecine numérique éthique et inclusive, où la technologie sert avant tout l’intérêt du patient et du professionnel de santé. En définitive, la médecine ne se limite pas à des aspects techniques et diagnostiques ; elle est aussi ancrée dans le contact humain, l’empathie, et la communication. Bien que les machines apportent un soutien précieux aux professionnels de santé, elles ne pourront jamais remplacer les aspects humains de la relation de soin. Le médecin doit donc endosser un rôle de conseiller et de coordinateur, tout en préservant l’humanité de la relation soignant-soigné. C’est dans cette complémentarité entre la technologie et l'humain que réside la survie de l'esprit d'Hippocrate.

 

 __________________________________

[1] Code la santé publique, article L. 4001-3, issu de la loi no 2021-1017 du 2 août 2021 relative à la bioéthique, article 17.
[2] Une politique industrielle européenne globale sur l’intelligence artificielle et la robotique. Résolution 2018/2088 (INI), Parlement européen, Bruxelles.

Article
Partager:
hmyXqiVG_400x400.jpeg
Jérôme Beranger

Designed by Algoretico © 2024 All Rights Reserved