fr
fr

Une approche éthique et acceptable de l’utilisation de l’intelligence artificielle en médecine

L’intelligence artificielle s’impose comme l’une des évolutions les plus marquantes de la médecine moderne. Cette technologie se retrouve dans les salles d’opération, les prothèses intelligentes et les consultations en ligne, entre autres.

Faut-il vraiment discuter d’une éthique de l’intelligence artificielle en médecine ? Absolument ! On parle quand même d’une technologie passée tout proche de réussir l’examen USMLE en 2022. Ce test en trois parties est une étape incontournable du parcours de formation universitaire des médecins aux États-Unis.

En France, le sujet n’échappe pas au Comité consultatif national d’éthique, qui a publié un premier avis en novembre 2022. Ce document identifie toutes les problématiques réelles ou supposées soulevées par le recours à l’intelligence artificielle dans le diagnostic médical et les protocoles de soins.

L’avis précise d’emblée l’existence d’un texte de référence éthique qui encadre l’utilisation de Systèmes d’Intelligence Artificielle dans le diagnostic médical. Il s’agit de l’article 17 de la loi n°2°21-1017 du 2 août 2021 relative à la bioéthique. Cette loi évoque notamment les cas d’utilisation d’un dispositif médical qui fait appel au traitement de données algorithmique et le machine learning comme aide au diagnostic ou à un acte de prévention.

Trois critères déterminent l’acceptabilité de ces dispositifs basés sur l’IA en médecine :

  • Primo, les utilisateurs doivent fournir une assurance d’explicabilité

Les médecins savent-ils exactement comment le système fonctionne ? Ont-ils obtenu des renseignements suffisants de la part des concepteurs du dispositif ? La logique et la loi veulent que les praticiens se fient uniquement à des techniques qu’ils maîtrisent dans leur travail.

  • Le deuxième critère porte sur l’accessibilité des données de l’IA pour les patients

En partant du principe de non-malfaisance et du consentement éthique dans l’utilisation des données de santé, les utilisateurs d’IA sont tenus par un devoir de transparence envers leurs patients. Ces derniers, conformément aux droits des patients, ont l’autorisation d’accéder aux données qui les concernent et qui ont été traitées par le Système d’Intelligence Artificielle. Ce droit concerne également les résultats issus du diagnostic et du traitement algorithmique.

  • La pertinence de l’utilisation du SIAD

Pourquoi le professionnel de santé choisit-il de recourir à l’Intelligence Artificielle pour son diagnostic ? Les prédictions, contenus, décisions ou recommandations du système sont-ils pertinents et adaptés au protocole de soins ? Le praticien applique-t-il le principe de « humanoversight » ou contrôle humain, indispensable à une telle opération ? Le gain de temps promis par l’IA est-il réellement significatif pour justifier son utilisation ?

Beaucoup pensent que le temps libéré par les systèmes d’Intelligence Artificielle permet aux soignants de se concentrer sur leur relation avec la personne malade. De leur côté, les opposants à l’IA doutent des performances réelles de la technologie, dont les limites commencent à apparaître. Certains observateurs soulèvent notamment les problèmes de confiance et d’anxiété causés par l’absence d’un intervenant humain durant un protocole de soin à distance.

Les inégalités d’accès aux systèmes numériques modernes soulèvent des questions éthiques en lien avec l’injustice sociale et la forte disparité de la qualité des services de santé.  D’autres implications pratiques et d’autres notions d’éthique demandent aussi des réflexions supplémentaires concernant l’utilisation de l’IA :

  • Cette technologie améliore-t-elle vraiment l’accès aux soins dans les déserts médicaux ou, au contraire, précipite-t-elle l’exclusion de certaines catégories de personnes aux formidables avancées de la médecine humaine ? Les faits sont là : les personnes qui ont des difficultés à s’approprier les outils numériques en santé sont aussi celles qui peinent à bénéficier de soins de qualité dans les centres hospitaliers.
  • Le système d’Intelligence Artificielle respecte-t-il les principes éthiques de base, comme le consentement éclairé, la non-malfaisance et la responsabilité professionnelle du soignant ?
  • Les administrateurs des outils d’Intelligence Artificielle sont-ils conscients des risques de dérives et de mésusage de cette technologie ? Quelles mesures prévoient-ils en cas de dysfonctionnements ou de failles dans le fonctionnement de ces systèmes ?
  • La large diffusion de l’IA pour établir le diagnostic médical pose une autre question qui concerne l’éthique de la technologie médicale : que penser du risque de discrimination inhérent à l’accessibilité des données médicales par les acteurs de l’assurance santé complémentaires ? Certains établissements pourraient tenter de proposer une offre individualisée, donc potentiellement préjudiciable à certains profils.

Tous ces points de vigilance ne représentent qu’une partie des implications éthiques, légales et sociales du développement médical en matière d’Intelligence Artificielle. Du fait de l’essor récent de cette technologie, le cadre réglementaire de son utilisation dans les sciences de la vie et pour des objectifs médico-sociaux est encore balbutiant.

Néanmoins, les projets de loi globale sur l’IA commencent à prendre forme. La Commission européenne prend de l’avance sur cet aspect éthique et légal avec sa proposition de loi sur l’Intelligence Artificielle. La Commission suit un raisonnement basé sur l’appréciation du risque et des pratiques interdites liés à l’utilisation d’une IA. Le texte identifie quatre niveaux de risques différents, allant du plus intolérable jusqu’au risque faible.

  • Les risques intolérables

Dans l’article 5 du projet de l’IA, la Commission européenne souhaite interdire toute activité nuisible de l’IA qui présente un danger inacceptable pour la sécurité, les moyens de subsistance et les droits des personnes. Les techniques subliminales manipulatrices font partie de ces activités strictement interdites. Cette proscription s’applique aussi aux technologies d’identification biométrique à distance et en temps réel dans les espaces publics.

  • Les risques élevés

La liste établie par l’article 6 du projet inclut notamment les systèmes d’IA capables d’identifier et de classer les personnes physiques à l’aide de la biométrie comme l’exploitation et la gestion des infrastructures vitales, la formation et l’instruction de la main-d’œuvre, la gestion de l’asile et des contrôles aux frontières ainsi que l’administration des processus démocratiques. Les fournisseurs de services IA qui interviennent dans ces domaines doivent enregistrer leurs systèmes dans une base de données gérée par la Commission européenne.

  • Les risques limités

Les chatbots et les systèmes d’IA qui interagissent avec des êtres humains présentent un risque limité pour la sécurité des personnes, selon le projet de loi de la Commission européenne. On est en droit de questionner cette classification si ces technologies sont utilisées dans un cadre médical.

Le projet de Loi pour l’Europe sur l’Intelligence Artificielle est la première législation au monde qui propose un encadrement global et raisonnable de cette technologie. Son objectif n’est pas de brider l’évolution des systèmes apprenants. Le texte cherche plutôt à orienter le potentiel de l’IA vers les activités et applications qui sont bénéfiques pour les sciences humaines et sociales, le tout, sans chercher à mettre en danger les droits fondamentaux de la personne et de la société.

Ces réflexions éthiques menées au niveau européen vont certainement ouvrir la voie à d’autres initiatives en faveur d’une meilleure réglementation de l’IA dans le domaine médical, notamment pour protéger les patients et les autres parties concernées.

Agora Ethique & Santé

Partie 6 – Les enjeux éthiques liés au développement de nouvelles technologies en milieu médical

Laissez un commentaire