La responsabilité juridique des outils d’IA médicale : un défi pour le droit de la santé

L’essor fulgurant de l’intelligence artificielle en médecine soulève des questions juridiques complexes. Entre promesses thérapeutiques et risques potentiels, comment encadrer la responsabilité de ces nouveaux outils ?

Le cadre juridique actuel face à l’IA médicale

Le droit de la santé se trouve aujourd’hui confronté à un défi majeur : l’encadrement juridique des outils d’intelligence artificielle utilisés dans le domaine médical. Le cadre législatif existant, principalement basé sur la responsabilité du praticien et l’obligation de moyens, peine à s’adapter à ces nouvelles technologies. La loi Kouchner de 2002 sur les droits des patients et la qualité du système de santé n’avait pas anticipé l’arrivée massive de l’IA dans les pratiques médicales.

Face à ce vide juridique relatif, les tribunaux doivent souvent interpréter les textes existants pour les appliquer aux cas impliquant des outils d’IA. Cette situation crée une insécurité juridique tant pour les professionnels de santé que pour les patients. Le Conseil d’État et la Cour de cassation ont déjà été amenés à se prononcer sur des affaires mettant en jeu des dispositifs médicaux « intelligents », mais sans établir de jurisprudence claire et uniforme.

Les enjeux spécifiques de la responsabilité en matière d’IA médicale

L’utilisation d’outils d’IA en médecine soulève des questions inédites en matière de responsabilité. Le partage des responsabilités entre le médecin, l’établissement de santé, le concepteur de l’IA et éventuellement le fournisseur de données d’entraînement devient particulièrement complexe. La notion d’autonomie décisionnelle de l’IA remet en question le principe traditionnel de la responsabilité du praticien.

Par ailleurs, la traçabilité des décisions prises par les algorithmes d’IA pose problème. Le caractère « boîte noire » de certains systèmes d’apprentissage profond rend difficile l’établissement d’un lien de causalité clair en cas de dommage. Cette opacité questionne le droit à l’information du patient et la possibilité d’obtenir son consentement éclairé.

Vers un régime de responsabilité spécifique ?

Face à ces enjeux, plusieurs pistes sont envisagées pour adapter le droit à cette nouvelle réalité. L’une d’elles consiste à créer un régime de responsabilité sui generis pour les outils d’IA médicale, à l’instar de ce qui existe pour les produits défectueux. Ce régime pourrait s’inspirer du règlement européen sur l’IA en cours d’élaboration, qui prévoit une approche graduée selon le niveau de risque des systèmes d’IA.

Une autre approche consisterait à renforcer la responsabilité du fait des choses prévue par l’article 1242 du Code civil, en l’adaptant spécifiquement aux outils d’IA. Cela permettrait de tenir compte de l’autonomie relative de ces systèmes tout en maintenant un lien avec leur utilisateur ou propriétaire.

Le rôle crucial de l’assurance

L’évolution du cadre juridique devra nécessairement s’accompagner d’une adaptation du système assurantiel. Les contrats d’assurance responsabilité civile professionnelle des médecins et des établissements de santé devront être revus pour intégrer les risques spécifiques liés à l’utilisation d’outils d’IA. De nouveaux produits d’assurance pourraient voir le jour, comme des polices spécifiques pour les concepteurs d’IA médicale.

La question de l’assurabilité de certains risques liés à l’IA en santé se posera inévitablement. Des mécanismes de mutualisation des risques à l’échelle nationale ou européenne pourraient être nécessaires pour garantir une couverture adéquate sans freiner l’innovation.

Les perspectives d’évolution législative

Le législateur français et européen est conscient de la nécessité d’adapter le droit à ces nouvelles réalités. Au niveau national, une proposition de loi visant à encadrer l’utilisation de l’IA en santé est actuellement en discussion. Elle prévoit notamment la création d’un comité d’éthique spécifique et l’obligation d’une certification pour les outils d’IA médicale les plus critiques.

Au niveau européen, le futur règlement sur l’IA devrait avoir un impact significatif sur le cadre juridique de la responsabilité. Il prévoit notamment des obligations renforcées pour les systèmes d’IA à haut risque, catégorie dans laquelle entreront probablement de nombreux outils médicaux.

Les défis éthiques et sociétaux

Au-delà des aspects purement juridiques, la question de la responsabilité des outils d’IA médicale soulève des enjeux éthiques et sociétaux majeurs. Le risque de déshumanisation de la relation médecin-patient est souvent évoqué, de même que les questions d’équité d’accès à ces nouvelles technologies.

La protection des données personnelles de santé, particulièrement sensibles, est un autre défi de taille. Le RGPD offre un cadre général, mais son application aux spécificités de l’IA médicale nécessite encore des clarifications.

Enfin, la question de la souveraineté technologique en matière d’IA médicale se pose avec acuité. Comment garantir que les outils utilisés dans le système de santé français répondent à nos valeurs et à nos exigences éthiques ?

L’encadrement juridique de la responsabilité des outils d’IA médicale est un chantier complexe mais crucial. Il nécessite une approche équilibrée, capable de protéger les patients tout en favorisant l’innovation. Le droit devra évoluer rapidement pour répondre à ces nouveaux enjeux, tout en restant fidèle aux principes fondamentaux de notre système de santé.