La responsabilité juridique des outils d’IA médicale : un défi pour le droit de demain

L’essor fulgurant de l’intelligence artificielle en médecine soulève des questions juridiques inédites. Entre promesses thérapeutiques et risques potentiels, comment encadrer la responsabilité de ces nouveaux outils ? Plongée dans un débat juridique complexe aux enjeux considérables pour l’avenir de la santé.

Le cadre juridique actuel face à l’IA médicale

Le droit de la santé et le droit de la responsabilité médicale n’ont pas été conçus pour appréhender les spécificités de l’intelligence artificielle. Les outils d’IA médicale soulèvent des questions inédites en termes de responsabilité, que ce soit celle des médecins, des établissements de santé, ou des concepteurs de ces technologies.

La jurisprudence actuelle en matière de responsabilité médicale repose largement sur la notion de faute. Or, comment caractériser une faute dans le cas d’un diagnostic erroné posé par un outil d’IA ? La Cour de cassation et le Conseil d’État devront probablement faire évoluer leur jurisprudence pour s’adapter à ces nouvelles problématiques.

Les enjeux de la qualification juridique des outils d’IA médicale

La qualification juridique des outils d’IA médicale est cruciale pour déterminer le régime de responsabilité applicable. Doivent-ils être considérés comme de simples dispositifs médicaux, soumis à la directive européenne 93/42/CEE ? Ou faut-il créer une catégorie juridique sui generis ?

Le règlement européen sur l’intelligence artificielle, en cours d’élaboration, pourrait apporter des éléments de réponse. Il prévoit notamment une classification des systèmes d’IA selon leur niveau de risque, avec des obligations renforcées pour les systèmes à haut risque, catégorie dans laquelle devraient entrer de nombreux outils d’IA médicale.

La responsabilité des concepteurs et éditeurs d’IA médicale

Les concepteurs et éditeurs d’outils d’IA médicale pourraient voir leur responsabilité engagée sur le fondement de la responsabilité du fait des produits défectueux. Cette responsabilité, issue de la directive européenne 85/374/CEE, s’applique dès lors qu’un produit n’offre pas la sécurité à laquelle on peut légitimement s’attendre.

Toutefois, l’application de ce régime aux outils d’IA soulève des difficultés. Comment prouver le défaut d’un algorithme complexe et évolutif ? Le risque de développement, qui exonère le producteur si l’état des connaissances scientifiques ne permettait pas de déceler le défaut, pourrait-il s’appliquer à l’IA ?

La responsabilité des professionnels de santé utilisant l’IA

Les médecins et autres professionnels de santé utilisant des outils d’IA pourraient voir leur responsabilité engagée en cas d’erreur médicale. Mais dans quelle mesure peuvent-ils être tenus pour responsables d’une décision prise sur la base des recommandations d’un outil d’IA ?

Le devoir d’information du médecin envers son patient devra probablement être adapté pour inclure l’utilisation d’outils d’IA dans le processus de diagnostic ou de traitement. La notion de perte de chance, fréquemment invoquée en responsabilité médicale, pourrait trouver un nouveau champ d’application dans les cas où le non-recours à l’IA aurait pu changer l’issue pour le patient.

Vers un régime de responsabilité spécifique pour l’IA médicale ?

Face aux limites des régimes de responsabilité existants, certains juristes plaident pour la création d’un régime sui generis pour l’IA médicale. Ce régime pourrait s’inspirer du fonds d’indemnisation des accidents médicaux, créé par la loi Kouchner de 2002, pour garantir une indemnisation des patients victimes d’erreurs liées à l’IA, sans avoir à prouver une faute.

Une autre piste serait de s’inspirer du régime de responsabilité des véhicules autonomes, en cours d’élaboration dans plusieurs pays. Ce régime prévoit généralement une responsabilité sans faute du constructeur, assortie d’une obligation d’assurance.

Les défis de la preuve et de l’expertise judiciaire

L’établissement de la preuve en cas de litige impliquant l’IA médicale soulève des défis considérables. Comment retracer le processus décisionnel d’un algorithme de deep learning ? Comment déterminer si une erreur est imputable à l’IA, au médecin, ou à une interaction complexe entre les deux ?

Ces questions nécessiteront le développement d’une nouvelle forme d’expertise judiciaire, à la croisée du droit, de la médecine et de l’informatique. Les juges devront également être formés pour appréhender ces nouvelles problématiques techniques et éthiques.

Les enjeux éthiques et sociétaux

Au-delà des questions purement juridiques, la responsabilité des outils d’IA médicale soulève des enjeux éthiques et sociétaux majeurs. Comment garantir la transparence et l’explicabilité des décisions prises par l’IA, conditions nécessaires à la confiance des patients et des professionnels de santé ?

La question de la protection des données personnelles de santé, particulièrement sensibles, se pose avec une acuité nouvelle face aux capacités de traitement massif de l’IA. Le RGPD offre un cadre, mais son application à l’IA médicale soulève encore de nombreuses interrogations.

L’encadrement juridique de la responsabilité des outils d’IA médicale constitue un défi majeur pour le droit de demain. Entre nécessité d’innovation et impératif de protection des patients, les législateurs et les juges devront trouver un équilibre délicat. L’enjeu est de taille : permettre le développement d’une IA médicale au service de la santé publique, tout en garantissant la sécurité juridique de tous les acteurs impliqués.