L'adaptabilité du régime de responsabilité sans faute à l'intelligence artificielle  médicale

PROPOS INTRODUCTIF 

1. Il est important de souligner que la responsabilité sans faute du médecin concerne une situation dans laquelle celui-ci n'a pas personnellement commis de faute, mais se voit néanmoins tenu pour responsable par le biais d'un instrument, qu'il soit d’origine exogène ou endogène[1]. En se penchant sur cette définition, il est légitime d’envisager que l'intelligence artificielle employée en médecine opère en tant qu’instrument exogène. Dans ce cadre, la faute attribuée à cette IA dans l'exercice médical ne relève pas d'une faute personnelle, mais celle liée à des choses. C'est pourquoi il sera primordial d'invoquer la responsabilité du fait des choses (I).  En outre, il est essentiel de mettre en lumière que l'IA en médecine se présente avant tout comme une machine, c’est-à-dire un produit élaboré grâce à des avancées technologiques. Ce produit, résultant de l'assemblage d'appareils sophistiqués, peut se révéler défectueux, entraînant ainsi une erreur dans l'exécution des actes médicaux. De ce fait, nous estimerons pertinent d'appliquer le régime de responsabilité du fait des produits défectueux (II). 

I : LE RÉGIME DE RESPONSABILITÉ DU FAIT DES CHOSES APPLIQUE À l’IA MÉDICALE

      2. Il est important de noter que le régime de responsabilité du fait des choses est une œuvre prétorienne destinée à répondre aux progrès de l’industrialisation[2]. De ce fait, peut-on envisager une adaptation de ce régime de responsabilité à l'essor des nouvelles technologies, notamment l'intelligence artificielle, à l'heure actuelle? En réponse à cette question, il est manifeste que les préjudices causés par l'intelligence artificielle dans le domaine médical peuvent être analysés sous l'angle de la responsabilité du fait des choses. À cette fin, il est essentiel d'examiner, d'une part, les conditions relatives à l'existence de la chose (I1) et, d'autre part, les conditions relatives à la garde de la chose (II2). Cette analyse permettra d'évaluer la pertinence de ce régime de responsabilité et sa capacité à répondre aux spécificités inhérentes à l'utilisation de l'intelligence artificielle dans le cadre médical.

I1: UNE CONDITION RELATIVE A L’EXISTENCE DE LA CHOSE

3. Il est fondamental de débuter par l’interprétation de la notion classique de la chose à la lumière de l’IA (A), avant de procéder à l’évaluation de la pertinence de l’application du fait de la chose (B).

A-L’interprétation de la notion de chose à la lumière de l’IA médicale

4. Une présence indispensable de la chose. L’article 1242 al.1er du Code civil français dispose que, « on est responsable (...) des choses que l'on a sous sa garde ». À première vue, cette disposition révèle que l’existence de la chose est indispensable pour activer la responsabilité du fait des choses. Dès lors, il est pertinent de s’interroger sur la définition de la chose.

5. Définition de la chose. La notion de chose n’a pas fait l’objet de définition dans le Code civil. Le législateur se limite à classer tous les biens en deux catégories en disant que : « Tous les biens sont meubles ou immeubles [3]». Cette absence de défintion claire a conduit à des divergences au sein de la doctrine. Dans ce contexte, le professeur Cyril GRIMALDI apporte une précision utile en disant qu’« un bien est une chose susceptible d’appropriation[4]». La même définition est partagée par Raphael BRIGUET-LAMARRE[5]. Cet auteur apporte également une précision selon laquelle, « Toutes les choses ne sont pas des biens, mais tous les biens sont des choses. C’est le caractère appropriable qui fait passer la chose dans la catégorie juridique de bien[6]». Ainsi, le professeur Aline Cheynet de Beauté, quant à lui, « La chose et le bien renvoient à la même réalité »[7].

6. Application de la notion de la chose à l’IA en médecine. L’article 516 du Code civil délimite avec clarté le champ d’application relatif à la classification des biens, les distinguant en biens meubles et biens immeubles. En ce qui concerne l'intelligence artificielle, généralement incarnée sous forme de logiciel, il est impératif de souligner qu'elle ne peut, à elle seule, exercer efficacement une activité médicale sans le soutien d'un dispositif matériel. Il convient également de noter que les calculs complexes indispensables au fonctionnement de l’intelligence artificielle nécessitent des unités de traitement, telles que des processeurs ou des unités de traitement graphique, que l’on retrouve au sein des ordinateurs et des serveurs. Par conséquent, les données cruciales pour l'entraînement des modèles d'intelligence artificielle doivent être stockées sur des supports physiques, tels que des disques durs ou des serveurs, afin d'être accessibles et traitées de manière adéquate

7. En plus, l’IA dépend sans doute des infrastructures matérielles pour la mémoire temporaire et de stockage à long terme et cela permet aux algorithmes de fonctionner de manière efficace afin d’éviter des erreurs. Sans le support d’une machine physique, l’IA ne pourra pas interagir avec le monde extérieur, car elle n’a pas de moyen d’accéder à des capteurs ou des dispositifs de sortir. Par ailleurs, il est aussi important de souligner que les robots médicaux dotés de l’IA ont indiscutablement besoin d’un support physique comme des moteurs et des outils informatiques pour pouvoir exécuter les décisions de l’utilisateur[8].

8. Au regard de cette analyse, il apparaît clairement que le caractère immatériel de l’intelligence artificielle ne constitue pas l’élément prédominant face à son caractère matériel. Autrement dit, l'ensemble du processus de création de l'intelligence artificielle repose en grande partie sur des équipements informatiques. Ainsi, l'intelligence artificielle se révèle indissociable de ces matériels informatiques qui lui permettent non seulement d'exister, mais également de fonctionner efficacement. À cet égard, il est légitime d'affirmer avec certitude que l'intelligence artificielle s'apparente à un bien au sens de l'article 516 du Code civil

9. Analyse de la position doctrinale de la chose au prisme de l’IA en médecine. Le professeur Cyril GRIMALDI,quant à lui, « Un bien est une chose susceptible d’appropriation[9]». Lorsque l’on examine cette définition avec acuité, il est légitime d'affirmer que l'intelligence artificielle, bien qu'elle soit intrinsèquement immatérielle, peut néanmoins faire l'objet d'une appropriation tangible via des dispositifs[10] tels que les robots médicaux, les ordinateurs, les produits médicaux intelligents, les logiciels d'aide à la décision etc. Cette transposition de l'immatériel vers le matériel engendre la création d'une chose. Dans ce sens, les juges ont affirmé que, : « l’ensemble des éléments techniques mis en œuvre en matière de diffusion télévisée effectuée en direct aboutit à la réalisation d’une image qui, susceptible notamment de reproduction et de conservation dans des archives, constitue une chose au sens de l’article 1384 al. 1er du Code civil[11] ».

10. Au regard de cette jurisprudence en date de 1992, l’image diffusée est sans doute un bien incorporel. Toutefois, l’instrument ou le corpus sans lequel la diffusion de cette image serait impossible est bien la télévision. Il ne serait donc pas logique d’exclure la télévision et l’image diffusée dans la catégorie des choses. À ce titre, il est donc légitime de soutenir que cette jurisprudence reconnaît la possibilité de qualifier de chose même lorsque l’incorporel est intégré au corporel. Cette hypothèse est particulièrement pertinente dans le cas de l’intelligence artificielle, qui fonctionne en interaction avec les matériels informatiques. 

11. En résumé, il apparaît que l'intelligence artificielle constitue indubitablement un bien incorporel intégré à un bien corporel. La nature du bien relatif à l'intelligence artificielle ne saurait être mise en doute. Tout bien ayant fait l'objet d'une appropriation, qu'il soit meuble ou immeuble, matériel ou immatériel, dangereux ou inoffensif, entre dans le champ d'application de la responsabilité du fait des choses, à l'exception des biens soumis à des régimes spécifiques[12]. Par ailleurs, après avoir établi que l'intelligence artificielle peut être envisagée comme un bien, il est également impératif que ce même bien soit impliqué dans la survenance du dommage medical. 

B-Le fait de la chose au regard de l’IA médicale

12. Selon la jurisprudence Dame Cadé en date du 19 février 1941, il est impératif que la chose ait été l’instrument du dommage joue un rôle actif[13]. En plus, la chose l’instrument du dommage doit être soit en mouvement (1), soit inerte (2).

1-La chose en mouvement 

13. Il convient de souligner que lorsqu’il y a eu contact entre la chose et le siège du dommage et si la chose était en mouvement lors de l’accident médical, la victime devra tout simplement prouver l'intervention matérielle de la chose[14]. Pour ce faire, elle devra démontrer l’anormalité de la chose, soit dans sa structure ou son état, soit dans son positionnement ou comportement[15].

14. Application à l’IA en médecine. Dans le domaine de la santé, nous assistons à la prolifération des robots médicaux dotés d’une intelligence artificielle, capable de se déplacer de manière autonome d’un point A à B durant l’acte médical. Il est donc envisageable que ces robots chirurgicaux dotés d’une IA causent des dommages lors d’une intervention chirurgicale. Dans ce contexte, il est tout à fait plausible d’affirmer que le critère selon lequel la chose, en tant qu’instrument du dommage doit être en mouvement est bien applicable l’IA médicale[16]. Par ailleurs, au-delà de ce critère du mouvement, il convient également de considérer celui de l’inertie.

 

2-La chose inerte

15. Pour qu’une chose inerte puisse jouer un rôle actif dans la survenance d’un dommage, il est impératif, selon la jurisprudence[17], que la victime établisse la preuve d’une anormalité de la chose[18]. Celle-ci peut être appréciée tant au niveau de sa structure[19] que de son fonctionnement[20], de sa position[21], ou de son état[22].

16. Application à l’IA médicale. Il est à noter que toutes les IA ne sont pas mobiles. En effet, il existe des systèmes d’IA de diagnostic assistés par des ordinateurs fixes qui permettent d’aider les professionnels de santé à analyser les images médicales, par exemple, les radiographies, les IRM etc. Ces IA stables dans les hôpitaux, peuvent causer sans doute des dommages au patient en raison d’une défaillance dans sa structure, son fonctionnement, son état. Et cette défaillance de l’IA peut bien correspondre à une anomalie. Par exemple, un dysfonctionnement au niveau de l’algorithme, des données entrantes, ou des paramètres de réglage, cela pourrait être considéré comme une preuve de l’anomalie jouant ainsi un rôle actif dans la survenance du dommage.

17. À la lumière des analyses menées, il apparaît possible d'affirmer que les conditions requises pour engager la responsabilité du fait des choses, en ce qui concerne les dommages causés par l'intelligence artificielle dans le domaine médical, sont indéniablement envisageables. Toutefois, il convient d'examiner avec soin la seconde condition, afin de s'assurer que ce régime de responsabilité s'adapte à l'IA en médecine. Cette condition concerne la notion de garde de la chose (II2). 

II2: UNE CONDITION RELATIVE A LA GARDE DE LA CHOSE

18. Il convient de souligner que la personne chargée de la garde de l'intelligence artificielle en médecine est probablement celle qui sera tenue responsable des dommages qu'elle pourrait causer. Dans un contexte technologique, il est légitime de s'interroger sur l'identité du véritable responsable des préjudices médicaux, en distinguant entre la garde juridique de la chose (A) et la garde matérielle de la chose (B).

A-L’application de la garde juridique à l’IA médicale

19. Définition de la garde juridique. La garde juridique signifie que le fait d’une chose doit être reproché à la personne sous l’autorité de laquelle elle était placée au moment où celle-ci a été l'instrument du dommage[23].  Cette notion de garde juridique trouve son origine dans une œuvre prétorienne, émanant d'une jurisprudence emblématique, celle de l'affaire Teffaine rendue le 16 juin 1896[24], la Cour de cassation a confirmé la responsabilité du propriétaire d'un remorqueur à vapeur. En l'espèce, un mécanicien, Mr Teffaine, avait tragiquement perdu la vie à la suite de l'explosion dudit remorqueur à vapeur. Sa veuve, désireuse d'obtenir réparation pour le préjudice subi, a alors engagé une action en justice contre le propriétaire du remorqueur à vapeur. La cour d'appel a statué en sa faveur, condamnant le propriétaire à indemniser les dommages causés. Insatisfait de cette décision, le propriétaire a formé un pourvoi. Toutefois, la Cour de cassation a rejeté ce dernier, réaffirmant ainsi la responsabilité du propriétaire du remorqueur à vapeur.

20. À la première lecture de cette jurisprudence, il est à noter que les juges de la Cour de cassation n'ont pas cherché à déterminer si le propriétaire juridique du remorqueur à vapeur exerçait ou non la garde de celui-ci. Ils se sont limités à la notion de propriété juridique au sens strict du terme pour retenir la responsabilité du fait des choses à l'encontre du propriétaire. Toutefois, au regard des spécificités de l'intelligence artificielle en médecine, l'application de la notion de garde juridique apparaît incompatible, dès lors que la personne exerçant la garde de l'IA médicale n'est pas nécessairement le véritable propriétaire. Par exemple, les robots médicaux dotés d'intelligence artificielle, mis en location dans les hôpitaux par des entreprises spécialisées dans ce domaine, illustrent cette problématique. En effet, bien que ces entreprises soient les propriétaires, elles peuvent ne pas disposer de prérogatives sur l'IA médicale louée. L'arrêt Teffaine, bien que fondamental, engendre ainsi une forme d'injustice à l'égard des propriétaires qui n'exercent pas la garde sur leur bien. C'est pourquoi une nouvelle jurisprudence, intervenue trente-quatre ans plus tard, a été nécessaire pour apporter des précisions significatives à l'arrêt Teffaine.

21.  Jurisprudence Jand’heur. Il s’agissait en effet, d’une adolescente au nom de Lise Jand’heur, qui avait été blessée par un camion en traversant la rue. La cour d’appel a statué que le conducteur n’avait commis aucune faute et refusé d’indemnisé. L’adolescente forme le pourvoi en cassation. Les juges de la Cour de cassation ont cassé et renvoyé l’arrêt. Les juges du fond ont encore maintenu leur position initiale de l’arrêt. A cet égard, en raison de l’importance de l’affaire, en 1930, la Cour de cassation s’est réunie en Assemblée plénière en confirmant ainsi que, « le gardien est  désormais présumé responsable des dommages causés par la chose qu’il a sous sa garde [25]»

22.  Le rejet de la garde juridique. Au regard de la jurisprudence Jand’heur, il apparaît clairement que la notion de garde constitue un fait juridique dont l’existence d’un droit de propriété ne saurait être considérée comme un critère déterminant pour établir la responsabilité du propriétaire d’un bien[26]. L’arrêt Jand’heur remet en cause la présomption de responsabilité instaurée par l’arrêt Teffaine. En effet, cette présomption ne se rattache pas à la nature même de la chose, mais plutôt à la garde exercée sur celle-ci[27]. Cette position s'inscrit parfaitement dans le cadre des spécificités liées à l'intelligence artificielle médicale. Il est, en effet, envisageable qu'un médecin ou un établissement de santé détienne l'IA sous sa garde au moment où se produit le fait dommageable, sans pour autant en être le propriétaire juridique. Dans cette hypothèse, la responsabilité du dommage incombera au médecin ou à l'établissement de santé, et non au concepteur de l'IA médicale. Pour déterminer si le concepteur exerçait ou non un pouvoir sur l'IA pendant la période où celle-ci était sous la garde du médecin ou de l'établissement de santé, il sera indispensable d'examiner la notion de garde matérielle du bien.

B-L’application de la garde matérielle à l’IA médicale

23.  La jurisprudence Jand’heur, bien qu’elle ait apporté des précisions significatives à l'arrêt Teffaine, n'a toutefois pas fourni de définition précise de la notion de garde. Ce n'est qu'avec une nouvelle jurisprudence au nom de Franck en date du 2 décembre 1941, que cette notion a pu être mieux définie[28]. En l'espèce, Monsieur Franck avait été victime du vol de sa voiture durant la nuit du 24 au 25 décembre 1929. Au cours de cette même nuit, le véhicule, conduit par le voleur, a heurté et blessé mortellement une personne. En conséquence, les héritiers de la victime ont engagé une action en responsabilité à l'encontre de Monsieur Franck, propriétaire de l'automobile.

La Cour de cassation a confirmé que Monsieur Franck, « privé de l’usage, de la direction et du contrôle de sa voiture, n’en avait plus la garde et n’était plus dès lors soumis à la présomption de responsabilité édictée par l’article 1384, alinéa 1er, du Code civil [29]». À travers cette jurisprudence, l'idée de la garde juridique a été écartée au profit de la garde matérielle. Dans ce cadre, la responsabilité du dommage causé par l'intelligence artificielle en milieu médical peut également être engagée tant à l'encontre de l'utilisateur, en l'occurrence le médecin, que du concepteur d’IA. Il convient dès lors de s'interroger sur la signification de l'usage, de la direction et du contrôle de la chose.

24. L’usage de la chose. Selon le professeur Philippe LE TOURNEAU, l’usage de la chose signifie, « le fait de se servir de la chose, généralement dans son intérêt, à l’occasion de son activité, quelle qu’elle soit, le cas échéant professionnelle [30]». Cette définition semble correspondre tant à l'objectif visé par le praticien dans l'exercice de sa profession qu'à celui du concepteur d'intelligence artificielle. Quant au médecin, il se sert de l’IA en médecine pour analyser des images médicales, par exemple, les radiographies afin de détecter d'éventuelles anomalies pulmonaires, d’identifier des signes précurseurs de cancers ou de pneumonie avec une grande précision[31]. Ce procédé permet au médecin de confirmer ou de remettre en question son diagnostic initial. Ainsi, l'utilisation de l'intelligence artificielle par le médecin ne se limite pas à un intérêt professionnel, mais s'inscrit également dans le cadre de son activité médicale. Par conséquent, le critère d'usage de la chose, tel qu'établi par la jurisprudence Franck, peut effectivement s'appliquer à l'intelligence artificielle dans le domaine médical.

25.  Quant au concepteur d’IA médical, En ce qui concerne le concepteur d'intelligence artificielle médicale, celui-ci peut, par exemple, mettre à la disposition du médecin utilisateur un robot médical équipé d'IA par le biais d'un contrat de licence, tout en conservant ses droits de propriété. Cette technique contractuelle lui permet de collecter des données relatives aux patients dans le but d'améliorer la qualité des diagnostics médicaux. Dans ce cadre, le concepteur tire non seulement profit de l'IA à des fins commerciales, mais également dans le cadre de son activité professionnelle. Cela illustre que lapproche de la notion de garde dégagée par l'arrêt Franck pourrait sans doute s'appliquer à l'IA en médecine.

26. La direction de la chose. Selon le Professeur Sabine BERTOLASO, la direction de la chose signifie, « le pouvoir d’initiative du gardien [32]». Ainsi, selon le Professeur Philippe LE TOURNEAU, la direction de la chose désigne, « Utiliser à sa guise, la faire déplacer là où il le souhaite, de façon indépendante [33]». Au regard de la première définition, le médecin a généralement la priorité de l’initiative lors d’un diagnostic. C’est à lui d’introduire les données du patient sur la base desquelles l’IA peut produire des résultats. Ainsi, la direction peut aussi être tenue par le concepteur, car celui-ci a déjà prédéfini les algorithmes obligeant l’IA à suivre une direction de réponse. La deuxième définition ne souffre d’aucune contestation, car le médecin seul peut déplacer de façon indépendante, par exemple, un robot médical doté de l’IA pour pouvoir l’adapter à la position du patient pendant la chirurgie. La manipulation de l’élément matériel de l’IA, c’est-à-dire le support physique dans lequel est incorporé le logiciel relève de la direction du médecin. Ici, le médecin a une influence significative sur la direction de l’IA car il doit décider si les recommandations sont applicables à son patient. A la lumière de l’analyse menée, le critère de direction de la chose peut facilement s’appliquer à l’IA en médecine.

27. Le contrôle de la chose. Selon la professeure Sabine BERTOLASO, le contrôle de la chose peut signifier, « le pouvoir d’exercer la surveillance [34]». Il convient de souligner que, bien que nous soyons parfois confrontés à une intelligence artificielle autonome dans le domaine médical, l'activation ou la désactivation de celle-ci demeure sous l'autorité de l'utilisateur. L'intelligence artificielle autonome génère des résultats en fonction des préférences intégrées dans ses codes sources, lesquels établissent les règles de fonctionnement nécessaires à la production de ces résultats. Cela signifie que, malgré son caractère autonome, l'intelligence artificielle médicale demeure placée sous le contrôle de l'humain, en l'occurrence du concepteur et du praticien qui l'utilise. Chacun d'eux exerce une influence significative sur le fonctionnement de l'IA. Par conséquent, il est indéniable que le principe selon lequel le gardien doit exercer le contrôle sur la chose s'applique à l'intelligence artificielle dans le domaine médical.

28. Au-delà de l'examen minutieux des conditions impératives inhérentes à la responsabilité du fait des choses, celle-ci parait prometteuse en terme d’efficacité face aux dommages causés par l’IA en médecine. Par ailleurs, il est impératif d’explorer la compatibilité entre la responsabilité du fait des produits défectueux et l’IA médicale (Paragraphe II).

II: LA RESPONSABILITÉ DU FAIT DES PRODUITS DÉFECTUEUX APPLIQUÉE À L’IA MÉDICALE

29. En droit français, deux lois en date du 10 janvier 1978 et du 21 juillet 1983 ont successivement été adoptées pour promouvoir sécurité des consommateurs. L'article premier de cette dernière a introduit un principe général visant à protéger les consommateurs contre les produits dangereux, en instaurant une obligation générale de sécurité [35]. Deux ans plus tard, une directive européenne est intervenue pour imposer un droit uniforme en matière de responsabilité du fait des produits défectueux afin de protéger les consommateurs[36]. La France a été condamnée par la CJUE en date du 15 janvier 1993 pour non transposition de cette directive[37]. Il a fallu attendre la loi n°98-389 du 9 mai 1998 relative à la responsabilité du fait des produits défectueux pour que soient introduit dans le Code civil.[38] Par ailleurs, cette responsabilité permet aux victimes de demander réparation auprès des fabricants pour les dommages causés par leurs produits défectueux mis sur le marché. À cet égard, il sera entrepris une analyse portant, d’une part, sur la compatibilité du champ d’application de la responsabilité du fait des produits défectueux avec l’IA médicale (I1), et d’autre part, sur la conformité des conditions nécessaire à la mise en œuvre de cette responsabilité (II2). 

I1 : LA DETERMINATION DU CHAMP D’APPLICATION

30.  Pour que la responsabilité du fait des produits défectueux puisse constituer un fondement juridique pertinent pour le patient ayant subi un préjudice résultant de l’utilisation d’une IA dans le domaine médical, il est impératif que cette intelligence artificielle soit considéré comme un produit (A), indépendamment de l’existence d’un lien contractuel entre le concepteur et la victime (B).

A-L’intelligence artificielle comme un produit

31. Définition du produit. L’article 1245-2 du Code civil dispose que, « Est un produit tout bien meuble, même s'il est incorporé dans un immeuble, y compris les produits du sol, de l'élevage, de la chasse et de la pêche. L'électricité est considérée comme un produit [39]». À la lumière de cet article, le législateur affirme que l’électricité s’inscrit indubitablement dans la catégorie des produits. Or, l’électricité revêt le caractère d’un bien immatériel, à l’instar de l’intelligence artificielle, bien que chacun de ces éléments présente des spécificités propres. Dès lors, il n’était pas nécessaire pour le législateur de restreindre la définition du produit eu égard au contexte où la société évolue dans un cadre technologique en constante mutation. C’est en ce sens que le législateur a recouru à l’expression grammaticale ‘’y compris’’. Celle-ci possède une signification précise tant en grammaire qu’en droit. Elle désigne que tout ce qui est mentionné dans la définition est bien inclus, cependant, cela ne signifie pas nécessairement que tout a été énuméré. Par exemple, si l’on dit, les fruits en été, y compris les fraises. Cela ne signifie pas que seules les fraises sont incluses parmi les fruits en été, mais il peut y avoir d’autres fruits qui ne sont pas mentionnés. 

32. Au regard de l’analyse menée, il apparaît que la reconnaissance par le législateur de l’électricité en tant que produit, accompagnée de l’utilisation de l’expression ‘’y compris’’, on peut supposer que l’IA en tant que bien immatériel, pourrait également être classée dans la catégorie des produits au même titre que l’électricité. De surcroît, si le législateur à travers l’article 1245-2 du Code civil, n’avait pas employé l’expression ‘’y compris’’, il serait légitime d’affirmer que la liste des produits serait exhaustive. Par conséquent, toute interprétation alternative serait susceptible d’être considérée comme erronée.

33. La confirmation de l’IA comme un produit. Le 5 juillet 1988, une question a été posée une question écrite à la Commission Européenne concernant l’application de la responsabilité du fait des produits défectueux à des biens incorporels, comme le logiciel. À la même année, la Commission Européenne répond le 15 novembre que, « la directive du 25 juillet 1985 s’applique aux logiciels (...) [40]». Dans cette perspective, le ministre de la justice a adopté une position concordante à celle de la Commission Européenne lors d’un débat ortant sur l’application de la loi du 19 mai 1998 relative à la responsabilité du fait des produits défectueux aux logiciels. Selon la garde des Sceaux, «  Ce régime à vocation à englober l’intégralité de la catégorie juridique des meubles, à laquelle appartiennent les logiciels [41]». À la lumière de ces deux réponses, Madame Lydia MORLET-HAIDARA affirme que, « si l’applicabilité de la loi sur les produits défectueux a donc été admise aux logiciels, on ne voit pas pourquoi elle serait refusée pour les IA [42]»

34. En résumé, si le logiciel et l’électricité sont reconnus comme un produit, en raison de leur classification parmi les biens immatériels dotés d’une valeur économique significative, il est également possible d’affirmer avec certitude que l’IA médicale constitue, à l’heure actuelle, un produit d’une grande valeur économique. Par conséquent, la victime d’un préjudice résultant de l’utilisation de l’intelligence artificielle en médecine peut légitimement engager une action en responsabilité au titre des produits défectueux. Par ailleurs, étant donné que l’intelligence artificielle en médecine est considérée comme un produit, il convient de s’interroger sur la nature de la relation entre la victime et le concepteur de l’intelligence artificielle médicale. Autrement dit, la mise en œuvre de la responsabilité du fait des produits défectueux nécessite-t-elle l’existence d’un contractuel ou peut-elle être engagée en l’absence de celui-ci ? 

B-L’inexistence de lien contractuel

35. L’article 1245 du Code civil dispose que, « Le producteur est responsable du dommage causé par un défaut de son produit, qu'il soit ou non lié par un contrat avec la victime [43]». À la première lecture de cet article, nous pouvons constater que ce régime de responsabilité peut accorder une protection accrue aux patients victimes d’un dommage causé par l’IA. En effet, dans le domaine médical, l’IA est exploitée par un établissement de santé, mais ce n’est pas celui-ci le fabricant. À cet égard, la victime du dommage devrait en principe agir contre l’exploitant direct de l’IA. Cependant, le législateur lui offre la possibilité d’agir directement contre le fabricant de l’IA en cas de survenance d’un dommage « qu’il soit ou non lié par un contrat avec la victime ». La victime qui veut se prévaloir d’un dommage causé par l’IA n’a pas besoin d’un lien juridique avec le concepteur.

36. La restriction au droit d’opposition du concepteur de l’IA. Le concepteur d’une l’IA responsable du dommage se voit restreint dans ses droits d’opposition contre l’action directe de la victime[44]. Le concepteur de l’IA ne pourra pas exiger de la victime une nature déterminée de la relation, c’est-à-dire, la victime en tant que créancière, aura la liberté d’exercer l’action en responsabilité du fait des produits défectueux contre le concepteur débiteur quand même le dommage relève du terrain délictuel ou contractuel. Le seul élément essentiel est que le dommage soit causé par le défaut d’un produit. En plus de cette restriction au droit du concepteur, il faut noter que la responsabilité du fait des produits défectueux peut offrir une perspective intéressante à la victime de l’IA dans le cadre de la prescription. 

37. La prescription. L’article 1245 du Code civil dispose que, « (...) sans lien contractuel (...) »[45]. Cet article pourrait avoir un sens de protection juridique très puisant au profit des victimes d’une IA en terme de prescription. En effet, si le législateur reconnaît que la victime n’a pas besoin d’un lien contractuel pour pouvoir utiliser ce régime comme fondement contre le dommage causé par un produit (IA), cela laisse à la victime le choix entre la prescription de droit commun qui est relativement de courte durée de cinq ans[46], et, celle quinquennale du droit spécial qui est de dix ans relativement longue[47]

38. En revanche, si le législateur disposait à l’article 1245 du Code civil qu’il fallait impérativement l’existence d’un lien contractuel pour pouvoir exercer la responsabilité du fait des produits défectueux. En ce sens, la prescription décennale ne saurait être mise en œuvre par la victime contre le concepteur en raison du défaut de lien contractuel[48]. Par conséquent, la victime serait obligée de passer par la prescription du droit commun, c’est-à-dire, celle délictuelle ou contractuelle. Le même problème juridique de prescription avait été posé dans l’arrêt Mercier en date du 20 mai 1936. 

39. En effet, il s’agissait de Madame Mercier qui avait été mal diagnostiquée par le docteur Nicolas[49]. Celui-ci a été condamné par les juges du fond à réparer le dommage causé à la patiente Mercier sous le fondement de la responsabilité contractuelle. Quant au médecin Nicolas, il n’existe pas de contrat entre lui et sa patiente Madame Mercier. Que celle-ci doit agir uniquement sur le terrain délictuel. En conséquence, le médecin Nicolas s’oppose à la réparation du dommage au nom de la prescription de l’action en responsabilité délictuelle. La Cour de cassation a confirmé l’existence du contrat entre le médecin Nicola et Madame Mercier. Ici, l’intérêt de la reconnaissance de la nature contractuelle confère à la victime un délai de prescription beaucoup plus long que celui de la responsabilité délictuelle. La responsabilité du fait des produits défectueux va également au-delà de toutes prescriptions classiques, ce qui est très avantage pour la victime d’un dommage causé par l’IA en médecine. Elle offre d’éventail possibilité de recours en réparation du dommage. 

40. La détermination des personnes responsables au regard de l’inexistence d’un lien juridique. En cas de dommage causé par le produit (IA) le producteur est non seulement responsable[50] mais aussi le fabricant de produit fini, de matière première, et d’une partie composante[51]. Dans le souci d’identifier une personne responsable sans lien contractuel en cas de défaut d'un produit entraînant un dommage, le législateur offre plusieurs possibilités à la victime. Il fait de la subsidiarité de la responsabilité une clé de voûte afin de protéger la victime du dommage causé par un produit défectueux. Cette responsabilité du fait des produits défectueux semble être protectrice des victimes d’une IA dans la mesure où l’IA n’est pas conçue par une seule entreprise, et tel est souvent cas en pratique. Par exemple, le logiciel peut être conçu par une entreprise Belge, le corpus physique conçu par une entreprise française, les composantes conçues par une entreprise américaine dont se trouve leur représentant légal au sien de l’union européenne. En cas de dommage causé par l’IA médicale, la victime aura largement le choix de demander la réparation sans l’existence d’un lien contractuel. 

41. Par ailleurs, après avoir analysé la compatibilité du champ d’application de la responsabilité du fait des produits défectueux avec l’IA médicale, il sera également nécessaire d’examiné les conditions de la mise en œuvre de la responsabilité du fait des produits défectueux au prisme de l’IA médicale (II2). 

II2: LES CONDITIONS DE MISE EN ŒUVRE DE LA RESPONSABILITE DU FAIT DES PRODUITS DEFECTUEUX AU PRISME DE L’IA MEDICALE

42. Les conditions de la mise en œuvre de la responsabilité du fait des produits défectueux nécessite une défectuosité du produit ainsi que la mise en circulation. Nous tenterons d’examiner afin de savoir si l’IA médicale considérée comme produit peut-elle être défectueuse (A) provoquant un dommage. Par ailleurs, même s’il est certain que l’IA peut être un produit, mais pour pouvoir engager la responsabilité, il faut chercher à comprendre à quel moment l’IA a été mise en circulation (B) ainsi que la date de la réalisation du dommage.

A-La défectuosité du produit appliquée à l’IA médicale

43. Produit défectueux. L’article 1245-3 alinéa 1 du Code civil qui dispose que, « Un produit est défectueux au sens du présent chapitre lorsqu'il n'offre pas la sécurité à laquelle on peut légitimement s'attendre »[52] . Quand nous analysons cette disposition, on s’aperçoit qu’il n’y a pas une définition précise de la notion de défectuosité du produit. Le législateur renvoie simplement la défectuosité d’un produit à la sécurité à laquelle on peut légitimement s'attendre. Cependant, l’alinéa 3 du même article dispose que ,  « Dans l'appréciation de la sécurité à laquelle on peut légitimement s'attendre, il doit être tenu compte de toutes les circonstances et notamment de la présentation du produit, de l'usage qui peut en être raisonnablement attendu et du moment de sa mise en circulation [53]». Ici, on peut constater que cette disposition n’impose pas d’indications restrictives quant à l’appréciation du niveau de sécurité, il revient donc au juge le devoir de se livrer à cette l’appréciation[54].

44. Toutefois, on peut se poser la question de savoir dans quel cas une l’IA médicale peut être considérée comme défectueuse au regard de la présentation du produit et de l'usage qui peut en être raisonnablement attendu ? En réponse à cette interrogation, il convient de souligner que la défectuosité devait être interprétée en fonction de la spécificité de chaque produit. À cet égard, il faut noter qu’en terme de présentation du produit, il peut y avoir de défectuosité d’une IA si celle-ci ne fonctionne pas comme annoncé dans sa présentation. Par exemple, si un logiciel d’IA médicale prétend avoir une précision de diagnostic de 95% mais ne parvient pas à atteindre cette performance lors de son utilisation réelle, cela pourrait être comme défectueux. 

45. Ainsi, en terme d'usage qui peut en être raisonnablement attendu, la défectuosité d’une IA médicale peut exister dans l’hypothèse où l’IA est présentée comme pouvant être utilisée dans les contextes pour lesquels elle n’est pas adaptée. Par exemple, si une IA est commercialisée pour un usage pour les soins d’urgence, mais qu’elle a été conçue uniquement pour des diagnostics de routine; cela peut engendrer des attentes irréalistes et des risques pour les patients. En plus, l’IA en tant qu’un produit, peut être défectueuse dans l’hypothèse où elle ne reçoit pas de mise à jour régulière pour pouvoir corriger les erreurs ou améliorer ses performances au fil du temps[55]. Par ailleurs, il est nécessaire de déterminer à la fois la date à laquelle le dommage a été causé par le patient et celle à laquelle l’IA a été mise en circulation sur le marché.

B-La mise en circulation

46. L’article 1245-4 alinéa 1 du Code civil a défini la mise en circulation en ces termes : « Un produit est mis en circulation lorsque le producteur s’en est dessaisi volontairement [56]». Pour mieux comprendre la notion de mise en circulation du produit sur le marché, il faut connaître le moment du dessaisissement. Dans ce sens, la Cour de cassation a précisé dans une affaire de vaccin contre l’hépatite que la mise en circulation est « le moment où le producteur l’a mis en circulation pour être vendu [57]». La CJUE a conforté cette solution dans un arrêt rendu le 9 février 2006[58]. Au regard de cet article et la jurisprudence, il est impératif de noter que le législateur emploie l’expression « dessaisissement » tandis que la jurisprudence utilise l’expression « le moment de la vente du produit ». À ce titre, on aboutit presqu’à la même position. On pourrait donc dire par synthèse que la mise en circulation est le moment où un produit est vendu ou distribué pour la première fois sur le marché, rendant accessible aux publics. Autrement dit, elle marque le début de la période pendant laquelle le fabricant peut être tenu responsable du dommage causé par le défaut du produit.

47. Application à l’IA médicale. Pour que le dommage causé par l’IA médicale puisse être réparé, il faut impérativement que celle-ci soit mise en circulation sur le marché. En effet, cette condition ne semble pas avoir de difficulté, car les établissements de santé privé ou public entrent généralement en possession de l’IA à travers un contrat de vente, de location ou de prêt. La formation de ces contrats s’effectue sans doute après la mise en circulation du produit sur le marché. Ce qui signifie la date de la mise en circulation du produit marque la date d’activation de la responsabilité. Cependant, cette responsabilité sera mise à mal en raison des cas d’exonération prévues à l’article 1245-10 du Code civil. 

48. Les causes d’exonération, une suppression nécessaire dans l’intérêt du patient? L’article 1245-12 du Code civil dispose que, « la responsabilité du producteur peut être réduite ou supprimée, compte tenu de toutes les circonstances, lorsque le dommage est causé conjointement par un défaut du produit et par la faute de la victime ou d'une personne dont la victime est responsable »[59]. En matière d’IA en médecine, l’application de cet article ne cause pas de difficulté, car un dommage peut être causé conjointement par un défaut de l'intelligence artificielle et une faute du patient. Par exemple, une IA médicale suggère un certain traitement et que le patient choisit de ne pas le suivre pour des raisons personnelles, cela pourrait contribuer à la détérioration de sa santé. Autre exemple, si un patient ne divulgue pas des informations essentielles sur son état de santé ou ses antécédents médicaux, cela peut fausser les résultats d'un diagnostic basé sur l'IA. Par conséquent, le défaut de l'IA à fournir un diagnostic correct pourrait être aggravé par la faute du patient qui a omis des informations cruciales.

49. Toutefois, l’exonération spécifique prévue à l’article 1245-10, 4 ème Code civil pourrait représenter un obstacle à l’application de la responsabilité du fait des produits défectueux à l’IA médicale après une mise en circulation. Cet article dispose que le producteur n’est pas responsable lorsqu’il prouve que « (…) l'état des connaissances scientifiques et techniques, au moment où il a mis le produit en circulation, n'a pas permis de déceler l'existence du défaut (…)[60]». Certes, nous pouvons constater la volonté du législateur français à préserver la compétitivité avec ses concurrents européens et par le souci de ne pas freiner la recherche et l’innovation[61]. Cependant, il convient de souligner que cette exonération peut pousser les concepteurs d’IA à ne pas surveiller dans le temps, l’état néfaste de leur produit une fois mis dans la circulation. Ainsi, les concepteurs d’IA de mauvaise-foi pourront dire que le produit était en bon état au moment où il a été mis en circulation ou leur connaissance technologique ne leur permettait pas de déceler le défaut à longue durée. Le législateur devrait imposer aux concepteurs l’obligation de suivie des produits.                                     

CONCLUSION GÉNÉRALE  

50. À l'issue de cette étude, il s'avère fondamental de souligner que le régime de responsabilité du fait des choses présente une pertinence indéniable dans l'adaptation du cadre juridique à l'intelligence artificielle, en particulier en ce qui concerne les préjudices subis par les patients dans le cadre médical. Il convient également de rappeler que l'intelligence artificielle, par sa nature même, ne peut exister sans un corpus matériel. Dès lors, il apparaît judicieux que le législateur s'attache à clarifier formellement l'application du régime relatif aux biens corporels à l'intelligence artificielle, afin d'éliminer les incertitudes doctrinales qui continuent de peser sur cette question cruciale. L'établissement de telles précisions légales serait un pas décisif vers une meilleure compréhension et un encadrement adéquat.

51. En ce qui concerne le régime de responsabilité du fait des produits défectueux, l'analyse menée dans cette étude révèle que ce régime procure une protection adéquate aux victimes de dommages causés par l'intelligence artificielle dans le domaine médical, tant sur le plan de la prescription que de la nature des relations. Néanmoins, la problématique centrale demeure la quête d'un équilibre viable entre l'intérêt des victimes et l'intérêt collectif, à savoir le traitement des maladies par l’utilisation de l’IA. Cet équilibre ne saurait être atteint sans aborder la question cruciale de la suppression des causes d’exonération spécifiques énoncées à l’article 12545-10 du Code civil. Ainsi, il apparaît dès lors essentiel d’élaborer des solutions juridiques susceptibles de concilier ces impératifs, en veillant à préserver à la fois la protection des victimes et le développement de l'innovation médicale.


 BIBLIOGRAPHIE 

[1] Annick DORSNER-DOLIVET, La responsabilité du médecin, Paris, éd Economica, 2006, p. 192.

[2] HESS-FALLON, Brigitte, SIMON, Anne-Marie, VANBREMEERSCH, Marthe, Droit civil, 12e éd., Sirey,

2017, p. 380.

[3] C.civ., art. 516.

[4] Cyril GRIMALDI, Droit des biens, Paris, éd., LGDJ,2021, p. 19.

[5] Raphael BRIGUET-LAMARRE, Cours de Droit des biens, Paris, aideauxtd.com, 2024, p. 1.

[6] Ibidem.

[7] A. Cheynet de Beauté, Droit civil des biens, Paris, éd., ellipses, 2023, p. 14.

[8] Simon Simonyan, Le droit face à l’intelligence artificielle, Thèse de doctorat, univ Jean Moulin de Lyon 3, n°ED-492,2021, p. 327.

[9] Cyril GRIMALDI, Droit des biens, Paris, éd., LGDJ, 2021, p. 19.

[10] J.-S. BORGHETTI, « L’accident généré par l’intelligence artificielle autonome », JCP, 2017, p. 26.

[11] TGI Paris, 27 févr. 1992, JCP G 1992, II, 2e n° 21809, note LE TOURNEAU.

[12] C. civ., art. 1243, 1244, 1245, loi Badinter du 5 juillet 1985.

[13] Cass. civ., 19 févr 1941, arrêt Dame cadé

[14] Cass. 2e civ., 5 janv.1994, n°92-15.443.

[15] Cass. 2e civ., 3 avril 1978, n°7614.819.

[16] CASTETS-Renard, Céline, « Comment construire une intelligence artificielle responsable et inclusive? », D., 4, 2020, p. 228.

[17] Cass. 2eme civ., 11 janvier 1995, n° 92-20.162; Cass. 2eme civ., 12 janvier 2017, n° 16-11.032.

[18] Cass. 2e civ., 25 mai 2022, n°20-17.123.

[19] Cass. civ., 2ème, 29 mai 1964, n°62‐13.156; Cass. civ., 2ème 8 juillet 1992, 91-14.304.

[20] Ibidem.

[21] Cass. 2eme civ., 25 oct. 2001, n°99-21.616; Cass. 2eme civ., 15 juin 2000, n°98-20.510; Cass. 2eme civ., 19 février 2004; n° 02-18.796.

[22] Ididem.

[23] Cass. civ., 2e, 17 mars 2011, n° 10-10.232.

[24] Cass. civ., 16 juin 1896, Teffaine, DP 1897. 1.433, cond. L. Sarrut, note R. Saleilles, S. 1897.1.17, note A. Esmein.

[25] Arrêt JAND’HEUR, Cass. Ch. Reun., 13 février 1930.

[26] B. Dubuisson, « Développements récents concernant les responsabilités du fait des choses (choses, animaux, bâtiments) », R.G.A.R., 1997, n° 127294, n° 17. En jurisprudence: Cass., 22 mars 2004, Pas., 2004, I, p. 487.

[27] F. Terré, Ph. Simler, Y. Lequette et F. Chénedé, Droit civil, Les obligations, 12 éd., Dalloz, 2018 n° 1010.

[28] Cass. ch. Réunies., 2 décembre 1941, Franck, DC 1942. 25, note G. Ripert, S. 1941.1.217, note H. Mazeaud, JCP1942.II.1766, note J. Mihura, Grand arrêts, t. 2, n° 203.

[29] Cass. ch. Réunies., 2 décembre 1941, Franck, DC 1942. 25, note G. Ripert, S. 1941.1.217, note H. Mazeaud, JCP 1942.II.1766, note J. Mihura, Grand arrêts, t. 2, n° 203.

[30]Ph. LE TOURNEAU, Droit de la responsabilité et des contrats, régimes d’indemnisation, Paris, éd., Dalloz, 2023, p. 2221.

[32] BERTOLASO, Sabine, « La responsabilité du fait des choses, Gardien, Détermination du gardien», JCI civil, 2002, articles 1382 à 1386, Fascicule, p. 150-20.

[33] Ph. LE TOURNEAU, La responsabilité civile, Paris, éd., PUF, 2003, p. 119.

[34] Ibid.

[35] La loi n°78-23 du10 janvier 1978, du 21 juillet 1983 sur la sécurité des consommateurs.

[36] Directive 85/374/CEE du Conseil du 25 juill. 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux, JOCE n° L210 du 7 août 1985.

[37] CJUE 13 janv. 1993, D. 1993. 566, note J.-L. Clergerie.

[38] Loi n°98-389 du 19 mai 1998 relative à la responsabilité du fait des produits défectueux.

[39] C. civ., art.1245-2.

[40] Réponse 15 novembre 1988, à la question écrite 706/88 du 5 juillet 1998, publiée au JOCE n° C 114/42 le 8 mai 1989.

[41]Réponse publiée au JO le 24 août 1998 à la question parlementaire n°15677, publiée au JO le 15 juin 1998 210 Résolution du Parlement européen du 20 octobre 2020.

[42] MORLET-HAÏDARA, Lydia, « L’utilisation de l’intelligence artificielle en santé: contexte et focus sur l’engagement des responsabilités », JDSAM, No. 21, 2018, p. 105.

[43] C.civ., art. 1245.

[44] A. Guégan-Lécuyer, « Vers un nouveau fait générateur de responsabilité civile: les activités dangereuses (commentaire de l’article 1362 de l’avant-projet Catala) », in Etudes offertes à Geneviève Viney, Paris, LGDJ., Lextenso éd., DL 2008.

[45] C.civ., art.1245.

[46] C.civ., art. 2224.

[47] C.civ., art. 1245-5.

[48] J. Mazeaud et F. Chabas, Traité théorique et pratique de la responsabilité civile délictuelle et contractuelle, t. III, 1er vol., Montchrestien, 6e éd., n° 2303 et s.

[49] Cour de cassation, Civ., 20 mai 1936, Mercier.

[50] C.civ., art. 1245.

[51] C.civ., art. 1245-5.

[52] C.civ., art. 1245-1 al1.

[53] C.civ., art. 1245-1 al1.

[54] Sandra Oliveira, « La responsabilité civile dans les cas de dommages causés par les robots d’assistance », Université de Montréal, 2016, p. 111.

[55] J.-S. Borghetti, La responsabilité du fait des produits, étude de droit comparé, Paris: LGDJ, 2004, n°650 et s. Livre Blanc de la Commission Européenne.

[56] Art 1245-4 al 1 C.civ.

[57] Civ. 1er, 24 janv. 2006, Juris-Data n° 2006-031778; JCP 2006. II. 10082, note L. Grynbaum.

[58] CJUE, 1er ch., 9 févr. 2006, aff. C-127/04, Declan O’Byrne c/ Sanfi Pasteur MSD Ltd, Dépêches J-CI., LexisNexis,10 févr 2006.

[59] C.civ., art. 1245-12.

[60] C.civ., art. 1245-10, 4 ème.

[61] M. Bacache-Gibeilli, Les obligations, la responsabilité civile extracontractuelle, éd., Economia, 2023, p. 967.

 

Chercheur en droit privé à l'école doctorale de Caen Normandie sous la direction du Professeur Gilles RAOUL-CORMEIL. Titulaire de 5 Masters 2 (droit médical, droit du numérique,droit des affaires, droit économique, droit des gestions juridiques des affaires). Auteur de plusieurs ouvrages, notamment la délinquence fiscale en Guinée et l'unitilité des recettes fiscale sur le développement de la Guinée, le mimétisme juridique en Afrique Francophone...    

donzovabigne@gmail.com 

 

 

Commentaires

Aucun commentaire pour l'instant. Soyez le premier à commenter !

Vous devez vous connecter pour commenter cet article.


Articles similaires