Vous êtes dans : Accueil > Tribunes libres >

Quelle responsabilité juridique pour l’IA – la vision juridique, partie 2

Marguerite Brac de La Perrière, MARDI 11 JUIN 2019 Soyez le premier à réagirSoyez le premier à réagir

Dans une première partie, nous avons examiné la question du régime juridique des voitures autonomes. Intéressons-nous maintenant au régime de responsabilité pour les algorithmes.

A titre liminaire, la garantie légale des vices cachés au titre de laquelle « Le vendeur est tenu de la garantie à raison des défauts cachés de la chose vendue qui la rendent impropre à l'usage auquel on la destine, ou qui diminuent tellement cet usage que l'acheteur ne l'aurait pas acquise, ou n'en aurait donné qu'un moindre prix, s'il les avait connus [1] »pourrait trouver à s’appliquer mais ne semble pas évidente à invoquer dans la mesure où elle suppose en particulier que le défaut ait existé à la date d’achat -ce qui en matière d’algorithme apprenant est incertain-.

Restent plusieurs régimes de responsabilité pouvant fonder des actions, en fonction du contexte, notamment selon que la victime a une relation contractuelle ou non avec le concepteur ou producteur, et selon le degré d’autonomie de l’algorithme. En premier lieu, la responsabilité contractuelle. Dans l’hypothèse d’une relation contractuelle, « le débiteur est condamné, s'il y a lieu, au paiement de dommages et intérêts soit à raison de l'inexécution de l'obligation, soit à raison du retard dans l'exécution, s'il ne justifie pas que l'exécution a été empêchée par la force majeure.» [2]
Dans cette hypothèse, la responsabilité et l’obligation de réparation d’un éventuel préjudice est fonction des stipulations contractuelles, notamment celles définissant les prérequis, le service attendu et les conditions d’utilisation, et celles délimitant la responsabilité des parties et la réparation du préjudice.
Le cas d’usage serait celui, par exemple, d’un établissement souscrivant à un service SaaS d’aide à la décision médicale, dont l’utilisation conduirait à la survenance un dommage. Le patient pourrait engager la responsabilité de l’établissement, lequel pourrait alors engager une action récursoire en responsabilité contractuelle du fournisseur du service, dans les limites du contrat conclu avec lui. A nouveau, la rédaction et lecture attentive des stipulations contractuelles est de rigueur.  

En second lieu, la responsabilité délictuelle. En dehors de toute relation contractuelle, c’est la responsabilité civile délictuelle de droit commun qui pourrait s’appliquer : « On est responsable non seulement du dommage que l'on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l'on a sous sa garde.» [3]. La première question est celle de savoir si l’algorithme est assimilable à une chose que l’on a sous sa garde.
Dans l’affirmative, la responsabilité ferait peser le poids de la réparation sur le gardien de la chose, lequel est celui qui est investi des pouvoirs d’usage, de direction et de contrôle.
Ainsi, l’utilisateur de l’algorithme, comme de n’importe quelle chose, pourrait voir sa responsabilité engagée en cas de sinistre survenant dans le cadre de son utilisation.
Toutefois ce serait nier la spécificité de l’algorithme tenant à son autonomie, à son intelligence artificielle justement. Comment un utilisateur dépossédé, même partiellement, de son pouvoir de contrôle et de direction pourrait-il être tenu pour responsable de sa défaillance ?
Il faudrait donc distinguer la garde de la structure (l’algorithme ?), et celle du comportement de l’algorithme. Resterait alors à déterminer qui du concepteur de l’algorithme, du développeur de l’algorithme, et de l’utilisateur – duquel l’objet aurait tiré son apprentissage – détenait effectivement la garde du comportement au moment du sinistre.

Enfin, dernier axe d’analyse, la responsabilité du fait des produits défectueux. Au titre de la responsabilité du fait des produits défectueux, prévue aux articles 1245 et suivants nouveaux du code civil, la victime du dommage causé par un objet connecté serait fondée à agir contre le « producteur », sans avoir à identifier le véritable responsable du sinistre.
Toutefois, il faudrait préalablement trancher les questionnements ayant trait à l’application de ce régime aux biens immatériels. En effet, le texte dispose « Le producteur est responsable du dommage causé par un défaut de son produit, qu'il soit ou non lié par un contrat avec la victime.» [4], mais définit le produit comme un bien meuble [5].
A supposer que cette problématique soit résolue, une victime pourrait librement engager la responsabilité du producteur, lequel est très largement défini puisqu’il peut aussi bien s’agir du fabricant du produit fini ou d’une partie composante, du producteur d’une matière première, de celui qui appose sa marque et même, et dans l’hypothèse où le « producteur » ainsi défini ne pourrait être identifié, du vendeur ou du fournisseur du produit défectueux. L’indemnisation de la victime supposerait alors qu’elle démontre le caractère défectueux du produit, c’est-à-dire son incapacité à offrir la sécurité à laquelle elle pouvait légitimement s’attendre, et le fait qu’il soit à l’origine du dommage.
Cependant l’algorithme évoluant au fil de l’utilisation qu’en fait son utilisateur, l’origine du dommage pourrait ne pas être l’algorithme mais son utilisation par l’utilisateur. Or, dès lors que le défaut du produit est postérieur au moment de sa mise en circulation, le recours au régime de la responsabilité du fait des produits défectueux est exclu. De même encore, l’article 1245-10 nouveau du code civil écarte la responsabilité de plein droit du producteur, lorsque l’état des connaissances scientifiques et techniques au moment où le produit a été mis en circulation ne permettait pas de déceler le défaut du produit. Les fabricants des objets innovants pourraient utilement se prévaloir de cette exclusion du risque de développement.

Pour conclure, si les régimes de responsabilité actuels peuvent a priori fonder des actions en responsabilité, leur mise en œuvre s’annonce pour le moins délicate. Aussi, l’instauration d’un régime de responsabilité propre – telle qu’il se dessine pour les véhicules autonomes – et auquel seraient attachées des garanties d’assurance spécifiques, pourrait offrir une meilleure lisibilité et sécurité juridique.

L'auteur 

Margeurite-Brac-de-la-PerriereMarguerite Brac de La Perrière
Avocate, directrice du département santé numérique
Lexing Alain Bensoussan Avocats


[1] Art. 1641 code civil

[2] Art.1231-1 code civil 

[3] Art. 1242 code civil 

[4] Art. 1245 code civil 

[5] Art. 1245-2 code civil

sécurité