Avocats v. assureurs, MARL v. procès

Datajust : un traitement de données pour élaborer un algorithme en matière d’indemnisation du préjudice corporel ...

... et pour évaluer les politiques publiques en matière de responsabilité civile et administrative

Lundi 19 octobre 2020, par Emmanuel Barthe // Logiciels, Internet, moteurs de recherche

DataJust ou le décret qui fâche les avocats. Le voici, ce décret :

Décret n° 2020-356 du 27 mars 2020 portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust », JORF n° 77 du 29 mars 2020 texte n° 2

Présentation officielle : « ce décret autorise le ministre de la justice à mettre en œuvre, pour une durée de deux ans, un traitement automatisé de données à caractère personnel, dénommé « DataJust », ayant pour finalité le développement d’un algorithme destiné à permettre l’évaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative, l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels, l’information des parties et l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges, ainsi que l’information ou la documentation des juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels. Le décret définit les finalités du traitement, la nature et la durée de conservation des données enregistrées ainsi que les catégories de personnes y ayant accès. Il précise enfin les modalités d’exercice des droits des personnes concernées. »

C’est en fait un vieux projet [1], rendu public il y a maintenant deux ans, lors de la deuxième édition de la Vendôme Tech, en décembre 2018, et événement désormais annuel de présentation des projets de transformation numérique de la Justice. Un projet s’inscrit dans le cadre de l’avant-projet de réforme de la responsabilité civile et vide à donner à la Cour de cassation et au ministère de la Justice des données et des armes, donc, dans le débat sur le coût de cette réforme pour les assureurs (et les primes d’assurance).

Il n’empêche : les effets de DataJust risquent de ne pas être totalement neutres.

La sélection de commentaires qui suit en donne une idée. Et il y en a beaucoup d’autres, presque tous négatifs.

C’est en partie exagéré, si on en croit le commentaire de Pierre Januel (ancien porte-parole du ministère de la Justice) et les réponses ministérielles de la Chancellerie.

A titre personnel, je pense que la Cour de cassation peut avoir pour but de se constituer une compétence en la matière afin de ne pas être dépendante des applications commerciales sur un sujet important ni des barèmes des cours d’appel. Il me semble peu probable que, en ce qui concerne la Cour en tout cas, l’intention soit de mettre les avocats de côté.

Pour relativiser

Le discours de présentation du projet de réforme du droit de la responsabilité civile par le garde des Sceaux de l’époque (13 mars 2017), Jean-Jacques Urvoas, mentionne qu’ « il est prévu de créer :

  • une base de données jurisprudentielles permettant de situer l’évaluation de chaque victime dans son contexte précis
  • ainsi qu’un référentiel d’indemnisation, purement indicatif, adossé à cette base de données et réévalué régulièrement. ».

Pierre Januel (journaliste juridique) sur Twitter tend à relativiser les peurs, notamment des avocats. Il a publié un court article sur le sujet dans la newsletter Dalloz Actualité. Lire aussi les commentaires (d’avocats) sous son post.

Idem pour les Actualités du droit (Lamy).

Pour la députée Josiane Corneloup, qui parle visiblement pour les avocats et s’exprime par une question ministérielle à la ministre de la Justice [2], « derrière la création d’un référentiel grâce à l’intelligence artificielle se profile la possibilité pour les compagnies d’assurance d’invoquer le barème pour régler les dossiers hors de tout processus judiciaire, autrement dit la déjudiciarisation ». Selon la réponse de la Chancellerie, « ce projet de référentiel indicatif d’indemnisation répond à l’absence, pour l’heure, d’outil officiel, gratuit et fiable à disposition des publics concernés (victimes, avocats, magistrats, fonds d’indemnisation, assureurs) ». Au passage, la Chancellerie reconnaît que « divers référentiels "officieux" sont aujourd’hui utilisés par les praticiens sans aucune transparence pour les personnes concernées » [3].

Le ministère de la Justice a également essayé "d’éteindre l’incendie" dans une réponse ministérielle simialire à une question du sénateur Jean-Pierre Sueur [4]. Extrait :
« Loin de remplacer les professionnels du droit par des algorithmes, ce référentiel indicatif vise à mieux les informer, ainsi que les victimes qu’ils sont amenés à conseiller, sur le montant de la réparation que ces victimes sont susceptibles d’obtenir devant les juridictions — à l’instar du référentiel inter-cours ou des bases de données de jurisprudence actuellement utilisées par les praticiens. Mais cette indemnisation restera intégrale, ce point est essentiel. Loin de figer les indemnisations ou de porter atteinte à l’individualisation de la réparation, ce projet vise, in fine, à permettre une plus juste indemnisation des victimes dans le respect total de l’indépendance du juge. Le décret du 27 mars 2020 est enfin très circonscrit, puisqu’il encadre uniquement le développement informatique de l’algorithme destiné à créer ce référentiel indicatif pour une période de temps limitée à deux années. Cette étape doit permettre au ministère de la justice d’évaluer la faisabilité technique du projet. Si les travaux à mener s’avèrent concluants, un second décret viendra ensuite encadrer la mise à disposition au public, en conformité avec les règles prévues pour la mise œuvre de l’open data des décisions de justice. Une consultation aura alors lieu sur ce second projet de décret. »

Pour s’inquiéter

Christiane Ferahl-Schuhl, ex-bâtonnier de l’ordre des avocats de Paris : sa réaction sur son compte LinkedIn considère implicitement que ce traitement et futur algorithme est un danger pour la personnalisation de la réparation du préjudice. D’autres avocats précisent que les barèmes existant font déjà le travail d’uniformisation et que ce traitement viserait d’abord à baisser les évaluations (i.e. irait dans le sens des assureurs).

Dédiés à la défense des intérêts des victimes, l’Association nationale des avocats de victimes de dommages corporels (ANADAVI) « rappelle son opposition à tout référentiel d’indemnisation. Avec le décret prétendant "favoriser les règlements amiables", un pas vers la justice numérique et forcément déshumanisante semble avoir été franchi ».

Selon l’avocat Hervé Gerbi, l’algorithme du logiciel DataJust sera « en fait la mise en place d’un barème qui va uniformiser les décisions des juges » et « pénaliser les victimes » [5]. Il précise :
« Un doigt coupé, c’est en général 2 % d’incapacité. Mais si vous êtes pianiste professionnel, le préjudice ne sera pas le même car c’est alors toute votre carrière qui est en jeu. L’algorithme de DataJust va nier cette particularité. En voulant rendre la justice égalitaire, on va la rendre inéquitable. Cet algorithme va pénaliser les victimes. On va uniformiser leurs indemnisations. Ce sera une aubaine pour les assureurs. Pourquoi en effet aller devant la justice si le juge utilise le même instrument que l’assureur. »

Dans la revue Progressistes, un informaticien écrit : « On comprend tout l’enjeu de cette question lorsqu’on sait que 95 % des dossiers relatifs aux dommages corporelles sont gérés par les assureurs, alors que les 5 % qui passent par la voie judiciaire représentent 45 % du total des indemnisations versées aux victimes. »

Benoît Guillon, avocat spécialisé en réparation du dommage corporel et Cécile Moulin, docteure en droit, enfoncent le clou dans une analyse détaillée du décret : Un grand pas vers la barémisation, un pas en arrière pour le handicap. Extraits : « Afin d’atteindre ces objectifs, le décret autorise le traitement de données sensibles, notamment relatives à la santé, à la sexualité et à la religion des victimes, imposant un risque réel de réidentification, tout en les privant sans fondement de certains de leurs droits fondamentaux. Pour autant, le gouvernement a décidé de s’affranchir de toutes les règles de contrôle existantes (décr., art. 6). [...]
Le droit à l’opposition au traitement des données personnelles est le deuxième droit exclu par l’article 6 du décret, en se fondant sur l’intérêt général de l’accès au droit prévu à l’article 23 du RGPD. Si la CNIL ne semble pas avoir effectué un contrôle étendu sur ce point, il apparaît néanmoins que les deux conditions subordonnant l’exclusion de ce droit ne sont pas satisfaites. En effet, ce droit fondamental peut être exclu uniquement par la voie de mesures législatives et lorsqu’une telle limitation respecte l’essence des libertés et droits fondamentaux et qu’elle constitue une mesure nécessaire et proportionnée dans une société démocratique. Il sera donc relevé que DataJust méconnaît l’article 23 du RGPD et le principe de hiérarchie des normes. [...]
Aucun contrôle sur les bases de données JuriCA et Ariane n’est possible, celles-ci n’étant pas ouvertes. Ainsi, les datas mises à la disposition d’un algorithme dont la nature et les contours restent totalement indéterminés ne pourront être sérieusement appréciées. Quant au contrôle a posteriori des données traitées, il ne pourra avoir lieu, celles-ci étant détruites au bout de deux ans. »

Le Monde du droit du 6 avril 2020 : avocats et magistrats s’expriment : la crainte d’une standardisation et d’une déjudiciarisation est flagrante.

Le 30 mars, l’avocate Mila Petkova parle de « redoutables effets secondaires ». Elle souligne que « la CNIL rappelle qu’un tel outil ne doit consister qu’en une aide à la décision et non une décision elle-même. Nous craignons pourtant que ce rappel des principes essentiels ne demeure qu’un vœu pieu. La réalité, faite de difficultés d’appréciation, d’absence de temps judiciaire disponible et probablement d’indisponibilité du fonctionnement de l’algorithme pour toutes les parties au procès, montrera un glissement insensible d’un outil d’aide à la décision vers un référentiel opposable. »

Le 1er avril, l’avocat Thierry Vallat dénonce le danger d’une « robotisation de la justice » et d’« une marginalisation consciente du rôle des avocats ». Cette publication constitue, selon lui, « une nouvelle attaque frontale contre les avocats et leur rôle de plus en plus congru dans les procédures, sans parler du bras de fer sur leur régime de retraite objet d’une grève de plus de 9 semaines des robes noires de tous les barreaux français » (« La ministre et l’erreur temporelle : DataJust, un décret qui ne tombe pas à pic »).

Le CNB a promu un projet de résolution déposé le 11 mai à l’Assemblée nationale demandant le retrait de ce décret et qui résume assez bien les principaux reproches faits à la justice dite "prédictive" et en réalité encore balbutiante (voir sur ce blog notre étude sur l’IA en droit

Yannick Meneceur, magistrat, connaît bien le sujet : DataJust face aux limites structurelles de l’intelligence artificielle, Les temps électriques, 19 juin 2020. Il fait trois reproches, beaucoup plus techniques et à mon sens plus pertinents, à Datajust :

  • « L’algorithme va en effet influer sur la décision d’aller en justice en communiquant des informations potentiellement biaisées. En effet, « l’apprentissage » de Datajust ne portera que sur les décisions rendues entre 2017 et 2019 par les cours d’appel judiciaires, dans leur formation civile, et les cours d’appels administratives, ce qui ne donnera qu’une représentation très partielle de la réalité qu’il prétend restituer. Cette sélection, en plus se limiter à la seconde instance qui ne dispose d’aucune autorité spécifique par rapport à la première instance, exclue toute la partie de contentieux portant sur l’indemnisation des préjudices corporels à l’occasion d’un procès pénal. Il sera, de plus, bien difficile d’identifier les décisions prononcées dans des dossiers dans lesquels une transaction est intervenue, injectant ainsi dans le système des indemnisations potentiellement minorées au regard des circonstances de l’espèce.
  • Cet algorithme va également s’appuyer sur une technologie peu adaptée pour procéder au traitement d’une telle quantité d’informations qualitatives : il ne s’agit pas en effet de faire une simple médiane ou moyenne des montants précédemment alloués mais d’aller chercher les potentiels éléments de motivation pouvant avoir un lien avec un montant spécifique. Opérer cette analyse, c’est composer un cadre interprétatif, où les concepteurs vont devoir identifier des paramètres leur paraissant pertinent. Voici tous les ingrédients réunis pour du data dredging (dragage de données), c’est-à-dire restreindre le panel de décisions sélectionnées à celles se devant de correspondre au cadre posé.
  • Enfin, l’avantage d’un tel traitement informatique par rapport à une nomenclature figée est son caractère potentiellement dynamique : or le traitement sera ici limité à une durée de deux ans, le temps de construire le modèle, et les données seront ensuite détruites. »

Lire aussi : Datajust, une contribution à la transformation numérique de la justice, par A. Bensamoun et Th.Douville, La Semaine Juridique, Edition Générale (JCP G) n° 19, 11 mai 2020, p. 582.

Emmanuel Barthe
documentaliste juridique, veilleur, spécialiste des données publiques juridiques

Notes de bas de page

[1Voir la fiche DataJust sur le site des Entrepreneurs d’Intérêt Général (EIG).

[2Mise en oeuvre de Datajust, question AN de Josiane Corneloup publiée au JO le 19 mai 2020 p. 3466, réponse publiée 18 août 2020 p. 5572.

[3Signalé par Pierre Januel sur son compte Twitter, le 20 août 2020.

[4Datajust : le Gouvernement entend dissiper les craintes, Actualités du droit, 18 octobre 2020.

[5Le Parisien, 21 mai 2020.

Répondre à cet article

2 Messages