Datajust : un traitement de données pour élaborer un algorithme en matière d’indemnisation du préjudice corporel ...

... et pour évaluer les politiques publiques en matière de responsabilité civile et administrative

Vendredi 19 juin 2020, par Emmanuel Barthe // Logiciels, Internet, moteurs de recherche

DataJust ou le décret qui fâche les avocats. Le voici, ce décret :

Décret n° 2020-356 du 27 mars 2020 portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust », JORF n° 77 du 29 mars 2020 texte n° 2

Présentation officielle : ce décret autorise le ministre de la justice à mettre en œuvre, pour une durée de deux ans, un traitement automatisé de données à caractère personnel, dénommé « DataJust », ayant pour finalité le développement d’un algorithme destiné à permettre l’évaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative, l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels, l’information des parties et l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges, ainsi que l’information ou la documentation des juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels. Le décret définit les finalités du traitement, la nature et la durée de conservation des données enregistrées ainsi que les catégories de personnes y ayant accès. Il précise enfin les modalités d’exercice des droits des personnes concernées.

C’est en fait un vieux projet, rendu public il y a maintenant deux ans, lors de la deuxième édition de la Vendôme Tech, en décembre 2018, et événement désormais annuel de présentation des projets de transformation numérique de la Justice. Un projet s’inscrit dans le cadre de l’avant-projet de réforme de la responsabilité civile et vide à donner à la Cour de cassation et au ministère de la Justice des données et des armes, donc, dans le débat sur le coût de cette réforme pour les assureurs (et les primes d’assurance).

Il n’empêche : ses effets risquent de ne pas être neutres.

La sélection de cmmentaires qui suit en donnent une idée. Et il y en a beaucoup d’autres, presque tous négatifs.

Christiane Ferahl-Schuhl, ex-bâtonnier de l’ordre des avocats de Paris : sa réaction sur son compte LinkedIn considère implicitement que ce traitement et futur algorithme est un danger pour la personnalisation de la réparation du préjudice. D’autres avocats précisent que les barèmes existant font déjà le travail d’uniformisation et que ce traitement viserait d’abord à baisser les évaluations (i.e. irait dans le sens des assureurs).

Benoît Guillon, avocat spécialisé en réparation du dommage corporel et Cécile Moulin, docteure en droit, enfoncent le clou dans une analyse détaillée du décret : Un grand pas vers la barémisation, un pas en arrière pour le handicap. Extraits : « Afin d’atteindre ces objectifs, le décret autorise le traitement de données sensibles, notamment relatives à la santé, à la sexualité et à la religion des victimes, imposant un risque réel de réidentification, tout en les privant sans fondement de certains de leurs droits fondamentaux. Pour autant, le gouvernement a décidé de s’affranchir de toutes les règles de contrôle existantes (décr., art. 6). [...]
Le droit à l’opposition au traitement des données personnelles est le deuxième droit exclu par l’article 6 du décret, en se fondant sur l’intérêt général de l’accès au droit prévu à l’article 23 du RGPD. Si la CNIL ne semble pas avoir effectué un contrôle étendu sur ce point, il apparaît néanmoins que les deux conditions subordonnant l’exclusion de ce droit ne sont pas satisfaites. En effet, ce droit fondamental peut être exclu uniquement par la voie de mesures législatives et lorsqu’une telle limitation respecte l’essence des libertés et droits fondamentaux et qu’elle constitue une mesure nécessaire et proportionnée dans une société démocratique. Il sera donc relevé que DataJust méconnaît l’article 23 du RGPD et le principe de hiérarchie des normes. [...]
Aucun contrôle sur les bases de données JuriCA et Ariane n’est possible, celles-ci n’étant pas ouvertes. Ainsi, les datas mises à la disposition d’un algorithme dont la nature et les contours restent totalement indéterminés ne pourront être sérieusement appréciées. Quant au contrôle a posteriori des données traitées, il ne pourra avoir lieu, celles-ci étant détruites au bout de deux ans. »

Pierre Januel (journaliste juridique, ex-porte-parole du ministère de la Justice) sur Twitter tend à relativiser les peurs, notamment des avocats.

Iidem pour les Actualités du droit (Lamy).

Le Monde du droit du 6 avril 2020 : avocats et magistrats s’expriment : la crainte d’une standardisation et d’une déjudiciarisation est flagrante.

A titre d’exemple, le 30 mars, l’avocate Mila Petkova parle de « redoutables effets secondaires ». Elle souligne que « la CNIL rappelle qu’un tel outil ne doit consister qu’en une aide à la décision et non une décision elle-même. Nous craignons pourtant que ce rappel des principes essentiels ne demeure qu’un vœu pieu. La réalité, faite de difficultés d’appréciation, d’absence de temps judiciaire disponible et probablement d’indisponibilité du fonctionnement de l’algorithme pour toutes les parties au procès, montrera un glissement insensible d’un outil d’aide à la décision vers un référentiel opposable. »

Le 1er avril, l’avocat Thierry Vallat dénonce le danger d’une « robotisation de la justice » et d’« une marginalisation consciente du rôle des avocats ». Cette publication constitue, selon lui, « une nouvelle attaque frontale contre les avocats et leur rôle de plus en plus congru dans les procédures, sans parler du bras de fer sur leur régime de retraite objet d’une grève de plus de 9 semaines des robes noires de tous les barreaux français » (« La ministre et l’erreur temporelle : DataJust, un décret qui ne tombe pas à pic »).

Enfin, le CNB a promu un projet de résolution déposé le 11 mai à l’Assemblée nationale demandant le retrait de ce décret et qui résume assez bien les principaux reproches faits à la justice dite "prédictive" et en réalité encore balbutiante (voir sur ce blog notre étude sur l’IA en droit

A. Bensamoun, Th.Douville, Datajust, une contribution à la transformation numérique de la justice, La Semaine Juridique, Edition Générale n°19, 11 mai 2020, p. 582.

Yannick Meneceur, magistrat, connaît bien le sujet : DataJust face aux limites structurelles de l’intelligence artificielle, Les temps électriques, 19 juin 2020. Ses trois reproches à Datajust :

  • « L’algorithme va en effet influer sur la décision d’aller en justice en communiquant des informations potentiellement biaisées. En effet, « l’apprentissage » de Datajust ne portera que sur les décisions rendues entre 2017 et 2019 par les cours d’appel judiciaires, dans leur formation civile, et les cours d’appels administratives, ce qui ne donnera qu’une représentation très partielle de la réalité qu’il prétend restituer. Cette sélection, en plus se limiter à la seconde instance qui ne dispose d’aucune autorité spécifique par rapport à la première instance, exclue toute la partie de contentieux portant sur l’indemnisation des préjudices corporels à l’occasion d’un procès pénal. Il sera, de plus, bien difficile d’identifier les décisions prononcées dans des dossiers dans lesquels une transaction est intervenue, injectant ainsi dans le système des indemnisations potentiellement minorées au regard des circonstances de l’espèce.
  • Cet algorithme va également s’appuyer sur une technologie peu adaptée pour procéder au traitement d’une telle quantité d’informations qualitatives : il ne s’agit pas en effet de faire une simple médiane ou moyenne des montants précédemment alloués mais d’aller chercher les potentiels éléments de motivation pouvant avoir un lien avec un montant spécifique. Opérer cette analyse, c’est composer un cadre interprétatif, où les concepteurs vont devoir identifier des paramètres leur paraissant pertinent. Voici tous les ingrédients réunis pour du data dredging (dragage de données), c’est-à-dire restreindre le panel de décisions sélectionnées à celles se devant de correspondre au cadre posé.
  • Enfin, l’avantage d’un tel traitement informatique par rapport à une nomenclature figée est son caractère potentiellement dynamique : or le traitement sera ici limité à une durée de deux ans, le temps de construire le modèle, et les données seront ensuite détruites. »

Emmanuel Barthe
documentaliste juridique, veilleur, spécialiste des données publiques juridiques

Répondre à cet article

1 Message