Datajust : un traitement de données pour élaborer un algorithme en matière d’indemnisation du préjudice corporel ...

... et pour évaluer les politiques publiques en matière de responsabilité civile et administrative

Lundi 11 mai 2020, par Emmanuel Barthe // Logiciels, Internet, moteurs de recherche

Décret n° 2020-356 du 27 mars 2020 portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust », JORF n° 77 du 29 mars 2020 texte n° 2

Présentation officielle : ce décret autorise le ministre de la justice à mettre en œuvre, pour une durée de deux ans, un traitement automatisé de données à caractère personnel, dénommé « DataJust », ayant pour finalité le développement d’un algorithme destiné à permettre l’évaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative, l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels, l’information des parties et l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges, ainsi que l’information ou la documentation des juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels. Le décret définit les finalités du traitement, la nature et la durée de conservation des données enregistrées ainsi que les catégories de personnes y ayant accès. Il précise enfin les modalités d’exercice des droits des personnes concernées.

C’est en fait un vieux projet, rendu public il y a maintenant deux ans, lors de la deuxième édition de la Vendôme Tech, en décembre 2018, et événement désormais annuel de présentation des projets de transformation numérique de la Justice. Un projet s’inscrit dans le cadre de l’avant-projet de réforme de la responsabilité civile et vide à donner à la Cour de cassation et au ministère de la Justice des données et des armes, donc, dans le débat sur le coût de cette réforme pour les assureurs (et les primes d’assurance).

Il n’empêche : ses effets risquent de ne pas être neutres.

Commentaires :

  • Christiane Ferahl-Schuhl dans sa réaction sur son compte LinkedIn considère implicitement que ce traitement et futur algorithme est un danger pour la personnalisation de la réparation du préjudice. D’autres avocats précisent que les barèmes existant font déjà le travail d’uniformisation et que ce traitement viserait d’abord à baisser les évaluations (i.e. irait dans le sens des assureurs)
  • Benoît Guillon, avocat spécialisé en réparation du dommage corporel et Cécile Moulin, docteure en droit, enfoncent le clou dans une analyse détaillée du décret : Un grand pas vers la barémisation, un pas en arrière pour le handicap. Extraits : « Afin d’atteindre ces objectifs, le décret autorise le traitement de données sensibles, notamment relatives à la santé, à la sexualité et à la religion des victimes, imposant un risque réel de réidentification, tout en les privant sans fondement de certains de leurs droits fondamentaux. Pour autant, le gouvernement a décidé de s’affranchir de toutes les règles de contrôle existantes (décr., art. 6). [...]
    Le droit à l’opposition au traitement des données personnelles est le deuxième droit exclu par l’article 6 du décret, en se fondant sur l’intérêt général de l’accès au droit prévu à l’article 23 du RGPD. Si la CNIL ne semble pas avoir effectué un contrôle étendu sur ce point, il apparaît néanmoins que les deux conditions subordonnant l’exclusion de ce droit ne sont pas satisfaites. En effet, ce droit fondamental peut être exclu uniquement par la voie de mesures législatives et lorsqu’une telle limitation respecte l’essence des libertés et droits fondamentaux et qu’elle constitue une mesure nécessaire et proportionnée dans une société démocratique. Il sera donc relevé que DataJust méconnaît l’article 23 du RGPD et le principe de hiérarchie des normes. [...]
    Aucun contrôle sur les bases de données JuriCA et Ariane n’est possible, celles-ci n’étant pas ouvertes. Ainsi, les datas mises à la disposition d’un algorithme dont la nature et les contours restent totalement indéterminés ne pourront être sérieusement appréciées. Quant au contrôle a posteriori des données traitées, il ne pourra avoir lieu, celles-ci étant détruites au bout de deux ans. »
  • Pierre Januel (journaliste juridique, ex-porte-parole du ministère de la Justice) sur Twitter tend à relativiser les peurs, notamment des avocats
  • idem pour les Actualités du droit (Lamy)
  • Le Monde du droit du 6 avril 2020 : avocats et magistrats s’expriment : la crainte d’une standardisation et d’une déjudiciarisation est flagrante.
    A titre d’exemple, le 30 mars, l’avocate Mila Petkova parle de « redoutables effets secondaires ». Elle souligne que « la CNIL rappelle qu’un tel outil ne doit consister qu’en une aide à la décision et non une décision elle-même. Nous craignons pourtant que ce rappel des principes essentiels ne demeure qu’un vœu pieu. La réalité, faite de difficultés d’appréciation, d’absence de temps judiciaire disponible et probablement d’indisponibilité du fonctionnement de l’algorithme pour toutes les parties au procès, montrera un glissement insensible d’un outil d’aide à la décision vers un référentiel opposable. »
    Le 1er avril, l’avocat Thierry Vallat dénonce le danger d’une « robotisation de la justice » et d’« une marginalisation consciente du rôle des avocats ». Cette publication constitue, selon lui, « une nouvelle attaque frontale contre les avocats et leur rôle de plus en plus congru dans les procédures, sans parler du bras de fer sur leur régime de retraite objet d’une grève de plus de 9 semaines des robes noires de tous les barreaux français » (« La ministre et l’erreur temporelle : DataJust, un décret qui ne tombe pas à pic »).
    Enfin, le CNB a promu un projet de résolution déposé le 11 mai à l’Assemblée nationale demandant le retrait de ce décret et qui résume assez bien les principaux reproches faits à la justice dite "prédictive" et en réalité encore balbutiante (voir sur ce blog notre étude sur l’IA en droit(.

Répondre à cet article

1 Message