Les robots, avocats et juges de demain ? Pas vraiment ...

"Intelligence artificielle" en droit : les véritables termes du débat

Justice prédictive, legal tech, ROSS, Predictice, Supra Legem, Minority report, machine learning, réseaux neuronaux, NLP, Big data etc.

Mercredi 2 août 2017, par Emmanuel Barthe // Logiciels, Internet, moteurs de recherche

Legal tech, justice prédictive et plus encore "intelligence artificielle" (IA) en droit sont devenus des sujets à la mode depuis 2015-2016.

Mais discours marketing et flou sur les performances sont légion dans ces informations — qui ressemblent souvent plus à de la communication qu’à de l’information.

De qui et de quoi parle t-on exactement : quelles sociétés, quelles fonctions, quelles technologies ?
Quels sont les véritables risques pour l’emploi des professionnels du droit (avocats, stagiaires, juristes d’entreprise, magistrats, notaires) et de leurs "paralegals", documentalistes et veilleurs ?
Quels sont, également, les risques de la justice prédictive ?

C’est le sujet de ce billet, qui vise à démystifier les fonctionnalités et performances des applications présentées comme des "IA" (intelligence artificielle) en droit, tant pour le présent que pour le futur. Il s’appuie sur la lecture d’une bonne partie de la littérature disponible et sur des discussions personnelles avec certains acteurs.

Executive summary (TL ;DR)

En quelques paragraphes pour ceux qui sont pressés :

  • l’intelligence artificielle est d’abord un champ de recherche et les réalisations dignes de ce nom en droit sont rares. Le reste, ce sont soit de l’informatique "à la papa" soit des logiciels experts
  • techniquement, l’IA en droit se caractérise par l’utilisation combinée :
    • du Big data
    • du machine learning (ML)
    • et surtout du natural language processing (NLP), plus précisément une version du NLP dopée par le ML et l’analyse syntaxique. Ce qui signifie que les soi-disant "intelligences artificielles" en droit sont en fait des moteurs de recherche de nouvelle génération et des systèmes d’aide à la décision. Pas des cerveaux juridiques
  • la valeur créée par l’intelligence artificielle provient des données nécessaires à l’apprentissage bien plus que de l’algorithme, dont les développements se font en open source. Autrement dit, les données comptent plus que les logiciels. Cela devrait permettre aux éditeurs juridiques français traditionnels, actuellement à la traîne, de revenir dans la course car c’est eux qui détiennent les données les plus riches en droit français, tout particulièrement la doctrine
  • si on a beaucoup parlé de ROSS, l’IA d’IBM, c’est d’abord grâce à une offensive marketing et communicationnelle de première ampleur. Mais ses performances réelles sont en deçà de sa réputation. Elle ne fait que de la recherche et de l’analyse sur la jurisprudence de droit américain des faillites
  • en droit français à l’heure actuelle, seuls trois systèmes méritent le nom d’IA : Supra Legem, qui se limite au droit administratif, Predictice et Case Law Analytics. Tous ne travaillent que sur la jurisprudence. On peut ajouter le pionnier Jurisprudence chiffrée de Francis Lefebvre, qui travaillait déjà sur le langage naturel en 2010. Leur apport : une recherche facilitée, et le calcul du montant prévisible des dommages-intérêts et des chances de gagner un procès
  • les risques de suppression nette d’emplois dans le secteur juridique sont un sujet de débat mais il demeure que les tâches simples et "découpables" seront automatisées et que les collaborateurs, les paralegal et les documentalistes juridiques devront apprendre à travailler avec l’IA (et non à côté d’elle), autrement dit à l’utiliser et l’améliorer. Quant à l’IA connectée au ccerveau.ce n’est pas pour tout de suite : le chirurgien français Laurent Alexandre, fondateur du site Doctissimo, et partisan de l’être humain augmenté (ou transhumanisme), commentant les prédictions du singulariste (et par ailleurs employé de Google) Ray Kurzweil, estime qu’ « un cerveau connecté, on en est encore loin. Croire qu’on y arrivera d’ici 15/20 ans, il me semble que c’est faire preuve de naïveté neuro-technologique. Pour l’instant, les seules choses que nous arrivons à faire, c’est recréer des faux souvenirs chez des rats par exemple, en les "connectant". Mais on leur bousille le cerveau, on est très loin d’être au point sur ce sujet-là ». (En 2050, les gens avec moins de 150 de QI ne serviront à rien, par Pierre Belmont, Nom de Zeus, 24 mars 2016).]]
  • la justice dite prédictive entraînerait de sérieux risques, au premier plan desquels le jugement sur des critères obscurs et le conformisme des juges à ce qui a déjà été jugé. Des limites légales existent déjà et des parades techniques sont proposées, notamment l’open source du code ou des tests de vérification à partir de jeux de données.

Sommaire

Un sujet très tendance

Début janvier 2017, Les Echos publient un article au titre provocateur : Les robots seront-ils vraiment les avocats de demain ?

En fait, ses auteurs, Pierre Aidan, cofondateur de Legalstart.fr [1] et Florence Gsell, professeur de droit à l’université de Lorraine, réagissent, dans le but de rassurer les professions judiciaires, à un autre article.

Ce dernier, beaucoup plus provocateur sur le fond, a été publié en octobre 2016 à la Harvard Business Review, par le célèbre consultant en informatique juridique britannnique Richard Susskind et son fils Daniel, économiste : Technology Will Replace Many Doctors, Lawyers, and Other Professionals (Les nouvelles technologies remplaceront beaucoup de médecins, juristes et autres professionnels libéraux). Cet article est en fait un résumé du dernier ouvrage des Susskind publié en octobre 2015 : The Future of the Professions : How Technology Will Transform the Work of Human Experts (Le futur des professions libérales : comment les nouvelles technologies vont transformer le travail des experts humains, Oxford University Press, OUP) [2]. Quant au consultant américain Jaap Bosman, son ouvrage Death of a law firm (Mort d’un cabinet d’avocats) prédit la fin du "business model" actuel des cabinets d’avocats en soulevant la question épineuse de la standardisation du service juridique grâce à l’intelligence artificielle (IA) [3].

Et en novembre 2016, la journaliste britannique Joanna Goodman [4] publie Robots in Law : How Artificial Intelligence is Transforming Legal Services (Les robots juridiques : comment l’intelligence artificielle transforme les services juridiques, Ark Group) [5].

Toujours début janvier 2017, la Semaine juridique publie, elle, une étude d’Antoine Garapon, magistrat, secrétaire général de l’Institut des hautes études sur la Justice (IHEJ) et spécialiste reconnu des questions de justice, intitulée « Les enjeux de la justice prédictive » [6]. Et pour ne pas être en reste, le Recueil Dalloz s’empare aussi du sujet avec une tribune de Marc Clément, Premier conseiller à la cour administrative d’appel de Lyon [7]. C’est la newsletter Dalloz Actualité qui a publié peut-être le meilleur article sur le sujet : L’intelligence artificielle va provoquer une mutation profonde de la profession d’avocat, par Caroline Fleuriot, 14 mars 2017. Le seul reproche que je ferais à cet article est de reprendre, sans recul, des phrases chocs, excessives, destinées à impressionner ou à faire peur [8].

La revue Expertises, enfin, publie une interview de Rubin Sfadj, avocat aux barreaux de Marseille et New York et grand blogueur et twitto devant l’Eternel. Interview portant sur l’IA juridique [9] et plus concrète et plus claire — plus tranchée, peut-on dire — que les deux articles précédents.

Depuis les premiers succès commerciaux de ROSS, l’application au droit des faillites américain du système de machine learning Watson développé par IBM, l’intelligence artificielle (IA) en droit est devenue tendance [10]. On parle beaucoup aussi de justice prédictive.

A lire aussi :

On peut rapprocher ces publications d’une note de McKinsey qui vient de paraître sur le futur du travail [11]. Elle prévoit dans le monde entier une automatisation croissante des tâches, pouvant supprimer 5% des emplois actuels et en modifier beaucoup plus.

De quoi parle t-on exactement ? Ou comment définir les legal tech et l’IA en droit aujourd’hui

Les différents types de technologies utilisés en "IA"

Les différents types de technologies utilisés en "IA" (NB : pas de robotique en droit et la "vision" est en fait du machine learning)

Il y a des technologies, qu’il faut distinguer, et derrière ces technologies il y a des applications et leurs développeurs, grosses sociétés de l’informatique et de l’Internet ou start-ups, l’ensemble de ces sociétés étant communément appelé les "legal tech" [12].

Que font les legal tech ? Je reprend ici la liste très complète de Benoît Charpentier développée dans son article précité. Elles « proposent de très nombreux services et produits, comme :

  • le calcul de probabilité concernant les décisions de justice
  • le financement de contentieux (third-party litigation funding)
  • les plateformes d’actions collectives
  • la génération automatisée de documents juridiques dynamiques
  • le déploiement de systèmes intelligents ou d’intelligence artificielle (fondés par exemple sur le machine learning, notamment ses variantes natural language processing et deep learning)
  • les plateformes de mise en relation avec des professionnels du droit
  • les solutions cloud
  • l’édition de logiciels spécialisés
  • la résolution de litiges non contentieux en ligne
  • les procédures d’arbitrage en ligne
  • les procédures de divorce en ligne
  • la signature électronique
  • la certification de documents (par exemple grâce à la technologie blockchain)
  • la réalisation de formalités et de dépôts en ligne (mise en demeure, acte introductif d’instance)
  • la visualisation de données complexes issues du Big Data
  • la programmation de contrats intelligents (smart contracts)
  • la mise en oeuvre d’outils collaboratifs
  • la revue de documents assistée par la technologie (Technology Assisted Review (TAR))
  • les outils de conformité
  • les outils de calculs fiscaux
  • les outils de gestion de contrats (contract management)
  • les outils de recherche juridique ».

Qui sont ces legal tech ? Il existe depuis peu une liste gratuite, fiable et quasi-exhaustive des legal techs françaises ou implantées en France (PDF), celle de Benoît Charpentier. Pour une liste mondiale, voir :

A mon goût, beaucoup de ces initiatives sont certes "legal" mais leur degré d’innovation en "tech" est faible : par exemple, simple mise en ligne de formulaires ou intermédiation entre avocats et prospects. Alors en voici, toujours sur la France, une personnelle, non triée, forcément incomplète mais tendant à se focaliser sur l’innovation technologique (notamment machine learning, big data, analytics ...) :

A noter, car très souvent citée par les articles présents sur le Net mais non présente en France : DoNotPay conteste les PV de stationnement en justice sans avocat et avec un taux de succès important.

Attention : très peu parmi ces sociétés se rangent dans la catégorie de l’intelligence artificielle telle qu’on la pratique aujourd’hui, autrement dit le machine learning. Beaucoup se rangent dans les logiciels experts [13] (ce qui est déjà à mes yeux de l’innovation), une catégorie d’IA déjà ancienne à laquelle le cloud donne une nouvelle jeunesse mais qui n’est pas de l’IA telle qu’on la voit aujourd’hui (voir infra).

Et à propos d’intelligence artificielle, il faut être clair : ce qu’on appelle IA est, à strictement parler, une discipline scientifique, autrement dit un champ de recherche. Par extension, on qualifie aussi d’IA les produits qui se rangent dans ce champ [14]. On parle bien ici de *recherche* : on n’en est pas à reproduire le fonctionnement d’une intelligence humaine. Un des deux co-fondateurs de l’équipe de recherche en IA de Uber, Gary Marcus, professeur de psychologie à l’Université de New York, le dit clairement [15] :

" Il y a tout ce que vous pouvez faire avec le deep learning [...]. Mais ça ne veut pas dire que c’est de l’intelligence. L’intelligence est une variable multi-dimensionnelle. Il y a beaucoup de choses qui rentrent dedans. [...] La véritable IA est plus éloignée que ce que pensent les gens "

En fait, nous parlons ici de ce que les spécialistes de l’IA appellent "week AI" (ou "narrow AI"). Comme l’expliquent Wikipédia et Techopedia, l’IA faible est une intelligence artificielle non-sensible qui se concentre sur une tâche précise. L’IA faible est définie par contraste avec l’IA forte (une machine dotée de conscience, de sensibilité et d’esprit, tout comme un être humain) ou l’intelligence artificielle générale (une machine capable d’appliquer l’intelligence à tout problème plutôt qu’un problème spécifique). Le point le plus important ici est que tous les systèmes actuellement existants sont considérés comme des intelligences artificielles faibles.

D’ailleurs, vu les fonctionnalités et performances réelles des produits dont nous allons parler, il est évident que parler d’intelligence artificielle en droit au sens strict est très exagéré.

Il y a aussi un débat sur le droit et l’opportunité de laisser les legal tech investir le marché du droit (principalement celui des avocats mais aussi celui des notaires) et de l’information juridique. Sur ce sujet, je vous renvoie aux articles cités en première partie plus haut. Sur les risques de la justice prédictive, voir infra.

Voici les cinq principales technologies en cause dans ce qu’on appelle l’intelligence artificielle en droit [16] :

  • les systèmes experts. Un système expert est, selon Wikipedia, un outil capable de reproduire les mécanismes cognitifs d’un expert, dans un domaine particulier, par des règles logiques. Cette première des voies tentant d’aboutir à l’intelligence artificielle a donné des résultats décevants : par exemple, à partir d’une centaine de règles voire moins, certaines se contredisent et il devient nécessaire de les pondérer, ce qui est en fait peu rigoureux ; leur coût élevé est un autre écueil. Un exemple de système expert en droit, le prototype NATIONALITE du défunt IRETIJ (Institut de recherche et d’études pour le traitement de l’information juridique [17]) est décrit dans une contribution de 1989 [18]. Les logiciels de gestion de contrats sont un bon exemple de logiciels experts en droit. C’est l’émergence des quatre technologies suivantes qui a relancé les espoirs des spécialistes de la recherche en IA
  • le big data et surtout le (legal data) analytics. Il ne s’agit là que de technologies correspondant à des logiciels (Apache Hadoop, MongoDB, Microsoft Azure ...) faits pour traiter des masses de données énormes et/ou des données pas assez structurées, nécessitant des logiciels différents des systèmes de gestion de base de données (SGBD) classiques
  • le machine learning [19] (ML, en français apprentissage statistique automatique). Le ML peut être supervisé (des humains apprennent à l’algorithme à reconnaître les formes ou les notions vérifient et corrigent) ou non supervisé. ROSS d’IBM, aux Etats-Unis, utilise le machine learning, dans sa version supervisée : des juristes, des avocats ont "enseigné" et "corrigé" l’application et continuent de le faire. L’application Predictice en France fonctionne selon le même principe. De son côté, Thomson Reuters, propriétaire de Westlaw, a lancé un laboratoire en 2015 et collabore avec IBM pour intégrer la technologie Watson dans ses produits. ROSS est un système à apprentissage automatique supervisé. En France, Supra Legem, Predictice et Case Law Analytics [20] utilisent aussi le machine learning
  • le deep learning (apprentissage statistique automatique profond), concrètement, est un développement du machine learning. Il utilise à fond la technique des réseaux neuronaux pour tenter de se passer complètement d’une vérification/correction par des humains. Les réseaux neuronaux sont une technologie développée à l’origine pour la reconnaissance automatique d’image ("pattern recognition"). Pour (tenter de) comprendre, il faut lire les exemples de fonctionnement d’un réseau neuronal donnés par deux spécialistes français interviewés par Le Monde [21] :

« Yann Le Cun : Le deep learning utilise lui aussi l’apprentissage supervisé, mais c’est l’architecture interne de la machine qui est différente : il s’agit d’un "réseau de neurones", une machine virtuelle composée de milliers d’unités (les neurones) qui effectuent chacune de petits calculs simples. « La particularité, c’est que les résultats de la première couche de neurones vont servir d’entrée au calcul des autres ». Ce fonctionnement par "couches" est ce qui rend ce type d’apprentissage "profond". »

« Yann Ollivier, chercheur en IA au CNRS et spécialiste du sujet, donne un exemple parlant : « Comment reconnaître une image de chat ? Les points saillants sont les yeux et les oreilles. Comment reconnaître une oreille de chat ? L’angle est à peu près de 45°. Pour reconnaître la présence d’une ligne, la première couche de neurones va comparer la différence des pixels au-dessus et en dessous : cela donnera une caractéristique de niveau 1. La deuxième couche va travailler sur ces caractéristiques et les combiner entre elles. S’il y a deux lignes qui se rencontrent à 45°, elle va commencer à reconnaître le triangle de l’oreille de chat. Et ainsi de suite. »

D’après Michael Benesty (Supra Legem), toutefois, en machine learning sur du droit, on est plus dans le NLP (voir juste infra) [22] que dans les réseaux neuronaux [23]. Les réseaux neuronaux ici réduisent le traitement des données en amont, mais leur apport en droit est très inférieur à ce qu’ils ont fait pour la reconnaissance d’image. De plus, ils coûtent très cher du fait de la puissance et du temps de calcul nécessaires (location de serveurs et de logiciels) [24].

JPEG - 99.4 ko
Un réseau de neurones convolutifs schématisé
  • le traitement du langage naturel ("natural language processing", NLP). ROSS, Predictice ou Supra Legem [25] sont des applications utilisant le NLP. Plus précisément le NLP tel qu’on le pratique aujourd’hui : à base de machine learning et de techniques d’analyse syntaxique ("parsing", en anglais) [26] et non plus d’analyse sémantique. Le NLP actuel, c’est l’application du machine learning, en version non assistée, au langage, plus précisément aux textes. Le NLP à base de machine learning a été énormément facilité par la diffusion en open source en 2013 par Google du logiciel Word2vec (W2V), qui transforme les mots en vecteurs. Concrètement, Word2vec devine les termes similaires (proches par le sens) d’un mot en utilisant les autres mots faisant partie du contexte de ce mot [27]. Toutefois, si le NLP à la sauce ML détecte — indirectement et implicitement — le sens des mots, il ne sait pas en détecter la logique : licéité et illicéité, par exemple, risquent fort d’être similaires pour lui.

Les données comptent plus que les applications

Nous venons de présenter les technologies impliquées dans l’IA en droit.

Mais sur le plan stratégique, le plus important n’est pas là. Pour le comprendre, il faut lire le rapport de France Stratégie sur l’IA publié en mars 2017 [28].

Dans ce rapport, la contribution spécifique du Conseil National du Numérique (CNNum) souligne l’importance fondamentale des données :

« La valeur créée par l’intelligence artificielle provient des données nécessaires à l’apprentissage bien plus que de l’algorithme, dont les développements se font de manière ouverte (en open source). En conséquence, les organisations doivent prendre conscience de l’importance stratégique des données qu’elles détiennent. Il s’agit également, à plus long terme, d’engager une réflexion sur les modes de partage de la valeur entre acteurs privés. En ce sens, le Conseil s’est par ailleurs saisi de la question de la libre circulation des données aux niveaux international et européen, d’un point de vue de transfert entre les territoires mais également entre acteurs économiques. »

Ce sont justement leurs bases de données qui font l’avance de Google et Facebook. C’est pourquoi cela ne les gêne pas de mettre leurs logiciels en open source. Au contraire, cela accélère l’adoption de l’IA par les développeurs puis la société dans son ensemble. Une démarche imitée de manière légèrement différente par LexisNexis :

  • l’éditeur américain a annoncé en mars 2017 qu’il va donner accès à ses contenus et à son expertise, ainsi que celle de sa filiale LexMachina, à cinq start-ups sélectionnées : Visabot, TagDox, Separate.us, Ping, and JuriLytics [29]. Lexis espère profiter de leurs innovations
  • et le 8 juin, Lexis annonce le rachat de Ravel Law, LA start-up indépendante de 21 personnes spécialisée dans la recherche sur la jurisprudence américaine à base de ML et de NLP. Le fondateur de Ravel Law Daniel Lewis explique à cette occasion que le rachat donnera à Ravel Law « accès à un vaste assortiment de données de haute qualité, quelque chose qui est nécessaire. Même la meilleure IA ne peut surmonter les défauts dus à un accès limité en terme de données », dit-il. « On a besoin de de données de haute qualité en entrée" a-t-il ajouté. « Si vous avez de la mauvaise qualité en entrée, vous avez de la mauvaise qualité en sortie. »

ROSS : points forts et limites d’un moteur de recherche en langage naturel à base de machine learning avec supervision

Fin 2016-début 2017, c’est surtout le produit d’IBM qui fait parler de lui — voir notamment notre "webliographie" sélective sur ROSS infra. Et même si, de fait, on peut parler d’une intense campagne de presse, je crois qu’on tient une confirmation d’une amélioration radicale de la recherche documentaire en droit dans les articles sur l’implémentation de ROSS par le petit cabinet d’avocats américain Salazar Jackson : en effet, selon le principal associé de cette firme, ROSS fait les recherches aussi bien et plus vite qu’un jeune collaborateur [30]. Ce que semble confirmer une étude réalisée par une firme indépendante (certes payée par IBM) qui parle d’un gain de temps dans les recherches de 30% [31].

ROSS serait même, soi-disant, capable de résumer sa recherche en un mémo ? L’avocat Rubin Sfadj estime toutefois que la prétendue capacité de ROSS à sortir un mémo est exagérée. Il a raison. C’est ce que Jimoh Ovbiagele, le CTO de ROSS, a fini par reconnaître devant un journaliste du New York Times : des humains se chargent du brouillon produit par ROSS et créent le mémo final, et c’est pour cela que ça prend un jour entier [32].

Bien sûr, ROSS nécessite une interaction homme-machine. Il s’améliore en apprenant des retours des juristes sur ses recherches [33]. C’est donc de l’apprentissage automatique avec supervision [34].

ROSS est pour l’instant spécialisé uniquement dans la jurisprudence américaine en droit de la faillite (US bankruptcy law). Mais la diversité des tâches et des domaines possibles est une caractéristique du machine learning le plus récent (depuis environ 2015). Le cabinet américain Latham & Watkins, implanté à Paris, est en phase de « test » avec ROSS [35], suivi par de plus petites structures et l’Ordre des avocats de Lille.

Le dirigeant et co-fondateur de ROSS Intelligence, Andrew Arruda, expliquait justement en août 2016 :

« La version actuelle du système est utilisée pour aider les juristes spécialisés en procédures collectives travaillant dans des firmes américaines. Les futures versions du système couvriront d’autres domaines du droit et d’autres juridictions. »

Rubin Sfadj estime quant à lui que ROSS sera capable de gérer les textes officiels (en sus de la jurisprudence) français.

Et Watson, l’application d’IBM dont ROSS est dérivé, sert déjà à de multiples tâches. Comme :

Autres exemples de la capacité du machine learning à s’appliquer à tous les domaines :

  • la Lettre de l’Expansion du 16 janvier signale que le réseau social interne développé par Orange, installé chez eux à l’automne 2015 [41] et également vendu par l’opérateur sous le nom de Business Together Sharespace [42] « s’appuie sur la technologie "machine learning" [...] et inclut des robots à même de suggérer à l’utilisateur des informations pertinentes ou des collègues susceptibles d’enrichir son activité »
  • Google a présenté fin novembre un algorithme repérant des signes de rétinopathie diabétique dans des photos du fond d’oeil. Et Facebook comme Microsoft ont dévoilé cette année des systèmes capables de "regarder" des images et en décrire le contenu pour les aveugles [43]

A priori (le manque d’information détaillées sur ROSS étant criant), les limites d’un système comme ROSS, sont :

  • les applications dérivées du Watson d’IBM sont toutes étroitement spécialisées (et non généralistes sur un domaine) et nécessitent d’énormes développements informatiques spécifiques et un très gros travail d’input et d’apprentissage par des experts [44]
  • comme la plupart des bases de données en ligne actuelles, son manque de confidentialité. Je sais que les éditeurs de services en ligne garantissent la "confidentialité" des données de leurs clients, mais de fait, si elles ne sont pas cryptées de bout en bout, elles ne sont pas réellement confidentielles. Il serait intéressant à cet égard de savoir si ROSS crypte les données de ses clients
  • sa dépendance à la "data". Si les données sont incomplètes, non exhaustives ou comportent un biais, les résultats seront biaisés [45]
  • le poids du passé (même s’il pourra certainement intégrer les projets de loi), car la donnée c’est du passé
  • sa dépendance aux compétences des personnes qui "l’entraînent" (cas du machine learning supervisé)
  • son degré d’acceptation par la société, encore limité (cf la dernière partie de ce billet). Toutefois, si l’on s’en tient à l’histoire récente des innovations, les systèmes de machine learning en droit finiront, selon toute probabilité, par être assez rapidement acceptés par les consommateurs de droit. Les professionnels du droit risquent donc, à long terme, de devoir suivre
  • à court et moyen terme, le délai d’implémentation en droit français. ROSS ne pourra pas être implémenté en droit français global avec une pleine efficacité avant un minimum de huit ans. Explication. En son état actuel limité au droit américain des faillites, ROSS aurait été développé en trois ans à partir de Watson. Compte tenu des spécificités du droit français (pas de la common law ... mais pas un véritable problème [46]), de la (relativement) petite taille du marché français du droit, de l’absence pour l’instant de disponibilité en accès libre [47] des décisions de justice judiciaire de première instance [48] avant des années malgré la loi Lemaire pour une République numérique [49], de la nécessité d’un partenariat entre un éditeur juridique et un éditeur de système de machine learning [50], cela devrait prendre au minimum huit ans et peut-être plus. La com’ des légal tech et particulièrement d’IBM sur les performances de leurs logiciels dépasse quelque peu la réalité et envahit même la presse économique et généraliste.

Predictice, Case Law Analytics, Supra Legem : calculer les chances de gagner un procès avec le machine learning

Côté justice prédictive, pour le moment, on n’en est en réalité qu’à une analyse (par chambre, par juge, des montants des dommages-intérêts ou de quel type de camp a gagné) de la jurisprudence disponible et à la recherche en langage naturel sur celle-ci. C’est le sens du billet très mesuré du professeur Dondero cité en introduction. Plus généralement, déjà en 2014, un spécialiste du ML, le professeur Michael Jordan, estimait qu’on attendait beaucoup trop beaucoup trop tôt du deep learning et du big data [51].

Pour l’instant, le ML en droit n’est pas de la véritable intelligence artificielle. Voici la définition de l’IA par le meilleur dictionnaire de langue française, celui élaboré par l’ATILF [52], le Trésor de la langue française (TLF) : « Intelligence artificielle : recherche de moyens susceptibles de doter les systèmes informatiques de capacités intellectuelles comparables à celles des êtres humains ». Du temps de la lutte entre Microsoft et les autres éditeurs de logiciels de bureautique (années 80), on appelait ça du vaporware : annoncer des sorties d’applications entre 6 mois et 2 ans à l’avance pour pousser les clients à attendre la nouvelle version. Et à ne surtout pas aller chez la concurrence — ici, je dirais : ne pas se servir de ce qui marche déjà très bien, comme les compétences des meilleurs documentalistes juridiques ou l’application Jurisprudence chiffrée (cf juste infra).

L’article précité de Valérie de Senneville aux Echos le souligne :

« pour le moment, " il y a beaucoup d’effets d’annonce ", remarque Jean Lassègue, philosophe et chercheur au CNRS. L’épistémologue, qui a consacré de nombreux travaux à l’informatique, invite à s’interroger sur le problème de la qualification des faits et de leur catégorisation. " La machine ne peut pas régler cela ", affirme Jean Lassegue. »

Ils prédisent vos chances de gagner une action judiciaire (sur Predictice et Case Law Analytics) (Le Parisien 8 octobre 2016). Predictice : grâce aux algorithmes, cette startup est capable de prédire l’issue d’une action en justice et d’optimiser les stratégies contentieuses des avocats (OVH News 7 juillet 2016). Des prétentions un peu exagérées si l’on lit bien les deux documents et qu’on regarde la copie écran chez OVH News. Comme le montre l’article plus réaliste de Libération du 23 février (Justice prédictive, l’augure des procédures), il s’agit en fait essentiellement de lister le type de partie vainqueur et donc d’une certaine façon de donner un pourcentage de chance de remporter un procès sur un type de contentieux, et de déterminer les montants de dommages-intérêts alloués selon la cour d’appel [53].

Concrètement, Predictice est un outil d’aide à la décision à destination des professionnels du droit. Il permet d’accéder à la jurisprudence et aux textes de loi via un moteur de recherche en langage naturel utilisant des technologies de text mining (dependency parsing etc.). Un algorithme calcule les probabilités de résolution d’un contentieux, le montant des indemnités potentielles et identifie les moyens de droit ou les faits les plus influents dans les décisions antérieures rendues par les juridictions. La restitution des analyses se fait sous forme graphique ou statistiques). L’application utilise les technologies de NLP et de ML assisté. Selon son éditeur, Predictice est en cours de commercialisation : pilote auprès de grosses structures (Orange, AXA, Covéa, Dentons, Taylor Wessing) et abonnement sur demande des cabinets d’avocats.

Sur Case Law Analytics, il n’y a pour l’instant vraiment que deux articles à lire : Un outil pour mieux évaluer le risque juridique, lettre Emergences n° 41, 19 mai 2016 et Justice prédictive : vers une analyse très fine du risque juridique ... (entretien avec Jacques Lévy-Véhel, directeur de recherche à l’INRIA et Jérôme Dupré, magistrat en disponibilité, co-fondateurs), Le Village de la Justice 22 mars 2017. Il s’agit en fait ici d’une évaluation probabiliste des dommages-intérêts. Extrait de l’article du Village de la Justice :

« " Il ne s’agit pas de dire la probabilité d’aller au contentieux mais plutôt de d’estimer les sommes d’argent que vous pouvez être condamné à payer dans tel ou tel cas de figure, explique Jérôme Dupré. Nous n’aimons pas l’expression “justice prédictive”, qui est à notre avis trompeuse et parfois même dangereuse. C’est pourquoi nous ne donnons pas un chiffre unique mais une distribution probabiliste des montants de condamnation possibles. Il est difficile de calculer ce risque parce que les aspects procéduraux sont complexes à modéliser pour le moment mais c’est possible dans certains cas. " A l’heure actuelle, trois contentieux sont prêts et peuvent être utilisés : le licenciement sans cause réelle et sérieuse, la prestation compensatoire et la pension alimentaire. Mais la start-up n’entend pas s’arrêter là. »

Il y a, chose rare parmi toutes ces applications de machine learning, une version, gratuite et très limitée, de démonstration pour Iphone et Ipad pour Case Law Analytics. Elle permet d’évaluer une fourchette pour le montant de la pension alimentaire avec les probabilités associées.

C’est quelque chose que l’éditeur juridique Francis Lefebvre avait déjà approché avec son produit Jurisprudence chiffrée fondé sur les faits et chiffres présents dans les arrêts de cour d’appel de la base JuriCA. Jurisprudence chiffrée trouve depuis 2010 des arrêts de cour d’appel correspondants aux critères exacts donnés et le montant des dommages-intérêts. Par exemple, à partir de la profession et l’ancienneté, Jurisprudence chiffrée donne le montant des dommages-intérêts pour licenciement sans cause réelle et sérieuse [54]. Jurisprudence chiffrée utilise un programme qui identifie les zones des arrêts d’appel riches en information de type juridiction, adresse, profession, âge, ancienneté, montant des indemnités etc., isole ces informations et permet de mener une recherche d’arrêts très rigoureuse par ces critères combinés. Mais à l’époque de sa conception, les avancées du machine learning commençaient à peine, il est donc peu probable que Jurisprudence chiffrée utilise le ML [55].

JPEG - 104.5 ko
Interface de recherche de l’application Jurisprudence chiffrée en matière d’indemnité d’éviction (baux commerciaux)

La base (et ouvrage) rivale de LexisNexis Contentieux de l’indemnisation devenue Données Quantifiées JurisData (et accessible par l’onglet Pratique & Outils de Lexis360) est elle, en revanche, faite "à la main", ce qui permet de la ranger dans la catégorie analyse prédictive mais pas dans celle de l’IA [56].

Seule application de "justice prédictive" (en fait, on vient de le voir, de recherche fine et d’aide à la décision) à proposer une démo grandeur nature, qui plus est gratuite, Supra Legem, développée par le fiscaliste, programmeur et data scientist Michael Benesty, aide à améliorer la pertinence et la rapidité des recherches, identifier un revirement de jurisprudence, identifier les moyens de l’administration qui n’ont pas fonctionné, identifier des tendances de certaines chambres, voire prédire des revirements de jurisprudence du Conseil d’Etat [57].

Pour autant, un de mes contacts estime que le machine learning en droit a beaucoup d’avenir si le deep learning non supervisé y perce. Et ce, même sur des marchés juridiques en régression comme le marché français. Imaginons par exemple que les algorithmes de deep learning arrivent à détecter des similitudes ("patterns") indépendantes de la langue et entre les documents juridiques allemands (un marché en meilleure santé) et français : les recherches entreprises sur le droit allemand — un marché bien plus rentable que le droit français — seraient alors transposables et réutilisables en droit français.

On remarque que les éditeurs juridiques français traditionnels (groupe ELS avec Francis Lefebvre, Dalloz et Editions Législatives, Lexbase, LexisNexis SA, Wolters Kluwer France, Lextenso) ne proposent pas de produit incorporant du machine learning. Pour certains, je dirais : pas encore, mais je serais surpris que cela tarde [58] D’autant que ce sont les éditeurs qui possèdent le commentaire de la jurisprudence (dit aussi doctrine). Or en droit français, la donnée qui relie entre elles et permet de comprendre les décisions de justice, c’est la doctrine. Alors qu’en pays de "common law", le "case law" (jurisprudence) contient ses propres liens et son propre commentaire. En effet, le principe du "stare decisis" impose au juge anglo-saxon de citer les précédents pertinents et les juges des cours donnent leur "opinion" — autrement dit, ils commentent leur propre décision, chose impensable en France [59].

Pourquoi une montée des "IA" en droit ?

Une des raisons de la probable montée de ces systèmes : les économies réalisées. C’est, avec la rapidité, LE motif mis en avant par le managing partner d’une "small law firm" spécialisée en droit américain des faillites, le domaine de ROSS.

A noter, hors cabinets d’avocats, que la Justice a justement un problème budgétaire criant, reconnu par Jean-Jacques Urvoas, le ministre de la Justice lui-même ... [60] Une tribune iconoclaste aux Echos, rédigée par des non juristes (évidemment ...), propose d’ailleurs de confier la justice française à l’intelligence artificielle [61]. Et confirmation le 5 avril : la proposition n° 48 du rapport de la mission d’information sénatoriale sur le redressement de la justice présidée par Philippe Bas (voir pp. 20, 21 et 36 du dossier de presse) consiste à « mettre les outils de la "justice prédictive" au service du bon fonctionnement de la justice et de la qualité des décisions de justice et prévenir leurs dérives possibles » [62].

Impact prévisible des "IA" sur les jeunes collaborateurs, stagiaires, paralegal et documentalistes juridiques ?

Ces outils auront aussi un impact sur la recherche — et donc la veille — documentaire juridique : les tâches répétitives et "découpables" en petits morceaux seront robotisées, les autres ne le seront pas. Par exemple, ROSS réalise la recherche booléenne et la première analyse des résultats. Selon les termes d’Andrew Arruda [63] (traduction par nos soins) :

« La technologie AI de ROSS remplace le besoin d’utiliser les opérateurs et mots-clés de la recherche booléenneed par du langage ordinaire. Si un juriste d’affaires a besoin de connaître la différence entre les deux concepts juridiques "loss" et "recoupment", tout ce dont le juriste a besoin est de demander à ROSS : "Quelle est la différence entre "loss" et "recoupment" ?
Le résultat fourni par le système va au-delà de la simple identification des arrêts pertinents. Au lieu de cela, il attire l’attention du juriste sur les passages clés dans l’affaire qui devrait répondre idéalement à la question posée.
Quand vous posez une question à ROSS sur l’état du droit, vous la posez comme vous le feriez avec un collègue humain. ROSS découpe la phrase pour déterminer le sens de la question, puis conduit la recherche. »

Autrement dit, ROSS reste un moteur de recherche (nettement) amélioré. Ce n’est pas une véritable IA. Il ne menace guère que la fonction recherche — et encore : lisez ce qui suit.

Autrement dit encore, si on se projette dans environ huits ans [64], plus le travail du documentaliste juridique français procédera, comme le dit Jean Gasnault (La Loi des Ours), « d’heuristiques pointues pratiquant pour partie un mode intuitif (opérer par rapprochements semi conscients) », et j’ajouterais : plus il aura une conscience d’artisan et d’expert de haut vol (notamment dans la maîtrise des sources méconnues ou mal indexées [65]), moins au final il aura de chances d’être automatisé.

Mais aussi : plus il travaillera *avec* l’IA. Le documentaliste, le veilleur, le paralegal, le stagiaire juriste, le collaborateur, l’éditeur vérifieront, compléteront et amélioreront le travail de l’IA [66]. Quelques exemples donnés par J. Gasnault : « La préparation [des] données est essentielle pour un bon fonctionnement des algorithmes les traitant. Les documentalistes ont une carte à jouer dans cette évolution, en raison de leur compétence spécifique d’enrichissement des données. Cela donne un axe bien identifiable de progression de leurs connaissances : métadonnées, FRBR, normes ELI-ECLI, etc. »

Il y a bien d’autres chose qu’un documentaliste juridique apporte *en plus* d’un robot. Sur ce sujet, voir notre billet Documentaliste : un nouveau métier, de nouveaux noms. Pour ne pas rallonger le présent billet, je me contenterai de (re)citer une bibliothécaire documentaliste juridique américaine [67] :

« L’IA est itérative et continuera à s’améliorer, mais elle ne sait pas grand chose du facteur qu’est le contexte de la question posée ni comment le gérer. Pour que l’IA soit utile dans des recherches complexes (et non juste des recherches sur références bibliographiques) dans la plupart des structures juridiques, j’estime qu’elle aura besoin d’apports significatifs en savoir interne. Il est déjà difficile de faire correctement (voire de faire tout court) du KM. Comment alors allons nous documenter le savoir historique de la structure de manière à ce qu’un robot puisse correctement l’interpréter et l’appliquer ? Ce qui est saisi ne constitue pas réellement la totalité de la requête que l’on entre dans une machine : il y a bien plus de choses à préciser pour que la machine puisse fournir une réponse. »

La journaliste britannique Joanna Goodman, dans son ouvrage précité Robots in Law : How Artificial Intelligence is Transforming Legal Services écrit que l’IA pour les juristes n’est pas une option. Selon elle, les juristes qui accepteront la réalité de l’IA et l’incorporeront dans leur pratique professionnelle sont ceux qui réussiront le mieux dans les années à venir, car l’IA modifie le partage de la valeur entre les acteurs de la "chaîne" juridique. Lire à ce propos le compte-rendu du livre par Robert Ambrogi [68].

Une autre façon, française cette fois et plus diplomate, de formuler cela : en partenariat avec Predictice, le bâtonnier de l’Ordre des avocats au barreau de Lille a dû convaincre ses collègues [69] :

« Il faut tuer tout de suite le fantasme, ça ne remplacera pas les avocats dont les analyses ne peuvent être automatisées »

Selon lui, il s’agit plutôt d’un outil stratégique :

« Le défenseur peut, entre autres, voir quelle juridiction sera la plus encline à rendre une décision favorable à son client. »

Pour les postes de paralegal orienté recherches et veille (par exemple, les spécialistes de la recherche, de la veille et de l’enregistrement des brevets) et pour les jeunes collaborateurs (qui font aux Etats-Unis énormément de recherches, ce qui correspond en France aux stagiaires, mais en font aussi beaucoup en France durant leur première année), une étude d’Altman Weill datant de 2015 est pessimiste [70]. La brève précitée de la Lettre de l’Expansion est encore plus explicite : « Watson [...] est réputé pour son rôle dans la destruction d’emplois ». Pour les autres paralegals, le risque à court terme, surtout en France, est faible mais à long terme, leurs tâches découpables seront probablement automatisées.

Plus généralement, de nombreux entrepreneurs millionnaires comme Bill Gates ou Elon Musk (voitures électriques Tesla) et des scientifiques comme l’astrophysicien Stephen Hawking ou le docteur Laurent Alexandre (fondateur de Doctissimo) estiment que l’IA va créer du chômage et que les conséquences sociales de cette nouvelle révolution sont encore largement sous-estimées. Elon Musk estimait par exemple le 15 février 2017 que les conducteurs professionnels (soit 15% de la population active mondiale) pourraient se retrouver sans emploi dans les 20 prochaines années, et qu’il y aura de moins en moins de métiers qu’un robot ne pourra pas faire [71]. Le cabinet américain Forrester anticipe, pour le marché de l’emploi des Etats-Unis, une disparition nette de 7% des jobs d’ici 2025 imputable à l’automatisation [72]. Et on ne parle même pas ici de l’ubérisation [73].

Les spécialistes de l’intelligence artificielle, eux, vont même plus loin : un sondage auprès de 352 chercheurs en IA également auteurs d’articles [74] a donné le résultat suivant : selon eux, il y a une chance sur deux que l’IA sera plus ou moins meilleure que les humains à à peu près tout dans 45 ans.

Mais le magazine Business Insider, en rendant compte [75] de ce pre-print appelle à la prudence. Il commence par rappeller que de nombreuses prédictions d’experts dans le passé se sont avérées fausses. Surtout, Business Insider explique que : « Quarante ans est un chiffre important lorsque les humains font des prédictions parce que c’est la durée de la vie active de la plupart des gens. Donc, si un changement est censé se réaliser après, cela signifie qu’il se produira au-delà de la durée de vie active de tous ceux qui travaillent aujourd’hui. En d’autres termes, il ne peut se produire avec une technologie dont les experts d’aujourd’hui ont une expérience pratique. Cela suggère qu’il s’agit d’un chiffre à traiter avec prudence ».

Surtout, comme l’explique Olivier Ezratty, les livres et articles sur l’impact de l’IA sur l’emploi font l’impasse sur plusieurs points clés [76] :

  • « au démarrage des précédentes révolutions industrielles, les métiers disparus comme les nouveaux métiers ont rarement été bien anticipés »
  • un phénomène induit par le numérique et qui n’a rien à voir avec l’intelligence artificielle : « le transfert du travail non pas seulement vers les machines mais aussi vers les clients » (exemples des formulaires et modèles de contrats en ligne que nous remplissons nous-mêmes et des guichets automatiques bancaires)
  • ils se focalisent sur la situation aux Etats-Unis, ignorant la plupart du temps totalement le reste du monde
  • ils ont « bien du mal à faire le tri dans les évolutions de l’emploi entre ce qui provient de l’automatisation, de la globalisation et de la concurrence asiatique dans l’industrie manufacturière et même indienne, dans les emplois concernant les services informatiques. L’emploi a surtout migré géographiquement. Les emplois perdus dans l’industrie aux USA et en Europe se sont retrouvés en Asie » [et en Europe de l’Est].

Autre publication relativisant les choses : selon un rapport du 10 janvier 2017 du Conseil d’orientation pour l’emploi (COE) [77], moins de 10% des emplois sont "très exposés" aux mutations technologiques et présentent donc le risque d’être supprimés, mais près de la moitié devront évoluer [78]. Les emplois juridiques évoqués supra ne sont pas dans la liste des 10% du COE. Et Anne-France de Saint-Laurent Kogan, spécialiste des transformations du travail liées au numérique, tempère elle aussi les choses [79].

Menée par les professeurs américains Dana Remus (Faculté de droit de Université de Caroline du Nord) et Frank Levy (économiste, Massachusetts Institute of Technology, le fameux MIT), une étude publiée en novembre 2016 suggère que l’IA a « un effet modéré » sur des métiers tels que la recherche documentaire juridique et la rédaction de contrats [80]. L’étude indique que les tâches précitées représentent environ 40% de la facturation globale des avocats.

Cela dit, selon cette étude — un gros article scientifique de 77 pages publié sur le Legal SSRN —, l’impact estimé de l’IA sur des domaines tels que le "fact-checking" (vérification des faits, typique du droit anglo-saxon), le conseil aux clients, la gestion électronique de documents (GED), la rédaction de conclusions et les audiences — le tout représentant près de 55% des heures facturées — est « faible ».

Mais l’intelligence artificielle a un rôle plus important à jouer dans d’autres domaines. Selon l’étude, l’impact estimé de l’IA sur l’examen de documents ("document review", là aussi une procédure inconnue en droit français) — qui consiste essentiellement à passer en revue de grandes masses de documents pour y chercher les détails pertinents dans le cadre d’un contentieux — est « fort ». Heureusement pour les avocats anglo-saxons, l’étude ajoute que cela représente seulement 4% des heures facturées [81].

Le professeur Joël Monéger, spécialiste des baux, dans une tribune à la revue Loyers et Copropriété [82], formule ainsi les possibilités et les limites de la justice prédictive à la française :

« Prévoir le droit positif tient [...] de la gageure. [...] Certes, la prédictibilité de la solution paraît possible lorsque la plus haute juridiction a tranché le point de droit avec fermeté et de manière répétée. De même, semble-t-il, lorsqu’elle donne des signes annonciateurs d’un revirement possible de la jurisprudence. Mais, au-delà, la jurisprudence, même émanant de nos plus hautes juridictions, est bien souvent délicate à prévoir, notamment face à des textes récents, mal rédigés, ou à des textes en décalage grave avec les réalités sociales ou économiques. Cela tient à l’art de la rédaction des arrêts qui suppose un lecteur formé au décryptage de formules insuffisamment enseignées. De plus, la Cour de cassation ne peut pratiquer l’ultra petita et ne répond qu’aux moyens du pourvoi. »

Pour l’illustrer, il donne l’exemple de deux jurisprudences récentes de la Cour de cassation.

IA en droit et science-fiction ou les risques de la justice prédictive

Et si on en arrivait là où Google semble être arrivé du fait de l’intégration de machine learning dans ses algorithmes (ses ingénieurs ne savent plus totalement en détail comment leur moteur fonctionne : en tout cas, c’est ce que dit un scientifique chez un rival, Qwant [83]) ? Car c’est un fait : l’IA à base de ML est impénétrable [84]. En arriverait-on à ce que ROSS n’est pas — en tout cas pas encore —, c’est-à-dire une véritable intelligence artificielle ?

Les risques :

  • on ne saurait ni qui exactement nous juge ni pourquoi on nous condamne
  • et "power to the machine". On ferait plus confiance à l’algorithme qu’à l’humain, dans une époque méfiante vis-à-vis de la Justice. La situation et ce risque sont assez bien décrits dans une brève intervention sur France Inter.

La science-fiction a déjà envisagé ces risques (nous ne parlerons pas ici des lois de la robotique d’Asimov, non pertinentes ici et de toute façon déjà dépassées [85].) :

  • le tome 3 de la bande dessinée SOS Bonheur, un classique du genre publié en 1989 [86] parle de justice automatisée : chaque avocat soumet ses conclusions dans une machine et la machine rend son verdict, le juge n’est là que pour contrôler le bon fonctionnement de cette dernière. Ainsi la justice est aveugle et équitable puisqu’elle est censée rendre le même verdict pour tous ceux qui sont dans la même situation sur tout le territoire. Jusqu’au jour où la machine condamne un homme qui a commis un délit mineur à la peine de mort alors que cette dernière a été abolie il y a déjà de nombreuses années. Peut-on désobéir à la machine au risque de remettre en cause tous les autres jugements déjà rendus ?
  • nous avons (presque) tous vu le film Minority report de Steven Spielberg avec Tom Cruise (d’après la nouvelle éponyme de Philip K. Dick). Même si ce sont des êtres humains spéciaux (des"precogs") qui y tiennent le rôle des logiciels et des données et statistiques, le sens en est clair :
    • les programmes sont écrits par des êtres humains, dans l’intérêt de certains
    • et comme tels seront toujours biaisés. Particulièrement si l’information qui y est entrée est biaisée. Le machine learning a tendance à reprendre et aggraver les biais humains parce que c’est une technologie ultra dépendante des données qu’on lui fournit. Illustrations récentes aux USA avec les programmes prédictifs de la police [87]. Antoine Garapon évoque lui aussi ce risque. Pour une vue plus large et un point sur les principaux programmes en cours.
JPEG - 29.6 ko
L’ouvrage Minority report de Philip K. Dick avec pour couverture l’affiche du film

Si le machine learning finit, ce qui est probable selon nous (cf supra), par être utilisé par le juge, il est à espérer que les conclusions d’Antoine Garapon et Marc Clément (dans les articles de revues juridiques cités au début de ce billet) s’imposeront :

Eviter le risque de « l’effet "moutonnier" de la justice prédictive qui pousse au conformisme et réclame plus aux juges qui estiment qu’ils doivent aller à contre-courant, c’est-à-dire faire leur métier tout simplement ! »

« Il sera donc capital que les modes de raisonnement inscrits dans les algorithmes soient parfaitement explicites et maîtrisés par le juge. Il conviendra, de plus, que des méthodes alternatives soient proposées et que l’on ne se retrouve pas en situation de monopole avec une seule technologie utilisable. »

Concernant la justice prédictive, Rubin Sfadj, dans son entretien avec la revue Expertises, souligne que lorsque les outils de justice prédictive seront utilisés par la puissance publique, cet usage devrait reposer sur trois grands principes éthiques — qui, à bien les lire, ne sont pas si exigeants que ça :

  • le principe de responsabilité conduisant à désigner pour chaque algorithme utilisé une personne référente, à l’instar du directeur de publication en droit de la presse
  • le principe de clarté, c’est-à-dire la mention explicite dans une décision de justice élaborée avec l’aide d’un algorithme de ce procédé et la motivation sur laquelle repose le recours à ce type d’outil
  • le principe de précision permettant de corriger une source d’erreur à tout stade du traitement algorithmique.

Quant aux juges, leur réplique à la justice prédictive est déjà prête : "Convainquez-nous avec des arguments juridiques, peu nous chaut vos statistiques". Le Conseil d’Etat, par la voix de Christian Vigouroux, lors du colloque sur l’open data de la jurisprudence organisé en octobre par la Cour de cassation, a déjà prévenu que la juridiction administrative suprême ferait en sorte que le juge administratif ne puisse pas se voir opposer sa propre jurisprudence [88]. Côté justice judiciaire, selon Xavier Ronsin, premier président de la cour d’appel de Rennes [89] :

« L’hypothèse selon laquelle des plaideurs assistés d’avocats, renonceraient à aller jusqu’au bout d’un contentieux judiciaire classique, parce qu’ils auraient lu les résultats d’un logiciel dit de "prédictibilité de la justice" et qu’ils décideraient alors de transiger, est contestée par beaucoup et mérite à tout le moins d’être vérifiée. Lorsque l’on constate la difficulté de faire aboutir les "modes alternatifs de règlement des litiges (MARD)", il y a de quoi être sceptique, mais pourquoi ne pas l’espérer ?
Au-delà d’un refus de principe sur la possibilité d’enfermer la future décision d’un juge dans le raisonnement d’un algorithme basé sur des "précédents jurisprudentiels", je pense malgré tout que les magistrats doivent se préparer à comprendre ce processus, et à recevoir des dossiers d’avocats comportant des analyses savantes ainsi que des contenus statistiques de milliers de décisions au soutien d’une thèse et de prétentions de leurs clients. De tels dossiers n’empêcheront de toute façon pas la liberté du juge de faire du "sur-mesure" pour chaque dossier, mais ils pourront peut-être éclairer son raisonnement. »

Du côté des avocats, Pascal Eydoux, président du Conseil national des barreaux (CNB) estime qu’ « il n’est pas question que la profession d’avocats envisage de s’opposer à cette évolution car elle est inéluctable et attendue ». Sanjay Navy, avocat à Lille où il a testé Predictice, pense que « ça peut permettre de dire à l’adversaire : "regardez les condamnations en moyenne, négociez sinon vous risquez d’être condamné à tant, ce n’est pas moi qui le prétends, mais la jurisprudence !" ».

Cependant, les avocats craignent aussi une certaine déshumanisation ou une justice au rabais, voire un possible risque de "fainéantisation". Comme le formule Me Navy lui-même : « On vient me voir avec un problème, je tape sur le logiciel, j’ai 90% de chances de le perdre, donc je ne prends pas le dossier alors qu’en s’y penchant bien, je pourrais soulever un point particulier et gagner. » [90]

Certains vont plus loin, en proposant voire exigeant que le code des applications sur lesquelles se fonde une décision de justice soit disponible en open source. Pour reprendre les mots de Michael Benesty : « la confiance que l’on placerait dans des outils de justice prédictive implique, au cours du processus, que le calculs et les caractéristiques du modèle de prédiction soient visibles et compréhensibles par le juriste, avocat ou magistrat, qui les emploie. Cela se traduit par une obligation de transparence sur les algorithmes, que garantit la libération en open source de la solution autant que par une vigilance et une expertise juridique sur les données mobilisées. » [91] Le code de Supra Legem, l’application de M. Benesty, est déjà en open source [92].

Un article de la série Futurography sur Slate.com, propose une troisième voie entre secret et open source. Un amendement à loi fédérale américaine FOIA (Freedom Of Information Act [93]) donnerait le droit au public de soumettre des jeux de données tests à l’administration. Celle-ci devrait les passer à travers ses programmes et publier les résultats. Experts et journalistes pourraeint alors calculer le taux d’erreur de ces algorithmes [94].

Selon un article d’Internet Actu [95], l’évolution des technologies d’IA pourrait permettre de sortir de l’opacité du fonctionnement de deep learning pour les humains. Algorithmes génétiques et IA symbolique, par exemple, peuvent être compris et débuggués. Il serait aussi possible de demander au programme d’expliquer ce qu’il fait.

En France, notre droit permet en tout cas de demander communication du code source des logiciels créés et utilisés par l’Administration, au titre de la communication des documents administratifs. La Commission d’accès au documents administratifs (CADA) [96] puis le tribunal administratif (TA) de Paris [97] l’ont confirmé à propos du logiciel simulant le calcul de l’impôt sur les revenus des personnes physiques. La DGFiP s’est résolu à s’y conformer l’an dernier, juste avant que le TA ne rende sa décision. La CADA a enfoncé le clou en 2016 en autorisant la communication à une association de lycéens du code source du logiciel Admission post bac (APB) [98]. Le Ministère de l’Education nationale s’y est conformé partiellement [99].

Ne pas oublier non plus que l’article 11 du règlement (européen) général de protection des données (GDPR), applicable en 2018, interdisent toute décision automatisée qui affecterait significativement un citoyen européen — toutefois cela a de fortes chances de rester un principe sans application concrète — et que les articles 12 et 14 créent, pour les autres décisions, un "droit à explication" [100]. Une décision de justice prédictive, par exemple [101].

Enfin, du côté des structures privées (les cabinets d’avocats les premiers), les meilleures n’auront-elles pas intérêt à maintenir une expertise en recherche et veille afin de contrôler la pertinence des réponses (car un mémo fourni par ROSS serait bel et bien au minimum une amorce de réponse) ? Attention aux biais dans les contenus et les statistiques ... Pour le dire en anglais : « Content experts and data scientists needed ! »

ROSS, Predictice, Case Law Analytics, des inconnus

Mais pour éviter de trop conjecturer et en apprendre plus, il serait bien de pouvoir tester ces IA. Et de lire autre chose que des communiqués à peine dissimulés.

En effet, il n’existe aucune démo gratuite en accès libre de ROSS ni de Predictice, le site web du produit ROSS est d’un vide intersidéral (le compte Twitter est beaucoup plus riche !) et les cabinets d’avocats utilisateurs ne lâchent aucun exemple d’utilisation ni de recherche ni aucun autre détail.

C’est là que la libre disponibilité de l’interface et du code source de Supra Legem remplit son office : permettre de tester un outil de "justice prédictive".

Emmanuel Barthe
bibliothécaire documentaliste et veilleur juridique, spécialiste des moteurs de recherche pour le droit et des données juridiques publiques
licence en droit, Faculté de droit de Sceaux


Une "webliographie" sélective et rapide sur ROSS :

Notes de bas de page

[1Legalstart est une startup spécialisée dans les documents juridiques de base pour TPE, comme les statuts, par le biais de formulaires interactifs.

[2Voir la vidéo des interventions des Susskind à Chatham House en mars 2017 (1h04). Une précision personnelle : depuis que je lis les ouvrages de Richard Susskind ou des extraits de ceux-ci, je constate que les choses n’avancent pas exactement comme il tente de le prédire, pas toujours pour les raisons qu’il avance (R. Susskind n’avait pas prévu que ce serait le machine learning qui ferait sauter les limites de l’IA) et surtout pas à la vitesse prévue ... Et je ne suis pas le seul : voir Lawyers and AI : Saying Susskind is Wrong, par Casey Flaherty, 3 Geeks and a Law Blog, 16 mars 2016.

[4Journaliste freelance, elle couvre les les nouvelles technologies, l’économie et les médias et tient une chronique sur l’informatique juridique dans The Law Society Gazette, une des plus importantes revues anglaises dédiées aux professionnels du droit.

[5Sommaire(PDF) de l’ouvrage.

[6JCP G n° 1-2 du 9 janvier 2017 p. 47-52.

[7Les juges doivent-ils craindre l’arrivée de l’intelligence artificielle ?, Recueil Dalloz, n° 2, 12 janvier 2017 p. 104.

[8Un exemple de ces phrases chocs et excessives : « La plupart des acteurs vont s’équiper s’ils veulent survivre » (Bruno Deffains, professeur de sciences économiques).

[9Expertises des systèmes d’information, n° 420, janvier 2017.

[11Technology, jobs, and the future of work, McKinsey, briefing note prepared for the December 2016 Fortune Global Forum in Vatican City (PDF).

[12La « legaltech » bouleverse le marché traditionnel du droit, par Blandine Jugé, Lex Web Legal Expert 7 avril 2016.

[13Comme la génération automatisée de documents, qui s’appuie sur l’ancienne technique des formulaires.

[14Voir l’article Intelligence artificielle de Wikipedia.fr.

[15Discussing the limits of artificial intelligence, interview de Gary Marcus par Alice Lloyd George, Tech Crunch, 1er avril 2017.

[16Je m’excuse d’avance auprès des informaticiens, développeurs et spécialistes pour les simplifications que ce classement implique.

[17Lire Place et rôle de l’IRETIJ dans la communauté scientifique nationale et internationale par Pierre Catala, revue "Informatica e diritto" (Informatique et droit), fascicule n° 2, 1984. L’article a été écrit par M. Catala à son départ de la direction de l’IRETIJ. L’IRETIJ a depuis disparu. Il est symptomatique que l’auteur se plaignait que les effectifs de ce laboratoire de recherche contenaient trop de juristes et pas assez d’informaticiens. Ce sont en effet surtout les informaticiens et mathématiciens qui sont responsables des derniers progrès de l’informatique juridique, bien peu les juristes.

[18L’émergence de systèmes experts juridiques par Martine Quenillet, in Dialogo sobre la informatica juridica, Presses de l’université autonome de Mexico (Mexique), 1989, p. 379-394. Lire aussi L’utilisation d’un "système expert" en droit comparé par Xavier Linant de Bellefonds, Revue internationale de droit comparé vol. 46 n° 2, avril-juin 1994, p. 703-718.

[20Case Law Analytics évalue l’aléa judiciaire, par Arnaud Dumourier, Le Monde du Droit 6 septembre 2016.

[22En tout cas en algorithme linéaire.

[23Qui utilisent des algorithmes non linéaires.

[24Plus de détails sur ces sujets dans notre billet Supra Legem, un exemple de machine learning appliqué au droit.

[26Une des méthodes d’analyse syntaxique utilisées est la grammaire de dépendance, qui fonctionne même sur des langues ou l’ordre des mots est libre et non contraint et permet, sans être de la sémantique, de détecter même les relations sémantiques (relations de sens) entre les mots. Un des programmes d’analyse syntaxique ("parsers") les plus puissants et récent est SyntaxNet écrit là encore par une équipe de Google et mis en open source.

[27Avec Word2vec, un mot se définit par son contexte de mots et cette définition est un vecteur. Ce vecteur est exprimé sous forme de chiffre car le machine learning à la base, ce sont des statistiques et les statistiques à la base, ce sont des mathématiques : d’où l’expression du contexte sous forme de vecteur. Lorsque deux vecteurs sont très proches ou identiques, cela signifie donc que les termes auxquels ils font référence, dans le contexte dans lequel ils sont, sont de sens similaire. Dit autrement, Word2vec peut deviner/prédire avec un très, très faible taux d’erreur un mot à partir de son contexte et vice-versa. Pour vous en convaincre, comparez les résultats de deux recherches identiques sur Supra Legem — qui utilise un dérivé de Word2Vec — et sur la base de jurisprudence administrative de Legifrance. Avant Word2vec, l’algorithme dominant était Latent Semantic Analysis (LSA) : voir pp 8-11 de l’étude des professeurs américains Remus et Levy (analysée plus loin dans le texte de ce billet) pour une très instructive explication de son fonctionnement, similaire à celle de Word2vec. Une explication du fonctionnement des logiciels de NLP en ML nettement plus mathématique — mais qui reste pédagogique — est disponible sur ce billet : Representing Words, par Vered Shwart, une étudiante et chercheuse en mathématiques et machine learning, sur son blog Probably Approximately a Scientific Blog : Human-interpretable computer science and other ramblings, 3 janvier 2016.

[28Rapport Anticiper les impacts économiques et sociaux de l’intelligence artificielle, par Lionel Janin et Rand Hindi, France Stratégie, 21 mars 2017 (PDF, 48 pages).

[30Salazar Jackson Enters World of AI With ROSS Intelligence par Gina Passarella, Daily Business Review 4 novembre 2016. Extraits : « " Je suis un avocat spécialisé en faillite avec 20 ans d’expérience et si j’y passe le temps nécessaire et fais ma propre recherche, les réponses de ROSS seraient grosso modo les mêmes que celles que je pourrais faire ", dit Salazar. C’est un sacré compliment pour le logiciel en termes de crédibilité. Mais, sur un plan économique, est-il rationnel d’utiliser ROSS ? Sur ce point, Salazar est également convaincu. » (traduction par nos soins)

[31ROSS Artificial Intelligence Outperforms Westlaw and LexisNexis, Study Finds par Robert Ambrogi, Law sites (blog de R. Ambrogi) 17 janvier 2017. Robert Ambrogi est des consultants américains les plus respectés en "legal IT"

[32A.I. Is Doing Legal Work. But It Won’t Replace Lawyers, Yet par Steve Lohr, New York Times 19 mars 2017.

[33Selon Andrew Arruda, dirigeant et co-fondateur de ROSS Intelligence : « Le système, aussi, demande aux juristes de noter positif ou négatif les résultats de la recherche, de manière à ce que ROSS puisse apprendre à mieux répondre aux questions à l’avenir. Une fois que le système comprend ce que vous demandez, il commence à apprendre à devenir meilleur. ROSS est dynamique et non statique. » (traduction par nos soins)

[34Machine Learning : Supervision Optional par Ernest Tavares III, Medium.com 29 octobre 2016.

[35L’avénement des robots avocats, Les Affiches parisiennes, 14 mars 2017.

[36IBM déploie Watson dans la régulation financière,
L’Agefi quotidien, 14 juin 2017(accès réservé).

[37Japanese company replaces office workers with artificial intelligence, par Justin McCurry, Guardian.com 5 janvier 2017.

[40Par Morgane Tual, Le Monde.fr 13 mars 2017.

[42Orange : comment le groupe envisage son nouveau management, Lettre de l’Expansion du 16 janvier 2017.

[44Les avancées de l’intelligence artificielle, Episode 3 : IBM Watson et le marketing de l’intelligence artificielle, par Olivier Ezratty sur son blog Opinions libres, 17 mai 2016. O. Ezratty est consultant pour les startups et l’industrie informatique, après avoir travaillé 15 ans dans le marketing pour Microsoft. Extraits de son billet, le meilleur document sur Watson que j’ai pu trouver : « Reste à savoir comment se positionne IBM par rapport à l’éventail de solutions du marché. L’impression est donnée d’un spectre fonctionnel assez limité et focalisé sur la création d’agents conversationnels. » « Créer une application Watson revient donc à créer du code, du contenu et à réaliser un travail d’intégration pour créer un agent conversationnel intelligent. Dans des approches verticales, il faut définir des scénarios de dialogues assez précis et avoir sous la main beaucoup de données exploitables, aussi bien structurées que non structurées. »

[45Cette dépendance à la "data" se vérifie même dans le processus d’apprentissage : ainsi, selon Michael Benesty, il faut d’abord alimenter Word2vec avec des corpus de textes généralistes et thématiquement très éloignés du domaine dans lequel on veut spécialiser, puis se rapprocher progressivement de ce domaine. Ici, en droit, cela veut dire commencer par exemple par la base Gutenberg pour finir par Legifrance ou Jurispedia.

[46Voir l’interview de Me Sfadj dans Expertises.

[47Pas en accès libre, mais en revanche, d’importants fonds (sélectifs) de jurisprudence de première instance sont disponibles sur les plateformes payantes des éditeurs, surtout celles de Lexbase et LexisNexis.

[48Jugements des juges de proximité (JP), tribunaux d’instance (TI), tribunaux de grande instance (TGI), tribunaux de commerce (Tcom), conseils de prud’hommes (CPH), tribunaux paritaires des baux ruraux, tribunaux des affaires de sécurité sociale (TASS) etc.

[49La loi du 7 octobre 2016 pour une République numérique parle d’open data des décisions du fond (articles 20 et 21) mais reste à obtenir les moyens techniques (XMLisation de tous les documents avec DTD ou schéma XML, rénovation massive du parc informatique et augmentation très importante du débit des connexions intranet et internet), humains (les greffiers, en sous-effectifs et débordés) et financiers. Ajoutez que l’ensemble des décisions de justice judiciaire françaises représente actuellement environ 3,8 million de documents par an, que l’anonymisation, justement en l’absence de schéma ou DTD XML, est extrêmement difficile et reste peu efficace même en machine learning, et qu’en première instance, il reste un stock purement papier. Ronan Guerlot, adjoint au directeur du Service de documentation, des études et du rapport (SDER) de la Cour de cassation, cité par Libération, estime qu’il faudra patienter quatre à cinq ans une fois que le décret d’application de la loi sera entré en vigueur pour permettre d’informatiser toutes les décisions de justice. « Le plus difficile sera de faire remonter les décisions de première instance du TGI. Nous disposons souvent de minutes [original d’un acte de justice, ndlr] papier, il faudra donc créer des outils informatiques », explique-t-il. En revanche, pour la justice administrative, c’est déjà prêt : les décisions des cours administratives d’appel sont déjà sur Legifrance et celles des tribunaux administratifs sont déjà en base de données — non disponible au public. Pour plus de détails, lire notre billet L’open data des décisions des cours d’appel et tribunaux n’est pas pour demain.

[50En effet, seuls les éditeurs juridiques ont l’ensemble des données nécessaires, particulièrement les commentaires (la doctrine, qui non contente de livrer les clés indispensables pour comprendre le droit brut, augmente très nettement la pertinence des recherches). C’est le sens de la tribune de Fabien Girard de Barros, directeur de la publication de l’éditeur Lexbase, intitulée La legaltech est morte ... Vive l’édition juridique ! (22 décembre 2016). Ce n’est pas un hasard si Predictice a, comme expliqué supra, un partenariat pour les données avec le groupe Editions Lefebvre Sarrut. Le bénéfice devrait en être mutuel. Comme nous l’avons vu plus haut, l’accès à des données de haute qualité est aussi une des raisons (parmi d’autres évidemment ...), aux Etats-Unis, du choix de Ravel Law de se laisser racheter par LexisNexis.

[52Laboratoire Analyse et Traitement Informatique de la Langue Française, membre du CNRS.

[53Extrait de l’article de Libération : « En tapant des mots-clés plus prosaïques tels que "licenciement" et "ivresse", l’algorithme est capable d’estimer que dans 19 % des cas comprenant ces deux critères, un "licenciement sans cause réelle et sérieuse" a été prononcé. En la matière, un avocat a davantage de chances de succès à Rennes (où les statistiques sont de 35 %) qu’à Versailles (12 %), juridiction manifestement plus répressive avec l’alcool. »

[55Parmi les ancêtres de la jurimétrie, en France, il y avait le cédérom d’Alain Lemagny GPDoc (que j’évoque dans mon billet Indemnifying personal injury in France : tools for calculating damages), les travaux de Serge Bories à l’IRETIJ de Montpellier et auprès de LexisNexis et l’exceptionnel et prémonitoire article de Jean Goulet à la revue québécoise Les Cahiers de droit vol. 9, n° 1, 1967-1968, p. 9–36.

[576 façons d’utiliser les algorithmes prédictifs pour améliorer vos recherches de jurisprudence, par Michael Benesty, Blog de Supra Legem 6 mai 2016. Voir aussi sur ce blog le billet résultant de notre entretien avec M. Benesty : Supra Legem, un exemple de machine learning appliqué au droit.

[58Le groupe Editions Lefebvre Sarut (ELS) auquel appartient Dalloz travaille avec Predictice et Wolters Kluwer France (Lamy) va assurer la diffusion commerciale de Predictice. Et le groupe LexisNexis a racheté la startup américaine Lex Machina, dont le produit est spécialisé en droit américain de la propriété intellectuelle, en novembre 2015 et a intégré fin janvier 2017 les fonctions "analytics" (autrement dit de "justice prédictive") de celle-ci à sa principale plateforme américaine Lexis Advance. Par ailleurs, il y a l’annonce précitée de Lexis qu’il va donner accès à ses contenus et à son expertise, ainsi que celle de sa filiale LexMachina, à cinq start-ups américaines. Enfin, LexisNexis à racheté en juin 2017 la start-up Ravel Law, LA spécialiste américaine du ML en droit.

[59Si l’on excepte la récente montée des notes explicatives pour les arrêts I de la Cour de cassation et les communiqués du Conseil constitutionnel.

[61Confions la justice à l’intelligence artificielle  !, par Laurent Alexandre (chirurgien, co-fondateur de Doctissimo et chantre du transhumanisme en France) et Olivier Babeau, Les Echos.fr 21 septembre 2016.

[62Extraits du dossier de presse (PDF) pp. 18 et 20-21 : « En dépit d’une augmentation régulière et soutenue de ses moyens depuis 15 ans, le budget de la justice demeure insuffisant pour lui permettre d’accomplir ses missions et n’apparaît pas digne d’une grande démocratie. [...]
L’utilisation des technologies doit permettre de mieux prévenir le contentieux civil et la saisine des tribunaux, notamment par le développement du règlement alternatif des litiges en ligne et des outils de "justice prédictive", fondés sur l’exploitation de l’ouverture des données judiciaires par l’intelligence artificielle et la prévisibilité des décisions de justice.
Bien utilisés, les outils de "justice prédictive" permettraient de favoriser des accords entre les parties, au vu du résultat probable d’une action contentieuse, sans saisir le juge. L’intervention du ministère de la justice doit viser à assurer la complémentarité entre la justice traditionnelle et ces nouveaux outils technologiques appliqués à la justice.
Outre l’apport des outils de « justice prédictive » pour l’harmonisation des jurisprudences ou l’évaluation des magistrats, des outils technologiques d’aide à la décision et à la rédaction des jugements méritent aussi d’être développés au bénéfice du travail juridictionnel. Plus largement, la technologie doit aussi faciliter le travail des magistrats et des greffes. »

[64Sur le délai prévisible pour que les systèmes de machine learning efficaces en droit français apparaissent et ses raisons, voir supra dans le corps du texte.

[65D’autant plus que d’après les articles de presse américain, ROSS remplace des juristes stagiaires et de jeunes collaborateurs, pas des documentalistes juridiques expérimentés et dotés de meilleures méthodes de recherche.

[66Comme l’écrit Tyler Cowen, professeur d’économie à la George Mason University et blogueur connu sur Marginal revolution, dans son ouvrage Average is Over (Dutton, 2013, non traduit en français) : « les travailleurs se classeront de plus en plus en deux catégories. Les questions clés seront : Savez-vous bien travailler avec des machines intelligentes ou pas ? Vos compétences sont-elles un complément aux compétences de l’ordinateur, ou l’ordinateur fonctionne-t-il mieux sans vous ? Pire : est-ce que tu te bas contre l’ordinateur ? » (traduction par nos soins)

[67Commentaire de Kristin Hodgins, daté du 24 mai 2017 sous le billet I, Robot publié le 17 mai 2017 par Lyonette Louis-Jacques sur le blog collaboratif Slaw. La traduction est de nous.

[68This Week In Legal Tech : Book Review Of "Robots In Law", par Robert Amrogi, Above The Law 6 mars 2017.

[69Lille : Les avocats testent un logiciel de "justice prédictive", par Mikael Libert, 20minutes.fr 12 février 2017.

[71Et si l’intelligence artificielle rendait votre vie inutile ? par Pierre Alexandre Messner, consultant en marketing digital, Siècle Digital 27 février 2017.

[72Les robots détruiront plus d’emplois qu’ils n’en créeront, selon une étude par Gabriel Siméon, Liberation.fr 1er septembre 2015.

[73Même un magazine comme Capital publie des articles comme :

  • Jusqu’où l’uberisation de la société va-t-elle aller ? par François Miguet, avec Raphaël Goument, Capital.fr 8 octobre 2015
  • L’ubérisation, ce tsunami qui va déchirer notre économie, entretien avec Bruno Teboul, enseignant-chercheur à l’Université Paris-Dauphine, directeur de l’innovation, de la recherche et du développement du cabinet de conseil en nouvelles technologies Keyrus et auteur de « Ubérisation = économie déchirée ? », l’invasion des Airbnb, Uber... et autres trublions de la nouvelle économie numérique n’aboutira qu’à détruire plus de valeur qu’elle n’en créera. Il redoute l’avènement d’une société totalement précarisée.

[74When Will AI Exceed Human Performance ? Evidence from AI Experts, par Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang et Owain Evans (des chercheurs de Yale et Oxford), pre-print publié sur Arxiv.

[75Experts predict when AI will exceed human performance, Business Insister, 11 juin 2017.

[76Les avancées de l’intelligence artificielle, Episode 9 : la robotisation en marche des métiers, par Olivier Ezratty sur son blog Opinions libres, 12 mai 2016.

[77Automatisation, numérisation et emploi, tome 1, Conseil d’orientation pour l’emploi, 10 janvier 2017. Nous ne ferons pas référence au rapport de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) Pour une intelligence artificielle maîtrisée, utile et démystifiée du 15 mars 2017, car sa partie sur l’emploi traite essentiellement de l’impact de la robotisation et ne donne aucun chiffre sur les professions intellectuelles, a fortiori les juristes et documentalistes. Par ailleurs, ses conclusions font très "déjà vu", après les recommandations du Parlement européen (voir infra dans les notes).

[79Quel est l’impact des robots sur les destructions et créations d’emplois ? par Sophia Qadiri, L’Atelier BNP Paris 24 mars 2016.

[80Artificial intelligence unlikely to replace lawyers anytime soon, report suggests, par Thomas Connelly, LegalCheek 27 février 2017. Study finds AI and other technology less of a threat to lawyers’ jobs than believed, par By Dan Bindman, Legal Futures 24 février 2017. L’étude : Can Robots Be Lawyers ? Computers, Lawyers, and the Practice of Law, par Dana Remus et Frank Levy, PDF, 77 Pages, 27 novembre 2016.

[81Il faut dire que cette activité a déjà été massivement informatisée et externalisée ou délocalisée.

[82De la prédiction du droit, par Joël Monéger, professeur émérite à l’université Paris-Dauphine, Loyers et Copropriété n° 3, Mars 2017, repère 3.

[84L’intelligence artificielle va t-elle rester impénétrable ?, par Hubert Guillaud, Internet Actu 9 septembre 2016. D’après Is Artificial Intelligence Permanently Inscrutable ?, par Aaron M. Bornstein, Nautilus, 1er septembre 2016. Machine Learning Works Great—Mathematicians Just Don’t Know Why, par Ingrid Daubechies, professeur de mathématique, génie électrique et génie informatique à l’université Duke (Etats-Unis), Wired 12 décembre 2015. Publié initialement dans Quanta Magazine sous le titre Big Data’s Mathematical Mysteries, 3 décembre 2015.

[85Les lois de la robotique d’Isaac Asimov ne concernent que la sécurité physique des humains face aux robots. De plus, elles sont suffisamment dépassés pour que le Parlement européen vienne d’adopter (BBC News 12 janvier 2017) des recommandations destinées à la Commission européenne concernant des règles de droit civil sur la robotique (voir le communiqué de presse du PE 12 janvier 2017).

[86Cité par mon collègue Rémy Nerrière sur la liste Juriconnexion. Scénario de Jean Van Hamme, dessin de Griffo.

[87The minority report : Chicago’s new police computer predicts crimes, but is it racist ?, par Matt Stroud, The Verge, 19 février 2014. Predictive Policing Is Not Like ’Minority Report’ — It’s Worse, par Natasha Lennard, Vice News, 27 juin 2014. Peut-on vraiment prédire les crimes ?, par Paul Molga, Les Echos.fr, 29 mai 2017, et l’encadré "Estimer la récidive reste un défi pour l’IA".

[88« Nous réfléchissons à préserver la pleine autonomie de chaque juridiction alors même qu’elle s’opposera à elle-même et qu’on lui opposera des données sur sa propre activité.[...] Nous ne souhaitons pas répondre "présents" à l’appel récent "confions la justice à l’intelligence artificielle !" » Open data et juge administratif, intervention de Christian Vigouroux, président de section au Conseil d’Etat, au colloque La jurisprudence dans le mouvement de l’open data, Cour de cassation 14 octobre 2016. Actes parus au supplément au JCP G du 27 janvier 2017, points 14 à 16 pp. 30-31.

[89"Un logiciel ne remplacera jamais un juge", interview par Aurore Lanchart de Xavier Ronsin, 1er président de la CA Rennes, blog de Doctrine.fr, 29 mars 2017.

[91L’open data et l’open source, des soutiens nécessaires à une justice prédictive fiable ?, par Michael Benesty, Journal officiel Open Accessoires tout Law (JOAL) vol. 5 n° 1, 2017.

[92SupraLegem.fr open source la justice prédictive ! par Michael Benesty, Blog de Supra Legem 3 novembre 2016. Le code source de Supra Legem, dit OPJ (pour OpenPredictive Justice), est sur GitHub.

[93L’équivalent français est la loi dite "CADA" (Commission d’accès aux documents administratifs) du 17 juillet 1978, codifiée dans le livre III du Code des relations entre le public et l’administration (CRPA).

[94How to Hold Governments Accountable for the Algorithms They Use, par Nicholas Diakopoulos, Future Tense 11 février 2016. Future Tense est une rubrique de Slate.com résultant de la collaboration entre l’Université de l’Etat d’Arizona, le think tank New America et Slate.

[95Intelligence artificielle : comment sortir de l’opacité, par Rémi Susan, Internet Actu 18 octobre 2016.

[96Avis CADA n° 20144578 du 8 janvier 2015 Direction générale des finances publiques (DGFIP).

[97TA Paris 5e section 2e chambre, 10 mars 2016, n°1508951/5-2 Direction générale des finances publiques.

[98Avis CADA n° 20161989 du 23 juin 2016 Ministère de l’éducation nationale, de l’enseignement supérieur et de la recherche.

[100EU regulation on algorithmic decision-making and a "right to explanation", par Bryce Goodman, Seth Flaxman, arXiv:1606.08_13v1 [stat.ML] 31 août 2016.

Répondre à cet article

1 Message