Les robots avocats et juges de demain ?

L’intelligence artificielle en droit : les termes du débat

Justice prédictive, legal tech, ROSS, Minority report, machine learning, réseaux neuronaux, NLP, Big data etc.

Lundi 16 janvier 2017, par Emmanuel Barthe // Logiciels, Internet, moteurs de recherche

Un sujet très tendance

Les Echos (10 janvier 2017) viennent de publier un article au titre provocateur : Les robots seront-ils vraiment les avocats de demain ?.

En fait, ses auteurs, Pierre Aidan, cofondateur de Legalstart.fr [1] et Florence Gsell, professeur de droit à l’université de Lorraine, réagissent, dans le but de rassurer les professions judiciaires, à un autre article beaucoup plus provocateur sur le fond, celui publié en octobre 2016 à la Harvard Business Review, par le célèbre juriste et consultant britannnique Richard Susskind et son fils Daniel, économiste : Technology Will Replace Many Doctors, Lawyers, and Other Professionals (Les nouvelles technologies remplaceront beaucoup de médecins, juristes et autres professionnels libéraux). Cet autre article n’est en fait qu’un résumé du dernier ouvrage des Susskind publié en octobre 2015 : The Future of the Professions : How Technology Will Transform the Work of Human Experts (Le futur des professions libérales : comment les nouvelles technologies vont transformer le travail des experts humains) (Oxford University Press, OUP).

La Semaine juridique publie, elle, une étude d’Antoine Garapon, magistrat, secrétaire général de l’Institut des hautes études sur la Justice (IHEJ) et spécialiste reconnu des questions de justice, intitulée « Les enjeux de la justice prédictive » [2]. Et pour ne pas être en reste, le Recueil Dalloz s’empare aussi du sujet avec une tribune de Marc Clément, Premier conseiller à la cour administrative d’appel de Lyon [3].

La revue Expertises, enfin, publie une interview de Rubin Sfadj, avocat aux barreaux de Marseille et New York et grand blogueur et twitto devant l’Eternel. Interview portant sur l’IA juridique [4] et plus concrète et plus claire — plus tranchée, peut-on dire — que les deux articles précédents.

Depuis les premiers succès commerciaux de ROSS, l’application au droit des faillites américain du système de machine learning développé par IBM, Watson, l’intelligence artificielle (IA) en droit est devenue tendance [5]. On parle beaucoup aussi de justice prédictive.

De quoi parle t-on exactement ?

Mais de quoi parle t-on exactement ? Et quels sont les véritables risques pour les professionnels du droit et leurs "paralegals", documentalistes et veilleurs ?

Il y a d’abord trois technologies, qu’il faut distinguer, et derrière ces technologies il y a des applications et leurs développeurs, grosses sociétés de l’informatique et de l’Internet ou start-ups, l’ensemble de ces sociétés étant communément appelé les "legal tech" [6] :

On peut rapprocher ces articles d’une note de McKinsey qui vient de paraître sur le futur du travail [10].

ROSS : points forts et limites d’un moteur de recherche en langage naturel à base de machine learning avec supervision

C’est surtout le produit d’IBM qui fait parler de lui. Et même si, de fait, on peut parler d’une intense campagne de presse, je crois qu’on tient une confirmation du basculement du droit dans la véritable IA dans les articles sur l’implémentation de ROSS par le petit cabinet d’avocats américain Salazar Jackson : en effet, selon le principal associé de cette firme, ROSS fait aussi bien et plus vite les recherches qu’un jeune collaborateur et de plus il est capable de les résumer en un mémo [11].

Bien sûr, ROSS nécessite une interaction homme-machine. Il s’améliore en apprenant des retours des juristes sur ses recherches [12].

ROSS est pour l’instant spécialisé uniquement dans le droit américain de la faillite (US bankruptcy law). Mais la diversité des tâches et des domaines possibles est une caractéristique du machine learning le plus récent (depuis environ 2015).

Le dirigeant et co-fondateur de ROSS Intelligence, Andrew Arruda, expliquait justement en août 2016 :

« La version actuelle du système est utilisée pour aider les juristes spécialisés en procédures collectives travaillant dans des firmes américaines. Les futures versions du système couvriront d’autres domaines du droit et d’autres juridictions. »

Et Watson, l’application d’IBM dont dérive ROSS, sert à de multiples tâches. Comme répondre aux mails adressés par les clients d’une banque, travailler dans certains cafés Nestlé au Japon sous le nom de Pepper, tout en mettant ses formidables capacités intellectuelles au service de la lutte contre la criminalité en ligne [13].

Autre exemple : la Lettre de l’Expansion du 16 janvier signale que le réseau social interne développé par Orange, installé chez eux à l’automne 2015 [14] et également vendu par l’opérateur sous le nom de Business Together Sharespace [15] « s’appuie sur la technologie "machine learning" [...] et inclut des robots à même de suggérer à l’utilisateur des informations pertinentes ou des collègues susceptibles d’enrichir son activité ».

A priori (le manque d’information détaillées sur ROSS étant criant), les limites d’un système comme ROSS, sont :

  • comme pour les bases de données en ligne, son manque de confidentialité. Je sais que les éditeurs de services en ligne garantissent la "confidentialité" des données de leurs clients, mais de fait, si elles ne sont pas cryptées de bout en bout, elles ne sont pas réellement confidentielles. Il serait intéressant à cet égard de savoir si ROSS crypte les données de ses clients
  • sa dépendance à la "data"
  • le poids du passé (même s’il pourra certainement intégrer les projets de loi), car la donnée c’est du passé
  • sa dépendance aux personnes qui "l’entraînent" (machine learning supervisé)
  • son degré d’acceptation par la société. Si l’on s’en tient à l’histoire récente des innovations, les systèmes ML en droit finiront, selon toute probabilité, par être assez rapidement acceptés par les consommateurs de droit. Les professionnels du droit risquent, à long terme, de devoir suivre
  • à court et moyen terme, le délai d’implémentation en droit français. ROSS en son état actuel limité au droit américain des faillites, aurait été développé en trois ans à partir de Watson. Compte tenu des spécificités du droit français (pas de la common law ... mais pas un véritable problème [16]), de l’absence pour l’instant de disponibilité en accès libre [17] des décisions de justice judiciaire de première instance [18] avant des années malgré la loi Lemaire pour une République numérique [19] et de la nécessité d’un partenariat entre un éditeur juridique et un éditeur de système de machine learning [20], cela devrait prendre au minimum cinq ans et peut-être plus.

Pourquoi une montée des IA en droit

Une des raisons de la probable montée de ces systèmes : les économies réalisées. C’est, avec la rapidité, LE motif mis en avant par le managing partner d’une "small law firm" spécialisée en droit américain des faillites, le domaine de ROSS.

Or la Justice a justement un problème budgétaire criant, reconnu par Jean-Jacques Urvoas, le ministre de la Justice lui-même ... [21] Une tribune iconoclaste aux Echos, rédigée par des non juristes (évidemment ...), propose d’ailleurs de confier la justice française à l’intelligence artificielle [22].

Impact prévisible des IA sur les stagiaires, paralegal et documentalistes juridiques ?

Ces outils auront aussi un impact sur la recherche — et donc la veille — documentaire juridique : les tâches répétitives et "découpables" en petits morceaux seront robotisées, les autres ne le seront pas. Par exemple, ROSS réalise la recherche booléenne et la première analyse des résultats. Selon les termes d’Andrew Arruda [23] (traduction par nos soins) :

« La technologie AI de ROSS remplace le besoin d’utiliser les opérateurs et mots-clés de la recherche booléenneed par du langage ordinaire. Si un juriste d’affaires a besoin de connaître la différence entre les deux concepts juridiques "loss" et "recoupment", tout ce dont le juriste a besoin est de demander à ROSS : "Quelle est la différence entre "loss" et "recoupment" ?
Le résultat fourni par le système va au-delà de la simple identification des arrêts pertinents. Au lieu de cela, il attire l’attention du juriste sur les passages clés dans l’affaire qui devrait répondre idéalement à la question posée.
Quand vous posez une question à ROSS sur l’état du droit, vous la posez comme vous le feriez avec un collègue humain. ROSS découpe la phrase pour déterminer le sens de la question, puis conduit la recherche. »

Autrement dit, d’ici *peut-être* cinq ou sept ans et selon le délai nécessaire pour adapter ROSS au droit français [24], plus le travail du documentaliste juridique procédera, comme le dit Jean Gasnault (La Loi des Ours), « d’heuristiques pointues pratiquant pour partie un mode intuitif (opérer par rapprochements semi conscients) », et j’ajouterais : plus il aura une conscience d’artisan et d’expert de haut vol (notamment dans la maîtrise des sources méconnues ou mal indexées [25]), moins au final il aura de chances d’être automatisé. Mais aussi : plus il travaillera *avec* l’IA.

Pour les postes de paralegal orienté recherches et veille (par exemple, les spécialistes de la recherche, de la veille et de l’enregistrement des brevets) et pour les jeunes collaborateurs (qui font aux Etats-Unis énormément de recherches, ce qui correspond en France aux stagiaires), une étude d’Altman Weill datant de 2015 est pessimiste [26]. La brève précitée de la Lettre de l’Expansion est encore plus explicite : « Watson [...] est réputé pour son rôle dans la destruction d’emplois ». Pour les autres paralegals, le risque à court terme, surtout en France, est faible mais à long terme, leurs tâches découpables seront probablement automatisées.

Toutefois, le Conseil d’orientation pour l’emploi (COE) dans un rapport publié le 12 janvier 2017, moins de 10% des emplois sont "très exposés" aux mutations technologiques et présentent donc le risque d’être supprimés, mais près de la moitié devront évoluer [27]. Les emplois supra ne sont pas dans la liste des 10% du COE.

IA en droit et SF

Et si on en arrivait là où Google semble être du fait de l’intégration de machine learning dans ses algorithmes (ses ingénieurs ne savent plus totalement en détail comment leur moteur fonctionne : en tout cas, c’est ce que dit un scientifique chez un rival, Qwant) ?

Eh bien ce serait peut-être pire : on ne saurait même plus qui ni pourquoi nous juge. Power to the machine.

La science-fiction a déjà envisagé ces risques [28] :

  • Rémy cite le tome 3 de la bande dessinée SOS Bonheur (scénario de Jean Van Hamme, dessin de Griffo). Le tome 3 parle de justice automatisée : chaque avocat soumet ses conclusions dans une machine et la machine rend son verdict, le juge n’est là que pour contrôler le bon fonctionnement de cette dernière. Ainsi la justice est aveugle et équitable puisqu’elle est censée rendre le même verdict pour tous ceux qui sont dans la même situation sur tout le territoire. Jusqu’au jour où la machine condamne un homme qui a commis un délit mineur à la peine de mort alors que cette dernière a été abolie il y a déjà de nombreuses années. Peut-on désobéir à la machine au risque de remettre en cause tous les autres jugements déjà rendus ?
  • nous avons (presque) tous vu le film Minority report de Steven Spielberg avec Tom Cruise (d’après la nouvelle éponyme de Philip K. Dick). Même si ce sont des êtres humains spéciaux (des"precogs") qui y tiennent le rôle des logiciels et des données et statistiques, le sens en est clair :
    • les programmes sont écrits par des êtres humains, dans l’intérêt de certains
    • et comme tels seront toujours biaisés. Particulièrement si l’information qui y est entrée est biaisée. Illustrations récentes aux USA avec les programmes prédictifs de la police. Antoine Garapon évoque lui aussi ce risque. Pour une vue plus large et un point sur les principaux programmes en cours.

Si le machine learning finit, ce qui est probable selon nous (cf supra), par être utilisé par le juge, il est à espérer que les conclusions d’Antoine Garapon et Marc Clément (dans les articles de revues juridiques cités au debut de ce billet) s’imposeront :

Eviter le risque de « l’effet "moutonnier" de la justice prédictive qui pousse au conformisme et réclame plus aux juges qui estiment qu’ils doivent aller à contre-courant, c’est-à-dire faire leur métier tout simplement !

« Il sera donc capital que les modes de raisonnement inscrits dans les algorithmes soient parfaitement explicites et maîtrisés par le juge. Il conviendra, de plus, que des méthodes alternatives soient proposées et que l’on ne se retrouve pas en situation de monopole avec une seule technologie utilisable. »

Concernant la justice prédictive, Me Sfadj souligne que lorsque les outils de justice prédictive seront utilisés par la puissance publique, cet usage devrait reposer sur trois grands principes éthiques :

  • le principe de responsabilité conduisant à désigner pour chaque algorithme utilisé une personne référente, à l’instar du directeur de publication en droit de la presse
  • le principe de clarté, c’est-à-dire la mention explicite dans une décision de justice élaborée avec l’aide d’un algorithme de ce procédé et la motivation sur laquelle repose le recours à ce type d’outil
  • le principe de précision permettant de corriger une source d’erreur à tout stade du traitement algorithmique.

Du côté des structures privées, ne faudra t-il pas pour les meilleures structures maintenir une expertise en recherche et veille afin de contrôler la pertinence des réponses (car un mémo fourni par ROSS est bel et bien au minimum une amorce de réponse) ?

ROSS, un inconnu

Mais pour éviter de trop conjecturer et en apprendre plus, il serait bien de pouvoir tester ces IA. Et de lire autre chose que des communiqués à peine dissimulés.

En effet, il n’existe aucune démo gratuite en accès libre, le site web du produit ROSS est d’un vide intersidéral (le compte Twitter est beaucoup plus riche !) et que les cabinets d’avocats utilisateurs ne lâchent aucun exemple d’utilisation ni de recherche ni aucun autre détail.

Emmanuel Barthe
bibliothécaire documentaliste et veilleur juridique, spécialiste des moteurs de recherche pour le droit et des données juridiques publiques
licence en droit


Une "webliographie" sélective et rapide sur ROSS :

Notes de bas de page

[1Legalstart est une startup spécialisée dans les documents juridiques de base pour TPE, comme les statuts, par le biais de formulaires interactifs.

[2JCP G n° 1-2 du 9 janvier 2017 p. 47-52.

[3Les juges doivent-ils craindre l’arrivée de l’intelligence artificielle ?, Recueil Dalloz, n° 2, 12 janvier 2017 p. 104. A noter que le groupe Editions Lefebvre Sarut (ELS) auquel appartient Dalloz travaille avec Predictice et que le groupe LexisNexis a racheté la startup américaine Lex Machina en novembre 2015.

[4Expertises des systèmes d’information, n° 420, janvier 2017.

[6La « legaltech » bouleverse le marché traditionnel du droit, par Blandine Jugé, Lex Web Legal Expert 7 avril 2016.
Je n’ai pas trouvé de liste des legal tech françaises ou implantées en France sur le Web. Alors en voici une personnelle, non triée, forcément incomplète mais tendant à l’exhaustivité : Doctrine.fr, Case Law Analytics, Common Accord, Domaine Legal, Ginerativ / DoxMaster, Impal’act, LegalStart.fr, Captain Contrat, My Notary, Call a Lawyer, Softlaw, Share Your Knowledge, Testamento, LegalCab, Rocket Lawyer (en partenariat avec Editions Lefebvre Sarut (ELS), Litige.fr, DemanderJustice.com, Legalstart.fr ... Luxia, également éditeur juridique avec sa plateforme Alinea, peut éventuellement être rangé dans cette catégorie, au vu de son expertise et de ses activités sur ECLI, ELI et l’anonymisation. Attention, peu parmi ces sociétés se rangent dans la catégorie Intelligence artificielle, autrement dit machine learning. Beaucoup se rangent dans les logiciels experts tout simples, une catégorie déjà ancienne à laquelle le cloud donne une nouvelle jeunesse mais qui n’est pas de l’IA. Souvent cité par les articles présents sur le Net mais non présent en France : DoNotPay (conteste les PV de stationnement en justice).

[7Ils prédisent vos chances de gagner une action judiciaire, Le Parisien 8 octobre 2016. Predictice : grâce aux algorithmes, cette startup est capable de prédire l’issue d’une action en justice et d’optimiser les stratégies contentieuses des avocats, OVH News 7 juillet 2016. Des prétentions très exagérées si l’on lit bien les deux documents et qu’on regarde la copie écran chez OVH News. Il s’agit en fait essentiellement de lister le type de partie vainqueur et les montants de dommages-intérêts alloués selon la cour d’appel.

[8Un outil pour mieux évaluer le risque juridique, lettre Emergences n° 41, 19 mai 2016. Il s’agit en fait ici d’une évaluation probabiliste des dommages-intérêts. Il y a, pour une fois, une application, gratuite et très limitée, de démonstration pour Iphone et Ipad. Elle permet d’évaluer une fourchette pour le montant de la pension alimentaire avec les probabilités associées. C’est quelque chose que l’éditeur juridique Francis Lefebvre avait déjà approché avec son produit Jurisprudence chiffrée fondé sur les faits et chiffres présents dans les arrêts de cour d’appel de la base JuriCA.

[10Technology, jobs, and the future of work, McKinsey, briefing note prepared for the December 2016 Fortune Global Forum in Vatican City (PDF).

[11Extraits : « Je suis un avocat spécialisé en faillite avec 20 ans d’expérience et si j’y passe le temps nécessaire et fais ma propre recherche, les réponses de ROSS seraient grosso modo les mêmes que celles que je pourrais faire », dit Salazar. C’est un sacré compliment pour le logiciel en termes de crédibilité. Mais, sur un plan économique, est-il rationnel d’utiliser ROSS ? Sur ce point, Salazar est également convaincu. » (traduction par nos soins)

[12Selon Andrew Arruda, dirigeant et co-fondateur de ROSS Intelligence : « Le système, aussi, demande aux juristes de noter positif ou négatif les résultats de la recherche, de manière à ce que ROSS puisse apprendre à mieux répondre aux questions à l’avenir. Une fois que le système comprend ce que vous demandez, il commence à apprendre à devenir meilleur. ROSS est dynamique et non statique. » (traduction par nos soins)

[15Orange : comment le groupe envisage son nouveau management, Lettre de l’Expansion du 16 janvier 2017.

[16Voir l’interview de Me Sfadj dans Expertises.

[17Pas en accès libre, mais en revanche, d’importants fonds (sélectifs) de jurisprudence de première instance sont disponibles sur les plateformes payantes des éditeurs, surtout celles de Lexbase et LexisNexis.

[18Jugements des juges de proximité (JP), tribunaux d’instance (TI), tribunaux de grande instance (TGI), tribunaux de commerce (Tcom), conseils de prud’hommes (CPH), tribunaux paritaires des baux ruraux, tribunaux des affaires de sécurité sociale (TASS) etc.

[19Loi Lemaire qui dit le contraire mais n’en donne les moyens ni techniques (XMLisation de tous les documents avec DTD ou schéma XML rénovation massive du parc informatique et augmentation très importante du débit des connexions intranet et internet), ni humains ni financiers.

[20En effet, seuls les éditeurs juridiques ont l’ensemble des données nécessaires, particulièrement les commentaires (la doctrine, qui non contente de livrer les clés indispensables pour comprendre le droit brut, augmente très nettement la pertinence des recherches). C’est le sens de la tribune de Fabien Girard de Barros, directeur de la publication de l’éditeur Lexbase, intitulée La legaltech est morte ... Vive l’édition juridique ! 22/12/2016.

[22Confions la justice à l’intelligence artificielle  !, par Laurent Alexandre (chirurgien, co-fondateur de Doctissimo et chantre du transhumanisme en France) et Olivier Babeau, Les Echos.fr 21 septembre 2016.

[24ROSS a été développé en trois ans à partir de Watson.

[25D’autant plus que d’après les articles de presse américain, ROSS remplace des juristes stagiaires et de jeunes collaborateurs, pas des documentalistes juridiques expérimentés et dotés de meilleures méthodes de recherche.

[28Les lois de la robotique d’Isaac Asimov sont très largement impuissantes ici.

Répondre à cet article