Logiciels, Internet, moteurs de recherche

Dernier ajout : 25 septembre 2019.

Derniers articles

Wikipedia : l’encyclopédie qui s’est rangée

De la contre-culture au politiquement correct

Dimanche 3 juin 2018

Lire la suite »

J’ai contribué à quelques articles (juridiques surtout) dans Wikipedia. Et cela fait longtemps que je voulais écrire non plus dans mais *sur* cette encyclopédie libre en ligne passée en 20 ans de la contre-culture au politiquement correct.

Car c’est vrai : je ne trouve plus que partiellement mon compte dans Wikipedia (WP pour celles et ceux qui y écrivent souvent).

Des règles très contraignantes partout : l’exemple de la création de nouveaux articles devenue quasi-impossible

Je regrette que Wikipedia soit devenue à mon avis si pleine de procédures, de règles quasi-juridiques et d’administrateurs (dits "admins") qui ont un véritable rôle d’arbitres (au sens d’arbitre dans l’arbitrage commercial, donc juges). Pour moi — c’est mon impression et je peux me tromper — écrire plus de quelques lignes dans Wikipedia est de facto devenu aussi difficile que d’être membre d’un club à l’anglaise.

A part pour faire quelques corrections ou de petits ajouts, j’ai l’impression que l’orientation "encyclopédie neutre" interdit désormais de créer [1] ou modifier substantiellement tout article.

La volonté de neutralité impose aussi de ne rien écrire qui ne soit écrit ailleurs, dans un média "respectable" (presse, y compris sa version en ligne, et ouvrages d’abord). Tout "travail inédit" [2] a tendance à être dénoncé par une question ou un bandeau ou simplement effacé, quand bien même les informations qu’il donne sont exactes, notoires ou constatables par soi-même. Pour un exemple, voir l’échange suivant (traduit en français) [3] sur la page de discussion de l’article de WP sur le logiciel gratuit d’édition d’images IrfanView :

« Il devrait être mentionné comme critique que ce programme ne précharge PAS les images ! On est à l’âge de pierre, là ! Proxide 02:16, 23 décembre 2010 (UTC)
Je suis d’accord, mais si aucune source source fiable et indépendante ne le dit, nous ne le devrions pas non plus. —Lexein (talk) 00:09, 10 September 2011 (UTC) »

Ce qui rend cet exemple encore plus net, c’est que Lexein, le wikipédien qui répond est à la fois le principal contributeur de l’article [4] et un vétéran de Wikipedia — il fait même partie des 4000 contributeurs en langue anglaise les plus actifs de WP de tous les temps.

Le moindre manquement aux règles [5] est sanctionné par une suppression immédiate [6] par un administrateur de ce qui a représenté plusieurs heures de travail. Or il est difficile aux non admins de connaître ces règles dans le détail [7] et ces suppressions se font généralement sans grande diplomatie. Ca m’est arrivé. C’est arrivé aussi à d’autres : je l’ai deviné à plusieurs reprises à travers des discussions en ligne sur WP.

Ayant modéré une liste de discussion [8] pendant quatre ans, je ne peux pas nier la nécessité d’empêcher les très nombreux vandales et contributeurs de mauvaise foi de défigurer Wikipedia. Je peux à la limite comprendre que les admins soient fatigués et "tirent sur tout ce qui bouge sans poser de question". Mais malheureusement ce comportement même, par son manque de respect pour les contributeurs de bonne foi qui se voient supprimer leur travail bénévole sans avertissement ni explication, fait des dégâts.

Des articles devenus très lisses

Dans le même temps, tout article sur une société où une personnalité est trop souvent "lissé", réécrit habilement (ça se voit quand même) par ses communicants. Certes, un bandeau souvent signale cela mais à part sur les articles concernant les sociétés et personnalités controversées ou à la mode, ces "edits" (modifications) ne sont ni "revertés" (annulées) ni réécrits. Peu de gens s’en soucient et ceux qui s’en soucient manquent et de temps et de force de frappe face aux communicants. Un exemple récent (juin 2019) : l’agence de publicité d’un marque de sport place ses photos sur Wikipedia. Dans cette bataille de communication, des groupes particuliers à visées idéologiques cherchent, inversement, à subrepticement détourner les articles de WP, à les tourner dans leur sens.

Le corollaire, de mon point de vue : je ne trouve plus dans Wikipedia ces infos croustillantes, ces interprétations divergentes qui en faisaient le sel (allez, si ! parfois dans les versions archivées on tombe sur une info non politiquement correcte mais en fait il faut savoir ce qu’ on cherche ... et le chercher longuement puisque les archives ne semblent pas indexées par le moteur de WP ni par Google). On dispose désormais d’une encyclopédie neutre [9] très riche et qui rend service. Certes. Mais on a beaucoup perdu pour ce gain.

Désolé d’être aussi cru, mais c’est un fait : Wikipedia ne pense plus, elle résume ou cite des gens qui pensent — et encore, pas des sites personnels, mais des sources très "consacrées". Eliminant ainsi plein d’informations qu’on ne trouvait guère ailleurs.

Les experts boutés hors de Wikipedia

La page de WP List of Wikipedians by number of edits [10] explique ceci :

« Dans une discussion sur la suppression, le vote pour Garder ou Supprimer un article donné émis par un éditeur ayant un nombre d’"edits" dans WP de 67 330 peut se voir donner plus de poids que le même vote émis par quelqu’un qui n’a fait que 12 "edits". »

Etre un gros contributeur et un expert de WP compte donc beaucoup dans l’encyclopédie. Et souvent plus que le fait d’être un véritable expert du sujet traité dans l’article [11]. L’exemple paroxystique bien connu en est la bataille livrée par le romancier américain Philip Roth pour faire rectifier l’article WP portant sur lui [12]. Plus banalement, Benjamin Coriat, économiste et universitaire français pourtant classé à gauche et spécialiste des communs, dit [13] :

« Wikipédia, ce n’est pas forcément très bien gouverné, parce que les économistes qu’on trouve dans Wikipédia, les définitions qu’on trouve dans Wikipédia, il y a beaucoup à dire. »

Même Alexandre Moatti, historien des sciences, contributeur avoué de Wikipedia et ex-membre du conseil d’administration de Wikimedia France, reconnaît, dans une contribution en défense de Wikipedia, que dans les sciences humaines et sociales (SHS), le flou est plus grand — ce qui implicitement permet l’existence d’articles WP contestables [14].

Un nombre non négligeable d’articles, même non "chauds", et malgré l’obligation de citer des sources "consacrées" :

  • primo, sont de facto entre les mains de non-experts (devenus en revanche des experts du fonctionnement de Wikipedia)
  • deuxio, sont malgré la présence de (plus ou moins nombreuses) notes de bas de page, mal documentés. Les non spécialistes, en effet, ne sont le plus souvent pas abonnés aux bases de données de la discipline et n’ont pas accès à un centre de documentation ou une bibliothèque spécialisé
  • tertio, manquent cruellement de recul et de sens critique.

D’après ce que je sais, ce type de comportement des wikipédiens et de fonctionnement de Wikipedia dissuade beaucoup d’experts de contribuer à WP [15].

Recul et sens critique — pour tout dire, vivacité —, c’est ce que la participation des experts et l’autorisation des "travaux inédits" pourraient apporter. Certes, modérer tout ça et y faire le ménage serait probablement plus ardu, puisque les règles de neutralité et d’absence de contenu original ne pourraient plus servir de garde-fous stricts (et aveugles).

Mais cela attirerait peut-être plus de volontaires (réellement qualifiés). Et après tout, c’est bien ainsi que Wikipedia fonctionnait à ses débuts et elle comptait déjà énormément d’articles et de contributeurs.

Les arguments sur cette évolution

On peut penser que cette évolution vers le lisse, le purement factuel et le neutre est un choix qui a été fait pour crédibiliser Wikipedia, pour faire sérieux, comme une "vraie" encyclopédie. Et aussi parce que les contributeurs de WP n’avaient pas le temps et les connaissances pour faire le travail d’un comité scientifique ou éditorial. Voir à ce sujet ce que le fondateur Jimmy Wales [16] (en 2003-2004) et le premier organisateur de WP Larry Sangler ont écrit. Et c’est d’ailleurs ce qui a été souvent avancé dans les articles de presse que j’ai pu lire à ce sujet.

Toutefois, je me demande parfois si en réalité ce n’est pas aussi pour éviter les pressions et procès en diffamation sur un site devenu incontournable et donc trop gênant. Wikipedia à tant crû qu’elle a dépassé — et de très loin — la diffusion de toutes les encyclopédies ayant existé avant elle. Sans parler de théorie du complot, je pense que WP est devenue "mainstream" et que de fait, elle a dû assumer un (gros) inconvénient de tout média trop dominant aujourd’hui : le "politiquement correct".

Pourtant, pour ne prendre qu’un exemple, l’Encyclopaedia Universalis (EU) elle-même n’était guère neutre — disons au minimum ses articles en sciences humaines et sociales (SHS) [17] et une partie de ceux en sciences exactes [18]. Oh que non ! Pour avoir pas mal travaillé dessus dans ma jeunesse (fin années 70 + les années 80 : pas d’Internet à cette époque), je peux vous garantir que l’Encyclopaedia n’était pas neutre. Chaque article était rédigé par un seul auteur — c’est toujours le cas — et il en profitait évidemment pour défendre ses thèses. Evidemment, l’EU avait un conseil scientifique, que WP n’a pas.

Ça avait aussi des inconvénients, les articles pouvaient être très difficiles à comprendre. Mais au moins ça pensait — et ça pensait avec des arguments. Comme WP à ses débuts. A mon avis, Wikipedia est devenu un super Quid. Sans la fiabilité à 100% du Quid [19].

Mais trêve de tirades, je vais vous lasser avec mes rengaines à la "C’était mieux avant". Tant pis ou tant mieux (c’est selon) pour Internet si Wikipedia est devenue "mainstream" [20].

Emmanuel Barthe
bibliothécaire documentaliste juridique, webmestre


Solutions pour se constituer ou partager une base de données juridique professionnelle

Moteurs de recherche, CMS, GED ...

Mercredi 16 mai 2018

Lire la suite »

Tout est parti d’une question posée sur la liste de discussion Juriconnexion par un avocat solo sur les outils à la disposition des cabinets pour créer leur propre base de données juridique (jurisprudence, articles, etc...). En clair, y a-t-il des produits ou solutions à recommander qui permettent le la recherche et le partage avec d’autres collègues/confrères, voire l’exportation/importation automatique de données ?

De manière générale, il n’existe pas à ma connaissance de produit sur étagère ni a fortiori d’application gratuite qui ferait tout cela et marcherait tout seul. Mais qui en fassent une partie assez facilement, oui.

Si plus de 300 documents ou que vous ne partagez pas de réseau local, il faut envisager du cloud, un (gros) logiciel de gestion électronique de documents (GED) ou un site web partagé doté d’un CMS et/ou d’un moteur de recherche.

Simple, facile et rapide

- Moins de 300 à 500 documents ? Si vous êtes en réseau local Windows ou Apple et que le nombre de documents est faible (moins de quelques centaines), les bons vieux répertoires suffisent. Pour moteur de recherche, prenez celui de l’Explorateur Windows.

- Mettre les documents sur un espace Google ou autre cloud (testez Cozy Cloud par exemple, il est français et ne vend pas vos données) et partager les codes d’accès.
L’avis de Beatriz Chatain, knowledge manager du cabinet d’avocats CMS-BFL [21] : « Les solutions de type Google Drive [22] ont l’intérêt de pouvoir être collaboratives mais au bout d’un moment, le problème de volume peut se poser aussi et donc il faudra payer. Le montant devrait toutefois être moins important qu’un outil ad hoc de type GED. Attention quand même aux accès et à la sécurité ... »

Difficulté moyenne, nettement plus personnalisé

- Le logiciel MediaWiki qui "propulse" Wikipedia a été plusieurs fois utilisé pour de telles bases. Par exemple pour la base de doctrine du Barreau, dite la Grande Bibliothèque du Droit (GBD). MediaWiki n’est pas forcément simple à installer [23], mais après, il suffit de créer une nouvelle page puis de copier coller le document dedans.

- Le portail et logiciel documentaire PMB de la société PMB Services. Selon la description de ma collègue Carole Guelfucci, « plusieurs cabinets d’avocats utilisent ce logiciel libre. A l’origine, PMB est un logiciel plutôt dédié aux bibliothèques (publiques) mais avec de la personnalisation, il peut tout à fait s’adapter à la gestion d’unités documentaires de toutes sortes comme la jurisprudence ou la doctrine.
PMB est un logiciel libre donc gratuit dans l’absolu. Néanmoins, pour son paramétrage et sa personnalisation et pour obtenir un portail qui corresponde aux attentes, il est conseillé de se faire aider, en l’occurrence par le prestataire PMB Services..
On ne paye pas de licence mais du service. Le coût de la solution dépend du degré de personnalisation. Plus qu’une base de données de connaissances, on obtient dans ce cas un véritable portail documentaire. Tout dépend alors de la nature du projet »
Un point important : il existe un club bien actif des utilisateurs juridiques de PMB. Les comptes-rendus de ses réunions sont disponibles sur le blog de Carole.

- SharePoint de Microsoft est un logiciel de gestion de contenu ("content management System"", CMS) pour intranets. Comme le rappelle Beatriz Chatain, il permet de réaliser des arborescences, est collaboratif et peut être utilisé assez "rapidement" sans développement particulier. L’avantage de SharePoint en entreprise, c’est que la licence SharePoint est souvent déjà incluse dans la licence Office globale négociée par la firme.

- Le moteur de recherche et d’indexation dtSearch. Cette solution est, selon le traducteur Jean-Marie Le Ray, « la Rolls-Royce des moteurs de ce genre ». Disponible en plusieurs déclinaison, la version de base (dtSearch Desktop with Spider – single user) est à 199 USD. Après on passe à 1000, 2500 USD et plus. Il est possible avec dtSearch desktop with Spider d’indexer tout le contenu de son ordinateur local et/ou d’un site web, et d’effectuer des recherches à distance. Une version de dtSearch peut même fonctionner sur les très puissants hébergements cloud AWS (Amazon Web Services) et Microsoft Azure.
Leur slogan ("Find anything, anywhere, instantly !") n’est pas usurpé : J.M. Le Ray dit utiliser ce produit depuis des années et avoir indexé avec 20 tera-octest de données texte (des centaines de millions de termes indexés). De plus, selon lui, le processus d’indexation est extrêmement rapide.
Un des spécialistes français de dtSearch est le traducteur Dominique Pivard.

Ambitieux et très puissant

- Pour un professionnel solo ou une petite équipe, la base de données Open Avocat montée par l’avocat spécialiste du contentieux des accidents médicaux Dimitri Philopoulos, et qui réutilise Legifrance, est un bon exemple de ce qui est possible pour un coût très faible.
Mais attention : pour les données Legifrance, elles sont en XML. Leur traitement optimal demande des compétences informatiques

- Pour une grosse structure, rappelle Beatriz Chastain, « les systèmes de GED de type iManage (ex-MailSite, ex-FileSite) permettent de gérer des arborescences assez finement construites avec des fonctionnalités très développées. C’est ce que les cabinets de grande taille ont en général, mais c’est cher ».

Une remarque personnelle : l’absence de produit simple à part les "drives" des "clouds" — que d’anglicismes ! — laisse un peu de place pour un produit web centré autour d’un moteur de recherche efficace, rapide et sécurisé par code d’accès. Cela dit, le moteur, c’est toute la difficulté : des qu’on veut de l’optimisé, sauf exception à la dtSearch, ça a tendance à chiffrer.

NB : si vous voulez garder les décisions au format PDF, c’est possible, mais les moteurs de recherche sont moins bons ou plus chers.

Des contacts et des SSII

- Aller faire un tour un soir à une réunion Open Law. Il y a dans ce forum beaucoup de contacts à prendre et de trucs à échanger.

- Plusieurs legal tech ont des compétences dans ces domaines mais celles-ci ne sont pas gratuites. Des sociétés connues ? Luxia, Lexbase, Doctrine.fr ... (liste non exhaustive, merci aux membres de la liste de compléter).

- Faire appel à un documentaliste indépendant pour élaborer une solution peut permettre de mettre en place quelque chose de pratique et pas très cher. Pour une liste des documentalistes indépendants, voir sur ce blog notre billet Documentalistes juridiques free lance et autres indépendants du secteur de l’information juridique. Et là, comme le souligne ma collègue Carole Guelfucci, PMB peut être un choix de logiciel, l’importance de la prestation de service de la société PMB pouvant étre réduite par les connaissances du documentaliste. La société PMB a d’ailleurs l’habitude de travailler avec des bibliothécaires documentalistes.

D’autres pistes ? Les commentaires sont ouverts.

Emmanuel Barthe
documentaliste juridique


Surveillez automatiquement les modifications des pages web

Logiciels et autres outils de veille

Dimanche 25 février 2018

Lire la suite »

NB : cet article est une mise à jour rapide d’un très ancien billet. Il n’est donc que partiellement à jour. Mais comme il n’existe pas beaucoup de listes commentées de ce genre et que j’ai parfois besoin de le citer à des collègues, je l’ai remis en ligne.
Si vous y trouvez des erreurs, merci de les signaler dans les commentaires.

Les logiciels de veille automatique sur le Web [24] vous préviennent quand une page web que vous surveillez est modifiée ou lorsqu’une page web correspondant à vos mots-clés est publiée. [25] Vous pouvez ainsi surveiller les mises à jour de vos sites préférés. Mais aussi, quand la page surveillée est le résultat d’une interrogation d’une base de données telle celle de la Cour de Justice de l’Union européenne (CJUE), cela permet d’être prévenu de la publication d’un arrêt.

Mes préférés

- Modernes, légers, pratiques mais limités : les extensions pour Firefox et Chrome :

  • Mozilla Update Scanner pour Firefox.
    Avantages : gratuit ; simple : un clic droit sur page à suivre, un ou deux réglages (périodicité de la surveillance + nombre de caractères devant être modifié) et un clic sur OK : le tour est joué ; affiche en couleur les changements dans la page ; aide bien faite (en anglais).
    Limites : pas d’alerte sur mot-clé ; pas de partage/pas de version réseau/pas de version en ligne
  • Distill Web Monitor (ex-AlertBox) pour Firefox. Permet de spécifier des règles précises et de ne surveiller qu’une (ou des) zone(s) de la page web. Il accepte même les expressions régulières (Regex). Une documentation sérieuse existe pour bien l’utiliser et le développeur s’occupe bien de son produit et de l’assistance. Gratuit jusqu’à 3 veilles, payant (peu cher) au-delà ou si on veut la version avec accès à distance mais semble bien le valoir d’après les commentaires. Voici un tutoriel vidéo correct de 2016
  • visualping.io (ex-Page Monitor) pour Chrome ou en version SaaS. Avantage et (gros) inconvénient à la fois : peu de paramétrages sont possibles. Tout changement, quelque que soit son importance, est donc signalé. Pas mal de bruit à attendre donc, a priori. Christophe Deschamps (Outils froids) l’apprécie [26]

- WebSite-Watcher :

  • avantages :
    • apprécié par Armelle Thomas, documentaliste devenue veilleure et consultante (Inforizon) et les spécialistes de la veille Frédéric Martinet (Actulligence) et Aref Jdey (Demain la Veille) [27]
    • doté d’une base installée importante en France
    • pas cher du tout (prix Business edition : 99 euros TTC avec mises à jour la première année puis 50% de remise pour avoir les mises à jour les années suivantes) et d’un rapport qualité prix défiant toute concurrence
  • limites : de mon point de vue, WSW commence à ne plus être totalement en phase avec les besoins actuels :
    • pas d’accès à distance/cloud (s’installe sur un PC)
    • pas de partage en réseau privé
    • surveiller l’entièreté d’un site web est possible mais compliqué.

- Lecteurs RSS adaptés pour la veille :

  • le lecteur de fils RSS dominant et recommandé dans un contexte de veille professionnel est Inoreader (SaaS, payant) d’Innologica (une app Android existe). Inoreader possède une gamme de filtres élaborés et est maintenu par une solide équipe (bulgare)
  • il y en a d’autres : voir l’étude comparative et quasi-exhaustive publiée par Serge Courrier en 2014 (NB : l’offre s’est réduite depuis)
  • NB : le RSS est une technologie de veille maligne et légère. Mais vu l’emprise aujourd’hui encore du mail, il est souvent nécessaire de convertir ses flux RSS en mails. Pour faire cela automatiquement et gratuitement (avec un peu de publicité dedans évidemment), j’utilise BlogTrottr. Cette application en ligne est riche en fonctionnalités futées. Le délai avant envoi est d’au minimum deux heures. Pour recevoir les mails plus vite, une version payante mais très économique existe.

- Google Alert :

  • avantages :
    • il bénéficie du moteur de recherche de Google : richesse de l’index et pertinence des résultats
    • on peut le restreindre à l’onglet News (presse gratuite en ligne)
    • il envoie directement des emails
    • en se connectant à son compte Google *avant* de créer son alerte, on peut enregistrer et surtout gérer autant de veilles que désiré. Notamment les modifier et les supprimer. C’est un point clé d’un bon usage de Google Alert
  • inconvénients :
    • décalage entre la mise en ligne de l’information et l’arrivée du mail
    • la liste de résultats affichée dans le mail est partielle. Il faut aller sur son navigateur web pour la voir en entier
    • il existe des doutes dans la communauté des veilleurs sur sa pérennité à long terme. L’abandon de Google Reader et un certain manque de mise en avant et d’amélioration de Google Alert par la firme de Mountain View justifient ce doute
    • il n’est évidemment pas connectable — à des sources payantes ou sur mot de passe.

D’autres logiciels

Des logiciels en anglais : voir deux outils cités en 2005 par le consultant Aref Jdey sur son blog de l’époque Vtech [28] et existant toujours :

  • InfoMinder. Possède des fonctionnalités plus larges, puisqu’il surveille non seulement des pages web, mais aussi des blogs, des fils RSS et des wiki (payant, 30 jours d’essai gratuit)
  • ChangeDetect. Il a l’air assez riche en fonctionnalités, comme par exemple la possibilité de spécifier non seulement des mots-clés mais également une requête booléenne (gratuit). Des clients de référence comme Wolters Kluwer. Aucune news ni billet sur leur blog depuis 2012.

Voir aussi :

  • OnWebChange. Un service de surveillance de pages web avancé (dixit C. Deschamps)
  • TrackEngine. Gratuit jusqu’à 5 adresses ou 100 Ko, payant au-delà, c’est-à-dire en pratique pour toute utilisation professionnelle. A peu évolué depuis les années 2000 ... [29]

Des produits plus professionnels et plus complets ... et chers

  • Tadaweb : interface graphique (schémas ...) très pratique, inclus analyse de sentiments donc plutôt orienté veille produits et compétitive, apparu en 2013, et très apprécié par la communauté à sa sortie [30]. Les veilleurs clients regrettent une évolution intervenue en 2015 qui a retiré une bonne part de la possibilité de faire eux-mêmes le paramétrage de l’application et en a nettement augmenté le prix. Prix de départ à plusieurs milliers d’euros par an
  • KB Crawl est un métamoteur de veille très amélioré, basé sur la recherche texte intégral sur des pages web, avec délimiteur. Il est développé par BEA Conseil. Prix de départ aux alentours de 5000 euros HT par an
  • Ask’n’Read de Qwam. Comme KB Crawl, Qwam est dans une gamme de coût intermédiaire : une grosse structure peut en avoir pour 10 000 euros par an en SaaS seulement
  • plus puissants, les produits de Digimind vont plus loin dans l’automatisation et savent aussi poser des questions à des bases de données de tout type [31]. En somme, une des Rolls du secteur. A partir de 7000 euros HT annuels
  • autres acteurs de la taille de Digimind et KBCrawl :

Ces outils et quelques autres sont traités dans la rubrique Agents d’alerte du blog Outils de veille d’Armelle Thomas et dans l’article Veille sur le Net : des besoins variés de Christine Brancier (Décision Micro 3 mai 2004). Certes anciens, ces documents ont l’avantage d’être quasi-exhaustifs (la plupart des acteurs de l’époque existent toujours, à l’exception d’Arisem [33]) et critiques.

D’autres produits

Pour compléter et mettre a jour cette liste, la source de référence est le site Outils froids de Christophe Deschamps.

Pour découvrir et tester (toujours tester, ne jamais croire sur parole ni penser qu’un outil est adapté à tout le monde et tous les besoins) plus d’outils et de conseil, voici quelques unes des meilleures listes commentées et critiques, essentiellement rédigées par Camille Alloing, spécialiste de la veille et de l’e-réputation, sur son (ancien) blog CaddEreputation (liste établie en 2011, mise à jour en 2015) :

Emmanuel Barthe
documentaliste, veilleur


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | ... | 35

Dernières brèves