Espace de libertés | Juin 2020 (n° 490)

Quand la justice « prédictive » entre dans la cour


Libres ensemble

Actuellement, la justice belge fait face à une crise de confiance de la part des citoyen.ne.s et fait l’objet de critiques nombreuses et répétées quant à son arriéré, son coût ou encore son manque d’efficacité et d’accessibilité. Avec l’émergence de l’intelligence artificielle, les outils d’analyse mathématique se développent dans le milieu juridique. Palliatifs, les algorithmes ?


Déjà en 1963, Reed Lawlor, un avocat américain, s’était lancé dans une étude de traitement informatique visant à anticiper la recevabilité d’une affaire. À l’heure actuelle, de nombreux pays utilisent des outils technologiques au service du droit, les legaltechs. Ainsi, aux États-Unis, les juges utilisent le logiciel Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) qui rassemble un grand nombre de données (décisions antérieures, cas de récidive, etc.) et permet de comparer les situations les plus ressemblantes au cas de l’individu auteur ou suspect de délit ou de crime.

Plus près de chez nous, en France, de nombreuses legaltechs, comme Predictice et Case Law Analytics, proposent d’anticiper l’issue des litiges, le montant d’éventuelles indemnités et d’obtenir les arguments les plus souvent utilisés devant les cours et tribunaux. Les cours d’appel de Rennes et Douai ont expérimenté des algorithmes d’aide à la décision au service du juge. Cependant, dans un communiqué d’octobre 2017, le ministère de la Justice a déclaré que cet outil n’était actuellement pas satisfaisant.

La justice belge n’est pas en reste. Le barreau de Mons a testé des logiciels permettant de compiler les différentes sources juridiques (législation, jurisprudence et doctrine) et d’assister le travail de l’avocat en le déchargeant d’une série de tâches. Ces exemples, certes limités, démontrent la présence d’une utilisation de l’outil algorithmique et le besoin pressant d’une réflexion sur le sujet.

Prédire la justice

Ces différents exemples démontrent que la récente rencontre des progrès en IA, de l’open data et du foisonnement des legaltechs, ouvre les portes d’une nouvelle justice dite « prédictive ». Il s’agit là, selon Sébastien Platon, professeur de droit public à l’université de Bordeaux, de « prédire une décision de justice par l’analyse automatisée de la jurisprudence via les nouvelles technologies ». Cette justice utilise des algorithmes dits « prédictifs » ou d’aide à la décision, basés sur des logiciels de machine learning supervisés, permettant d’ »analyser en un temps record une masse énorme de jurisprudence pour anticiper le résultat d’un contentieux ou, à tout le moins, ses chances de succès ou d’échec ; choisir les arguments les plus pertinents ; ou évaluer le montant d’éventuelles indemnités, etc. »1.

Une juge lit une motion et annonce un renvoi d'audience, le 29 mars 2011, au Palais de Justice de Nantes dans le cadre d'une journée nationale de mobilisation des professionnels de la justice pour réclamer des moyens "dignes d'une grande démocratie européenne". Les magistrats nantais, suivis par l'ensemble de la profession en France, avaient entamé le 3 février un mouvement de report d'audience inédit après avoir été mis en cause par Nicolas Sarkozy qui avait dénoncé des erreurs et demandé des sanctions, avant même tout rapport d'inspection, dans le suivi judiciaire de Tony Meilhon.   AFP PHOTO FRANK PERRY (Photo by FRANK PERRY / AFP)

Si les «algorithmes prédictifs » sont peu appliqués actuellement en Belgique, il importe d’anticiper leur arrivée, car ils produisent des résultats susceptibles d’influencer le juge dans sa prise de décision. © Frank Perry/AFP

Si ces algorithmes sont peu appliqués actuellement, il semble intéressant d’anticiper leur arrivée car ils produisent des résultats susceptibles d’influencer le juge dans sa prise de décision. Il serait absurde de les rejeter en bloc, mais il est nécessaire d’adopter une approche critique par rapport à leur introduction dans le mode judiciaire belge et ainsi peut-être éviter la situation dans laquelle « s’affirme insidieusement et progressivement une dictature des algorithmes », comme le rapporte Boris Barraud2.

L’outil plus neutre que le juge ?

L’existence même des algorithmes remet en question la possibilité de revendiquer leur neutralité absolue « alors qu’ils sont généralement conçus pour choisir, trier, filtrer ou ordonner les informations selon certains principes »3. Comme le précise l’ancienne magistrate Hélène Cazaux-Charles, la récolte des faits « aussi objectifs soient-ils » ne peut exclure des parts d’interprétation et de subjectivité en raison de l’intervention humaine.

Dans son étude sur le pouvoir régalien et les algorithmes, Pierre Gueydier souligne que ces derniers « font émerger une certaine réalité, un certain consensus mais [qu’ils] ont une certaine fragilité ». En effet, ces nouvelles technologies sont « porteuses de prérequis, de valeurs et, pour tout dire, d’un projet de société, parfois inconsciemment inscrit dans leur code par leurs concepteurs ». Concepteurs qui, rappelons-le, sont très souvent des entreprises privées dont les intérêts sont, en toute logique, principalement économiques.

Ainsi, plusieurs auteur.e.s rapportent des biais car des discriminations, des processus d’exclusion peuvent se produire à tous les niveaux de construction de ces outils (le choix et la définition des données recherchées, les catégorisations employées pour différencier ou au contraire amalgamer…)4. Antoinette Rouvroy, chercheuse à l’UNamur, insiste particulièrement sur le manque de transparence ainsi que sur le risque de confondre corrélation avec causalité et de conduire dès lors à des interprétations erronées des algorithmes.

Aux États-Unis, le logiciel COMPAS, sans se baser sur des critères tels que la couleur de peau, utilise des décisions qui semblent, elles, présenter des biais ethniques. De plus, il repose sur l’idée que le fait de commettre un délit vous donne plus de chance d’en commettre un dans le futur. Nous sommes donc bien là face à « une forme de déterminisme social » qui se verra amplifiée par les algorithmes.

Il paraît donc difficile d’éliminer totalement les biais, mais serait-il possible d’en diminuer leurs impacts ? Une piste est mise en avant, celle d’une réelle transparence de la constitution et du fonctionnement de l’algorithme qui permettrait entre autres aux utilisateurs et aux juges, par exemple, de comprendre les priorités qui président les décisions rendues par les algorithmes et ainsi de pouvoir les nuancer.

Les juges en question

Il est aussi essentiel de s’interroger sur l’utilisation qui est faite de l’outil algorithmique. Prenons ici l’exemple des juges. Leur rôle n’a cessé d’évoluer et diffère en fonction des systèmes juridiques dans lesquels on se situe. Cependant, une caractéristique semble commune et peu variable dans le temps : la neutralité des juges, entendu par là, leur indépendance et leur impartialité. Qu’en est-il de ces valeurs fondamentales lorsque les algorithmes d’aide à la décision font leur entrée dans l’office du ou de la juge ?

Autre question centrale, qu’est-ce qu’un jugement de qualité ? Depuis quelques années, une vision managériale du droit émerge, mettant en avant une certaine efficience qui peut être définie comme « la rentabilité optimale des moyens investis » sans réellement se soucier du contenu. Cette vision du droit semble, comme le précise Benoît Frydman, professeur à l’ULB, s’imposer comme « un mode de normativité et de gouvernement des hommes. Certains estiment que quantifier permet d’évaluer et donc d’améliorer par la suite. Mais quantifier, c’est aussi prendre le risque d’une allégeance des juges au pouvoir des chiffres, au détriment de l’art de l’interprétation, de l’écoute des justiciables.

Ne pas négliger l’humanité

Les algorithmes et leur exploitation du big data permettent d’accéder à une perception plus complète de la jurisprudence et donc aident les juges à mettre en œuvre le principe fondamental de la sécurité juridique. Toutefois, comme le précise Hélène Cazaux-Charles, une mise en cohérence excessive tendant vers une « normalisation de la décision judiciaire par alignement sur une décision médiane » pourrait mener à des situations portant atteinte à « la liberté d’interpréter au cas par cas ». De plus, la non-transparence des algorithmes place les juges dans l’impossibilité de saisir la singularité des cas, les poussant ainsi à un mimétisme voire à un psittacisme5.

Un dernier risque doit être évoqué : l’effet moutonnier. Un.e juge, face à un logiciel lui affirmant que 95 % de ses collègues ont pris telle décision, résistera difficilement à la surdétermination. Cet effet risque également de renforcer un côté conservateur du droit alors que le domaine est en constante évolution.

Sans remettre en question la logique mathématique des algorithmes, il reste indispensable de les considérer comme des outils faillibles. Ils apportent des probabilités et non des vérités, et doivent rester critiquables en ce qui concerne leur validité. Enfin, l’utilisation de l’outil est elle-même difficilement neutre. S’il faut reconnaître que la justice « prédictive » promet des évolutions positives, les algorithmes ne doivent pas cacher les risques encourus pour l’office du juge et le respect des principes fondamentaux.


1 Valérie de Senneville, « Quand les algorithmes entrent dans les prétoires », dans Les Échos, 22 mars 2017.

2 Boris Barraud, « Le coup de data permanent : la loi des algorithmes », dans Revue des droits et libertés fondamentaux, 2017.

3 Dominique Cardon, « Le pouvoir des algorithmes », dans Pouvoirs, vol. 16 4, 2018.

4 Olivier Rey, Quand le monde s’est fait nombre, Paris, Stock, 2016.

5 Répétition mécanique sans compréhension du sens, NDLR.