Quantcast

Jean-Marc Sauvé appelle à la prudence sur la justice prédictive

15 févr. 2018, PAR Bastien Scordia
  • 03
    MIN
  • 0

© Vincent Baillais

Pour le vice-président du Conseil d’État, l’avènement de la justice prédictive fait peser des risques sur la liberté d’appréciation et l’indépendance des juges et pourrait même, faute de réflexion préalable, mettre “en péril” l’institution judiciaire. L’intelligence artificielle “ne pourra prétendre à remplacer” l’intelligence humaine, a-t-il affirmé lors d’un colloque sur le sujet, le 12 février dernier. 


Un avertissement en bonne et due forme. “Si nous pratiquons la politique de l’autruche”, les évolutions induites par le développement de la justice prédictive “se feront sans nous et le résultat pourrait bien plus que nous déplaire : il pourrait mettre notre justice en péril”, a souligné le vice-président du Conseil d’État, Jean-Marc Sauvé, à l’occasion d’un colloque organisé lundi 12 février par l’Ordre des avocats au Conseil d’État et à la Cour de cassation.

Le locataire du Palais-Royal ne nie pourtant pas les transformations “bénéfiques” que pourrait apporter l’avènement d’algorithmes censés prévoir (autant que possible) l’issue d’un litige grâce à l’analyse de grandes masses de données. Et ce tant en matière de qualité que d’efficacité et de rapidité de la justice.

Grâce à leur utilisation, les juges pourraient “se décharger des tâches les plus chronophages” mais aussi mieux “connaître les pratiques juridictionnelles de leurs collègues”, a-t-il ainsi précisé lors de son discours [cliquez ici pour le consulter]. Les parties prenantes, pour leur part, “pourront déterminer plus précisément les chances de succès d’une procédure juridictionnelle”.

Risques pour l’indépendance des juges

La vigilance demeure néanmoins. Selon Jean-Marc Sauvé, le développement de logiciels prédictifs, “sous l’effet de la surveillance résultant d’un traitement massif des décisions de justice” pourrait ainsi faire perdre aux juges leur liberté d’appréciation, voire leur indépendance.

Ceux-ci préféreraient en effet “se ranger, par sécurité, à l’opinion dominante ou majoritaire de (leurs) pairs”. Or le “propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il”, estime le vice-président du Conseil d’État.

Si cette prévisibilité est du droit est “nécessaire”, elle menace aussi de “cristalliser” la jurisprudence, les résultats produits par les algorithmes risquant en effet d’être “répétés et amplifiés”. Ainsi, toute décision “atypique, même justifiée, risquera de paraître inacceptable, si elle n’est pas spécialement et très fortement motivée”, estime Jean-Marc Sauvé, pour qui la jurisprudence doit être non pas “rétrospective” mais “accompagner” les évolutions législatives, économiques ou sociales.

Résultats trop aléatoires

L’occasion donc pour le “premier des fonctionnaires”, comme l’on a tendance à le nommer, d’appeler les juges à rester maîtres des problématiques posées par la justice prédictive, qui “arrive à grands pas, sans être encore, il faut le reconnaître, pleinement opérationnelle et sûre”. Preuve en est : l’arrêt par la cour d’appel de Rennes du test d’un outil d’aide à la décision en raison de de résultats trop aléatoires. “Nul ne parviendra à prédire avec suffisamment de fiabilité le contenu d’une décision”, avait expliqué dans nos colonnes en fin d’année dernière son Premier président, Xavier Ronsin [cliquez ici pour consulter son interview : “Ce logiciel de justice prédictive ne nous apportait aucune plus-value”].

Dans tous les cas, l’intelligence artificielle ne devra pas se “substituer” à l’intelligence humaine mais elles devront “se combiner et se renforcer mutuellement”, insiste Jean-Marc Sauvé, “la première ne pouvant prétendre remplacer l’autre”. Cet adossement à l’analyse juridique et au raisonnement “personnel” du juge est “d’autant plus essentiel” que le taux actuel de sûreté des algorithmes prédictifs en droit “ne semble pas en l’état excéder 70 %, ce qui n’est pas si élevé et ne saurait fonder des certitudes”.