Congrès de Toulon de l’AFDC – Une justice algorithmique pour les élections ?Considérations techniques et épistémologiques ! [R. Rambaud et A. Hafsaoui]

L’association française de droit constitutionnel (AFDC) organise son XI Congrès à Toulon du 15 au 17 juin 2023. Un événement attendu par l’ensemble des constitutionnalistes de France, celui-ci en particulier car il fait suite à longue attente suite à la période du Covid-19 ! Vous trouverez toutes les informations sur ce congrès sur le site dédié.

Comme toujours, le congrès de l’AFDC propose des ateliers. Il y en a 7 : « Constitution, pouvoirs et contre-pouvoirs » (n°1), « Constitution, pouvoirs locaux et démocratie locale » (n°2), « Droit constitutionnel, histoire et théorie du droit » (n°3), « Ordres constitutionnel, international et européen » (n°4), « Garanties juridictionnelles des droits et libertés fondamentaux » (n°5), « Mutations de la démocratie » (n°6), et Évolutions constitutionnelles en Méditerranée » (n°7). Il est de coutume, à l’AFDC, de se balader d’un atelier à l’autre pour écouter les différentes interventions et s’enrichir des contributions des collègues.

L’équipe du projet JADE (voir ici sur le blog du droit électoral la présentation du projet) a le plaisir de vous faire savoir que Romain Rambaud et Alya Hafsaoui feront une présentation du projet JADE dans le cadre de l’atelier n°3.

Vous trouverez sur le site du Congrès le texte de notre contribution librement téléchargeable en PDF : https://cfdc2023.univ-tln.fr/wp-content/uploads/Atelier-3-RAMBAUD-Romain-et-HAFSAOUI-Alya.pdf

On prend la liberté de le reproduire ci-dessous. Bonne lecture !

Romain Rambaud et Alya Hafsaoui

***

Présentation du projet JADE (Romain Rambaud)

« S’engager résolument dans la voie du développement des systèmes d’intelligence artificielle » (IA), tel est l’appel lancé par le Conseil d’Etat dans son étude remarquée Intelligence artificielle et action publique : construire la confiance, servir la performance. On peut y lire, ce qui est dans le contexte français une posture engagée, que « l’étude assume à cet égard aborder le sujet par les opportunités avant d’en exposer les risques, à rebours d’un réflexe souvent constaté dans la littérature, en particulier celle qui émane de la communauté juridique »[1].;  la position de l’institution détonne même, notamment lorsqu’elle affirme : « l’activité juridictionnelle est habituellement identifiée comme l’un des secteurs prometteurs (…) pour le déploiement de l’IA (…) l’effervescence irrationnelle autour du phénomène de la « justice prédictive » ne saurait (…) justifier une réaction de rejet, de dénigrement ou de défiance »[2]. Si le constat est sévère, il est cependant difficile de donner tort au Conseil d’Etat dans son appréciation du positionnement de beaucoup d’auteurs, qu’on appelle cette question « Justice prédictive »[3], « Justice numérique »[4], « Justice digitale »[5], « Jurimétrie »[6], « Justice algorithmisée »[7] ou encore, comme ici, « Justice algorithmique »[8].

Le projet interdisciplinaire « Justice algorithmique des élections » (JADE), porté par l’Université Grenoble-Alpes via le Centre de recherches juridiques (CRJ), le Laboratoire Jean Kuntzmann (LJK), le laboratoire d’informatique de Grenoble (LIG), avec le soutien de PACTE et de la chaire de société algorithmique du MIAI (Multidisciplinary Institute in Artificial intelligence), a pour objet d’utiliser des méthodes de mathématiques appliquées et d’IA à un objet juridique pour lequel elles n’ont jamais été utilisées et présentent un intérêt particulier, le contentieux des élections politiques. Il a été déposé début 2022 dans le cadre de l’IDEX de l’Université Grenoble Alpes consacré aux investissements d’avenir et a obtenu une réponse positive en juillet 2022. Ce projet dure sur la période 2022-2025. Dirigé par l’auteur de ces lignes, construit autour d’une équipe d’une quinzaine de personnes, il finance notamment une allocation de recherche sur 3 ans, obtenue par Mme Alya Hafsaoui, co-auteure et co-contributrice, dont la thèse porte sur « Les méthodologies de la justice algorithmique. L’exemple du contentieux des élections politiques ».

Le projet JADE part de l’hypothèse qu’en raison de ses caractéristiques intrinsèques, le contentieux des élections politiques pourrait constituer un terrain favorable à la justice algorithmique. Le point focal de la problématique ici est l’analyse de la sincérité du scrutin : l’office principal du juge électoral n’est pas de sanctionner des irrégularités en tant que telles mais de vérifier si la « sincérité du scrutin » a été ou non altérée, ce qui le conduit à n’annuler une élection que s’il considère qu’elles ont eu un effet réel sur le résultat du scrutin[9]. En pratique, l’un des principaux critères utilisés dans un cas d’espèce est l’« écart de voix » entre les candidats ou les listes : s’il est faible, le juge pourra considérer que l’irrégularité a eu un effet sur le scrutin, mais il jugera le contraire s’il est trop élevé. Dans le premier cas, l’élection sera annulée, mais dans le second cas, elle sera maintenue malgré les irrégularités[10]. Si le contentieux des élections politiques ne veut pas reposer sur la seule intuition, au risque sinon de tomber dans l’arbitraire, il faudrait qu’il existe une détermination « scientifique » de l’écart de voix « utile », en fonction des irrégularités constatées[11]. Pourtant, étonnamment, les travaux qui ont cherché à systématiser la question sont fort peu nombreux et ceux-ci aboutissent à des résultats contradictoires. Les premières études de la période récente ont été réalisées par Guy Prunier sur les élections législatives de 1993, 1997 et 2002 : celui-ci avait fixé le seuil à partir duquel les résultats des élections, qualifiés de « tangents », étaient susceptibles d’être remis en cause par le Conseil constitutionnel, à 400 voix, soit un peu moins de 1% des suffrages exprimés[12]. Bernard Maligner ensuite, dans deux études en date de 2013, constatait que les écarts de voix sont en général très faibles, mais arrivait au constat négatif qu’il n’existait pas de cohérence globale dans la jurisprudence du Conseil constitutionnel et du Conseil d’Etat[13]. En 2018, l’auteur de ces lignes et Ricardo Salas Rivera établissaient un seuil utile de l’écart de voix pour les élections législatives de 2017 à 1,7 % des suffrages exprimés[14]. En 2020, dans un article consacré aux élections municipales de 2014, l’auteur de ces lignes trouvait une cohérence au raisonnement du juge en termes d’écart de voix et proposait de dégager des « lois » de l’écart de voix[15]. L’objet du projet JADE est de poursuivre ces recherches non seulement en utilisant des méthodes empiriques, mais surtout des méthodes plus sophistiquées. Ce travail requiert une collaboration très étroite entre les juristes experts du contentieux électoral (CRJ et personnalité extérieures), les statisticiens (LJK), les informaticiens (LIG/MIAI), et ceux qui portent sur la justice prédictive une vue d’ensemble (PACTE/MIAI). Parmi les juristes, il suppose un travail commun entre universitaires, magistrats, documentalistes juridiques et avocats. Il est donc, sur le plan épistémologique, fondamentalement pluridisciplinaire.

Les algorithmes de la justice algorithmique se décomposent en deux étapes, qui sont suivies par le projet : la mise en place des données et leur analyse par des logiciels afin d’obtenir la solution la plus probable[16]. Une base de données informatisée du contentieux électoral est en cours de construction, sur la base des données disponibles aujourd’hui en open data en termes de contentieux électoral et d’élections, ainsi qu’une analyse juridique de celle-ci, d’abord partielle : nous nous sommes focalisés à ce stade sur le contentieux des protestations électorales législatives et sénatoriales devant le Conseil constitutionnel, et sur certains sous-échantillons en particulier, pour le moment les décisions rendues sur le fondement de l’article 38 al. 2 de l’ordonnance de 1958. Sur cette base seront développées des analyses statistiques, seront utilisés des logiciels de traitement automatique du langage afin d’engager une lecture automatique des décisions, par apprentissage supervisé (par annotation des décisions) ou non supervisé (par utilisation des chats bots de large modèle de la langage) et enfin d’analyse et d’exploration des données. Dans ce cadre donc, les outils d’IA sont utilisés en parallèle de méthodes plus classiques sur le plan juridique ou informatique. Les premiers résultats de ces recherches seront publiés dans les prochains mois dans le cadre d’une étude rédigée par Romain Rambaud, Alya Hafsaoui et Caroline Bligny, dans l’AJDA (en cours de publication). Plus de détails peuvent être donnés s’il existe un souhait en ce sens.

Bien sûr, une telle démarche pourrait paraître à rebours de la problématique de l’atelier au sein duquel « seront examinées les voies qui permettent au constitutionnaliste, en sus du regard théorique, d’échapper aux pièges épistémologiques auxquels il peut s’exposer en privilégiant une approche purement empirique ou descriptive ». Mais l’utilisation concrète de méthodes empiriques de dernière génération peut au contraire s’avérer l’occasion rêvée de discuter de l’intérêt mais aussi des limites d’une telle approche. De l’expérience concrète émerge alors la réflexion épistémologique sur l’intérêt mais aussi les pièges que l’utilisation de l’IA peut poser et sur les manières d’articuler de la bonne manière les méthodes.

Le projet JADE : implications épistémologiques de la justice algorithmique (Alya Hafsaoui)

Plusieurs points préalables se posent pour cadrer le contexte de cette contribution. Le premier point, classique mais nécessaire, est celui de la définition. Le terme empirique fait référence à l’observation et à l’expérience[17], précisément l’empirisme renvoie à « un ensemble de techniques qui permettent de recueillir et d’analyser de manière critique des données tirées de la recherche »[18]. L’usage de la recherche empirique peut répondre à une démarche déductive, qui correspond à la formation d’une problématique, d’un cadrage au regard d’une hypothèse, ou à une démarche inductive, qui consiste à théoriser à partir des résultats de l’analyse des données empiriques[19]. Plusieurs techniques peuvent alors être utilisées comme l’entretien, l’observation, l’approche statique ou statistiques des sources formelles du droit ou encore l’étude des dossiers et débats parlementaires[20], etc. La méthode peut recouvrir deux approches. Elle peut être quantitative. Elle peut également être qualitative, et doit alors remplir cinq conditions : une recherche pensée dans une logique compréhensive, qui obtient les données grâce à des méthodologies qualitatives, approchée de manière assez large, une analyse qualitative qui ne procède pas à une opération numérique et enfin qui débouche sur un récit ou une théorie[21].

Cette méthode est traditionnellement associée aux sciences expérimentales ce que n’est pas le cas du droit qui se développe hors de la notion popperienne de falsification. Elle permet d’apporter un autre complément croisé en science juridique dans le cas du commentaire de la jurisprudence où la forme du raisonnement scientifique peut se définir comme une interprétation contrôlée[22]. D’autant que le matériel fourni par les juridictions correspondent parfaitement aux exigences d’une analyse empirique rigoureuse[23]. En effet, en droit, le premier matériel utilisé dans la tradition gallo-romaine est textuel, avec une production législative mais aussi une production jurisprudentielle importantes. D’autant qu’il est reconnu que « les juridictions au sens large (tribunaux, cours, hautes cours) offrent un terrain propice à la réflexion sur l’épistémologie juridique car on est susceptible d’y trouver le droit et la science en action »[24]. Dès lors, les méthodes empiriques apparaissent être un moyen adéquat pour répondre à une exigence de scientificité, en offrant une nouvelle perspective sur les objets juridiques.

Le second point à préciser est celui d’une définition de ce qu’est l’intelligence artificielle et de manière plus générales les méthodes algorithmiques auxquelles nous faisons référence. L’intelligence artificielle est définie comme la « branche de l’informatique qui vise à représenter des fonctions cognitives humaines comme le raisonnement, la mémorisation, le jugement, la décision et à confier aux ordinateurs une partie de ces facultés que nous considérons comme relevant de l’intelligence »[25]. L’IA peut être entendue comme une machine capable de manière autonome de parvenir à des décisions ou à effectuer des actions associées à des êtres doués de cognition. La machine, aussi nommée automate abstrait est défini par la présence de calculs qui passe par la mise en place d’algorithmes[26], d’autant plus car la place exponentielle prise par l’IA repose sur l’explosion de la puissance de calcul des ordinateurs actuels[27].

Les méthodes algorithmiques, telles que les membres du projet souhaitent les utiliser pour mieux comprendre la manière dont le contentieux électoral fonctionne exigent d’analyser le contenu des décisions de justice[28] et offrent la possibilité d’apporter un autre éclairage sur le « champ juridique »[29] tel que Pierre Bourdieu l’avait conceptualisé. Le contentieux électoral, de par sa stabilité, bénéficie d’une doctrine sur le temps long avec un regard spécialisé et aiguisé sur le fonctionnement précis du raisonnement juridique en la matière. La méthode empirique est donc une autre voie méthodologique pour renforcer les interprétations déjà présentes mais aussi pour compléter ou répondre à des questions dont la doctrine universitaire ou les analyses des praticiens se font l’écho.

Toutefois, l’usage et ses caractéristiques ne peut être déterminés que par une connaissance approfondie des objets analysés eu égard aux catégories scientifiquement circonscrites selon la nature des données et les finalités spécifiées[30]. La principale difficulté dans l’usage des méthodes empiriques de type quantitative est avant tout de contextualiser les objets dans le cadre de la discussion scientifique. Une double analyse interdisciplinaire est donc nécessaire pour comprendre les limites et les définitions rigoureuses des objets juridiques mais aussi connaître les limites et la portée raisonnable des outils algorithmiques, notamment les dispositifs d’IA qui sont généralement des boîtes noires[31].

Les algorithmes sont composés des « suites d’instructions univoques guidant un ordinateur vers l’exécution d’une tâche, laquelle consiste en la résolution d’un problème. Ils permettent, entre autres choses, le traçage de l’information et sa décomposition en quelques entités élémentaires en vue d’un traitement mathématique »[32]. Cependant, la réduction du travail jurisprudentiel à des algorithmes, selon un profil du type des systèmes-experts, est très difficile en raison de son coût technique et humain, raison pour laquelle il peut être tentant, aujourd’hui, de s’intéresser aux différentes techniques issues aux autres méthodes de l’intelligence artificielle. Mais ceux-ci présentent eux-mêmes d’importantes limites.

Du point de vue de la recherche scientifique, le développement exponentiel des méthodes usant d’IA a créé une controverse quand Chris Anderson a argué que c’était la fin de la démarche scientifique tel que conceptualisé jusqu’à lors pour la remplacer par « l’analyse de corrélations dans d’immenses bases de données »[33]. Cette controverse illustre que la compréhension profonde des techniques empiriques contraignent les conclusions possibles par le biais d’une technique empirique. Dans le cas de l’IA, les outils de justice algorithmique ne peuvent que produire des corrélations, parfois qui font sens avec la théorie et la pratique juridique et parfois qui ne sont qu’un hasard. En effet, les machines n’ont aucune capacité cognitive de compréhension d’un domaine de connaissances, elles ne sont pas en mesure de produire des raisonnements, des déductions, des inductions ou des abductions[34]. Dès lors, les outils de la justice algorithmique sont des immenses « boîtes noires »[35] dont les sorties sont nécessairement biaisées par les données obtenues et donc les choix réalisés par leurs concepteurs[36].

Par exemple, les résultats ne prennent pas nécessairement en compte la hiérarchisation des décisions de justice menant à une confusion entre le contentieux et la jurisprudence en ce qu’elle a une influence normative. L’une des principales limites de ces méthodes se trouve ainsi dans la factualisation du droit que peuvent opérer ces méthodes[37].

Il existe également des limites symboliques. En effet ces outils « procèdent, dans leur démarche même, d’un double rabattement : « du politique sur la nature, et de la nature sur sa dimension calculable ». Les traitements algorithmiques, dans leur principe même, opèrent en cela une révolution symbolique, en traitant le langage des décisions de justice, imprégné de références culturelles et de significations juridiques, limité par les circonstances et qualifications précises du cas qui était soumis aux juges, comme une suite de nombres. Cette dernière, pour être calculable, est nécessairement a-signi-fiante, a-symbolique »[38]. Or la justice rendue dans les tribunaux est remplie de symboles, comprise socialement par les profanes comme par les professionnels au regard du pouvoir d’appréciation des juges[39].

Ainsi, les méthodes d’intelligence artificielle dans la justice restent limitées dans leurs fondements même car dans un système axiomatique comme les mathématiques, et donc les outils algorithmiques, il n’est possible de créer que des énoncés dont la validité dépend du cadre même des règles qui ordonnent leurs formulations[40]. Autrement dit, les théories sont incomplètes car elles reposent sur des axiomes ni démontrables ni réfutables. Par conséquent, les outcomes obtenus ne peuvent pas être certifiés selon une méthode de vérification de leur fiabilité[41]. Par conséquent, cette méthode seule ne permet pas de savoir si les outils algorithmiques font correctement ce qu’ils ont appris les rendant incapables de créer des connaissances de manière autonome. L’intelligence artificielle continue d’avoir besoin de l’intelligence humaine : la question est de savoir si et comment les deux, dans l’avenir, s’articuleront.


[1] CE, Intelligence artificielle et action publique : construire la confiance, servir la performance, Ass. gen. plenière, 31 mars 2022, p. 19.

[2] Ibid., p. 297.

[3] v. Ordre des avocats au Conseil d’Etat et à la Cour de cassation, La justice prédictive, Dalloz, 2018 ; ou La justice prédictive, Archives de philosophie du droit, T. 80, 2018.

[4] F. G’Sell, Justice numérique, Dalloz, 2021.

[5] A. Garapon, J. Lassiège, Justice digitale, PUF, 2018.

[6] v. récemment C. Quézel-Ambrunaz, « À la recherche d’une définition de la Jurimétrie », Jurimétrie, n°1, 2022.

[7]  A. Basdevant, A. Jean, V. Storchan, Mécanisme d’une justice algorithmisée, note de la Fondation Jean Jaurès, 2021.

[8] S. Lebreton-Derrien, « La justice prédictive. Introduction à une justice « simplement » virtuelle », Archives de philosophie du droit, prec., p. 3 ; L. Godefroy, F. Lebaron, J. Levy-Véhel, Comment le numérique transforme le droit et la justice vers de nouveaux usages et un bouleversement de la prise de décision, Rapport final, mission Droit et Justice, 2019, p. 111 et s.

[9] R. Ghevontian, « La notion de sincérité du scrutin », Cahiers du Conseil constitutionnel, n° 13, janv. 2003.

[10] B. Maligner, Droit électoral, Ellipses, 2007 p. 891.

[11] B. Maligner, « Le Conseil constitutionnel, juge des opérations et des finances électorales », in Le Conseil constitutionnel, juge électoral, Les Nouveaux Cahiers du Conseil constitutionnel, n° 41, oct. 2013

[12] G. Prunier, LPA 10 déc. 2003, n° PA200324603, p. 8.

[13] B. Maligner, « Qu’est-ce qu’un faible écart de voix dans la jurisprudence récente du Conseil d’État et du Conseil constitutionnel ? », in C. Boutayeb (dir.), La Constitution, l’Europe et le droit, Mélanges en l’honneur de Jean-Claude Masclet, Publ. de la Sorbonne, 2013, p. 298 ; « Le Conseil constitutionnel, juge des opérations et des finances électorales », prec.

[14] R. Rambaud, R. Salas Rivera, « Le contentieux direct des élections législatives de 2017 », AJDA, 2018, p. 1314.

[15] R. Rambaud, « Les « lois » de l’écart de voix », AJDA, 2020, p. 1596.

[16] R. Rouvière, « La justice prédictive, version moderne de la boule de cristal », RTD Civ, 2017, p.527

[17] L. Epstein, G. King, « The Rules of Inference » [en ligne], in : University of Chicago Law Review, Vol 69, 2022, [consulté le 5 mai 2023]. https://chicagounbound.uchicago.edu/uclrev/vol69/iss1/1/

[18] E. Bernheim, D. Gesualdi-Fecteau, P. Noreau, V. Fortin, « Introduction, La recherche empirique en droit : prolégomènes », in La recherche empirique : méthodes et pratiques, Thémis, 2022, p. 1 – 28

[19] Idem.

[20] G. Vallée, « La jurisprudence, les archives institutionnelles et les entrevues : des sources utiles pour une étude empirique du droit ? L’exemple de recherches en droit du travail », in La recherche empirique : méthodes et pratiques, Thémis, 2022, p. 57 – 80

[21] P. Paillé, « Recherche qualitative », in ALEX MUCHELLI (dir.), Dictionnaire des méthodes qualitatives en sciences humaines et sociales, Armand Colin, 3è ed., 2009, p. 218

[22] J-C. PASSERON, Le raisonnement sociologique. L’espace non-popperien du raisonnement naturel, Nathan, 1992, p. 408

[23] R. Melot, J. Pélisse,« Prendre la mesure du droit : enjeux de l’observation statistique pour la sociologie juridique », in : Droit et société, n°69-70, 2008, p. 331-346.

[24] C. Bosvieux-Oneykwelu, « Le droit, science et pratique : état des lieux de l’épistémologie juridique en France » in : Zilsel, n°4, 2018, p. 231 – 261.

[25] D. Bourcier, « De l’intelligence artificielle à la personne virtuelle : émergence d’une entité juridique ? », Droit et société, N°49, 2001, p. 847-871.

[26] J. Lassègue, L’intelligence artificielle, technologie de la vision numérique du monde. In : Les Cahiers de la Justice, n°2, 2019, pp. 205 – 219.

[27] K. Benyekhlef, J. Zhu, « Intelligence artificielle et justice : la justice prédictive, conflits de basse intensité et données massives ». In : Les Cahiers de propriété intellectuelle, Vol 30, n°3, 2018, pp. 789 – 826.

[28] Y. Aguira (dir.), Quelles perspectives pour la recherche juridique ?, Presses universitaires de France, 2007, p. 186.

[29] P. Bourdieu, « La force du droit. Éléments pour une sociologie du champ juridique », Actes Rech. En Sci. Soc, 1986, pp. 3-19.

[30] A. Jeanmaud, É. Serverin, « Évaluer le droit », in : Recueil Dalloz Sirey, 1992, Chr. LII 263, p. 266.

[31] E. Vergès, « Le juge face à la boîte noire : l’IA au tribunal », in : Recueil Dalloz, n°38 , 2022, p. 1920.

[32] C. Dubois, F. Schoenaers, Les algorithmes dans le droit : illusions et (r)évolutions ? Présentation du dossier. In : Droit et société, n° 103, 2019, pp. 501 – 515

[33] M. Mézard, « L’intelligence artificielle et la démarche scientifique » in : Le Débat, n°207, 2019, p. 148 – 156

[34] Idem

[35] F. Molinié, Le point de vue de l’avocat. In : La justice prédictive. Actes du colloque du 12 février 2018 organisé par l’ordre des avocats au Conseil d’État et à la Cour de Cassation à l’occasion de son bicentenaire, en partenariat avec l’Université Paris-Dauphine PSL Dalloz, 2018, p. 122

[36] C. O’Neil, Cathy. Algorithmes, la bombe à retardement. Les arènes, 2018, p. 343

[37] E. Jeauland, Justice prédictive : de la factualisation au droit potentiel. In : Revue pratique de la prospective et de l’innovation, n°2, 2017

[38]A. Garapon, J, Lassègie, Jean. Justice digitale. Révolution graphique et rupture anthropologique, PUF, 2018, p. 364

[39] F. Michaut, La recherche d’un nouveau paradigme de la décision judiciaire à travers un siècle de doctrine américaine. L’Harmattan, 2000

[40] J. Shara, « The Impact of Gödel on AI » in : European Scientific Journal, vol 3., 2014, p. 172 – 175

[41] R. Ikonicoff, « L’I.A. se prend le mur de Gödel » [en ligne], Science&Vie, 24 octobre 2019 [ consulté le 31 mai 2023]. https://www.science-et-vie.com/article-magazine/li-a-se-prend-le-mur-de-godel