Le 30 septembre dernier, lors de la Nuit du Droit, l’Université d’Avignon accueillait une conférence sur le thème « La justice face à l’intelligence artificielle. » Des représentants du Tribunal judiciaire d’Avignon, du Barreau et de l’UFR de droit ont partagé leurs réflexions et préoccupations sur ce sujet.
Cette rencontre a été l’occasion d’écouter des perspectives issues de non-spécialistes de l’IA, avec leurs attentes et leurs craintes. Ce dialogue est essentiel : il expose la manière dont la société perçoit l’IA, en dehors des cercles techniques, et révèle des besoins et des zones d’incompréhension.
Cependant, un manque de coordination avec le département d’informatique de l’université (le CERI), a conduit à certaines erreurs sur la nature et les capacités des IA actuelles. La présence d’un enseignant-chercheur aurait sans doute apporté des éclaircissements nécessaires et réorienté certains points de vue.
Trois exemples clés discutés lors de la conférence m’ont particulièrement marqué, parce qu’ils étaient pertinents, mais les conclusions erronées ou incomplètes. Ces exemples illustraient les hallucinations des IA, leurs biais, et les enjeux de fiabilité de la justice prédictive.
1. Les Hallucinations des IA : Un Problème en Voie de Résolution
Les conférenciers ont évoqué les « hallucinations » des IA, c’est-à-dire la capacité de ces modèles à inventer des des jurisprudences, des lois, ou des faits inexistants. Un cas concret a été abordé : un avocat américain qui, sans vérifier les sources générées par ChatGPT, a fait référence à des arrêts fictifs. Une démo d’hallucination de ChatGPT en direct a renforcé le point. Ce problème était effectivement critique, il y a un an. Il l’est bien moins aujourd’hui, notamment avec les outils de Génération Augmentée de Récupération (RAG en anglais), comme Perplexity, qui minimisent les risques d’hallucination en citant leurs sources.
Bien sûr, le problème des hallucinations subsiste pour les utilisateurs peu avertis, mais il est possible de le réduire en sélectionnant des outils spécialisés (des IA juridiques, au lieu de ChatGPT par exemple), et en sensibilisant les utilisateurs à faire preuve de plus de vigilance. Plutôt que de voir ce défaut comme un obstacle rédhibitoire, il semble plus pertinent d’adopter une approche prudente et critique dans l’utilisation de l’IA en contexte juridique.
2. Les Biais des IA : Plus Facilement Corrigeables que Ceux des Humains
La question des biais dans les systèmes d’IA a également été discutée, avec des exemples frappants. Aux Pays-Bas, une IA de détection de fraudes sociales a suspecté en priorité des personnes issues de minorités ethniques ; aux États-Unis, des modèles de prévision de récidives surévaluent le risque pour les personnes de couleur. Ces biais ne sont pas propres à l’IA : ils ne font que refléter des biais humains, historiques ou institutionnels.
Cependant, l’avantage de l’IA est qu’on peut théoriquement corriger ses biais plus facilement que ceux des humains. En ajustant les données d’apprentissage, en omettant certaines informations comme l’origine ou la couleur de peau, on peut réduire le risque de discrimination algorithmique. À l’inverse, changer le comportement humain et supprimer des préjugés ancrés demande bien plus d’efforts et de temps.
3. La Fiabilité de la Justice Prédictive : Problème d’IA ou Problème de Justice ?
Enfin, les conférenciers ont abordé la justice prédictive, avec un exemple de modèle de prédiction des placements d’enfants dans des procédures judiciaires. Dans ce domaine, les IA semblent moins efficaces que dans d’autres, comme l’estimation des dommages et intérêts. Cette difficulté a été interprétée comme une limite de la technologie et une preuve de la nécessité d’une supervision humaine.
Mais cela pose aussi une question fondamentale : et si le problème résidait moins dans l’IA que dans le système judiciaire lui-même ? L’incapacité des IA à prévoir certaines décisions pourrait révéler une incohérence dans la prise de décision judiciaire. Une machine pourrait-elle prédire un verdict si celui-ci dépend majoritairement de l’interprétation personnelle du juge ? Peut-être, au fond, que la difficulté de l’IA à « comprendre » certains domaines de justice reflète une hétérogénéité que nous tolérons chez les humains mais qui pourrait interroger notre confiance en l’impartialité du système.
Au fait, Des IA au Service de Qui ?
Un point n’a pas été discuté, mais il est central : quelles sont nos attentes vis-à-vis du comportement de ces IA ? Est-ce que leurs prédictions, par exemple, devraient refléter les pratiques existantes, ou au contraire viser un idéal de justice, débarrassé des préjugés ? Les attentes des différents acteurs de la justice (juges, avocats), pourraient ne pas être alignées.
En Conclusion : IA et Justice, une Collaboration Inévitable, Souhaitable mais à Encadrer
Le format court de cette conférence (à peine 1h30 pour 3 conférenciers, en incluant 5 minutes de questions) n’aura pas permis aux orateurs de développer leurs réflexions, ou simplement de répondre aux questions qu’ils ont pu susciter.
En dépit de certains angles perfectibles, la conférence a mis en lumière des questions fondamentales. L’IA peut alléger la charge de travail des tribunaux en accélérant les procédures simples et en évitant des procès inutiles lorsque la prédiction de l’issue est claire. Toutefois, la peur d’un remplacement des jeunes professionnels du droit est réelle et légitime. Le même problème se pose d’ailleurs dans le monde du développement : si l’IA traite les tâches jusqu’à présent confiées à du personnel inexpérimenté, comment formerons-nous les experts de demain ?
Mais le paradoxe de cette nuit du droit a été qu’en s’appliquant à démontrer les failles et limites des IA, les conférenciers ont surtout illustré celles de la justice humaine, à travers la saturation chronique d’un système qui pousse ses acteurs à traiter leurs dossiers plus rapidement et donc plus superficiellement, à travers les biais et à-prioris de ceux qui la rendent, à travers la disparité des jugements concernant des affaires similaires.
Finalement, ce qui se devine peut être derrière ces exemples maladroits est, comme dans beaucoup d’autres domaines, la peur de l’automatisation. On pointe les défaillances de l’IA pour se rassurer, pour se convaincre qu’elle ne peut pas nous remplacer, au lieu de ne voir en elle que ce qu’elle est : un outil qui pourrait aider à mieux faire nos métiers, dans de meilleures conditions, s’il est adéquatement utilisé, et correctement encadré.