ChatGPT peut-il remplacer votre avocat ?

ChatGPT peut-il se substituer à un avocat ? Découvrez les limites légales et pratiques de l'IA dans le domaine du droit.

Derrière ce titre racoleur, un sujet d’actualité incontournable qui doit être abordé en examinant deux aspects clés :

  1. Métier: ChatGPT est-il capable de fournir des conseils rivalisant avec ceux d’un avocat?
  2. Légal: ChatGPT viole-t-il le monopole du conseil juridique conféré aux professionnels du droit par la Loi n° 71-1130 du 31 décembre 1971 ?

Cet article ne se concentrera pas uniquement sur ChatGPT, mais sur les intelligences artificielles (IA) basées sur le paradigme des Large Language Model (LLM), telles que ChatGPT et ses concurrentes : Mistral, Claude, Microsoft CoPilot ou Google Gemini, par exemple. Nous examinerons plus particulièrement l’impact de ces IA sur les avocats spécialisés en droit des affaires.

Les conseils de ChatGPT peuvent-ils rivaliser avec ceux d’un avocat ?

Les récentes avancées en intelligence artificielle ont révolutionné notre façon de travailler. Tout comme Internet et les smartphones ont déboulé dans nos vies avant les voitures volantes, les IA ont débarqué avant le metaverse. Et ces percées ont bouleversé nos certitudes de cols blancs: celles que l’innovation technologique automatise le travail répétitif des petites mains, mais ne peut pas s’approcher des aspects essentiels de l’humanité tels que la compréhension du monde, la résolution de problèmes et la créativité.

Dans le domaine juridique, il est facile de se rassurer en citant des exemples tels que l’application iAvocat, qui a fait sensation en ce début d’année 2024 en se présentant comme « le cauchemar des avocats ». En pratique, comme ironisé par Maitre Eolas, « pour seulement 149€ par an, [iAvocat] vous invente des lois ».

Mais pour être objectif, il est difficile d’ignorer des études plus sérieuses, comme celle démontrant que ChatGPT est meilleur que 90% des candidats à l’examen standardisé du barreau aux Etats-Unis, ce qui le le rend théoriquement admissible à l’exercice du droit… Ou cette autre étude « Better Call GPT, Comparing Large Language Models Against Lawyers » qui tend à démontrer que les révisions de contrats par LLM sont qualitativement au niveau de celles réalisées par un avocat junior ou un juriste externe, pour une fraction de son coût…

Donc, le match est-il déjà plié ? Les IA vont-elles remplacer les avocats à terme ? Non. Bien que remarquables, les IA restent des outils et ont leurs limites.

La première réside dans le choix de l’IA. Les différentes IA disponibles aujourd’hui ont chacune leurs avantages et inconvénients, ce qui les rend plus ou moins adaptées à une problématique donnée. Le niveau de performance d’une IA légale variera considérablement en fonction du choix entre une IA open source comme Mistral 7B que vous pouvez lancer sur votre ordinateur portable, une autre IA Open Source comme Big Llama 2 nécessitant des investissements importants dans des serveurs, ou un ChatGPT propriétaire fourni par OpenAI, même si cela implique des concessions sur la confidentialité des données.

La deuxième limite découle d’un mythe : celui de l’Intelligence Artificielle Générale, une IA qui serait compétente dans tous les domaines comme les humains. Bien que ce soit un objectif pour les chercheurs en IA, cette réalité n’est pas encore atteinte. Une IA spécialisée doit avoir un cadre défini pour sa mission et être capable de justifier ses réponses par une base documentaire de référence. Sans cette spécialisation, les hallucinations des IA sont plus fréquentes et difficiles à remarquer.

Le cadre d’une IA comprend un « prompt » – un ensemble d’instructions données à l’IA décrivant en langage naturel le périmètre de sa mission – et des données d’apprentissage. Une esquisse de prompt pour une IA légale spécialisée en constitution des sociétés pourrait être de « collecter toutes les informations nécessaires à la constitution d’une SAS en France, et de rejeter courtoisement tout autre demande de constitution« . Ce prompt évitera que l’IA vous propose par erreur des statuts conformes au droit Québecois, au lieu du droit français. Mais il devra être enrichi pour que l’IA n’oublie pas de demander le nombre d’associés, et le statut marital de chacun. Dans cet exemple, les données d’apprentissage pourraient être des milliers d’exemples de statuts sociaux, de pactes, de procès verbaux sur lesquels aura été entrainée l’IA pour que les textes générés adoptent le langage juridique, ses codes, conventions, références. Cette spécialisation par apprentissage d’une IA générique s’appelle le FineTuning.

A ce cadre, il faut ajouter une base documentaire que doit référencer l’IA dans ses réponses pour les crédibiliser. Cette approche, appelée Retrieval Augmented Generation (RAG), peut s’appuyer sur une base documentaire publique: la constitution, le code civil, le code de commerce, les jurisprudences, etc. Mais elle aura encore plus de valeur si elle est spécifique au cabinet d’avocat, et que l’IA peut non seulement se référer aux textes de lois, mais aux solutions précédemment proposées par le cabinet pour une même problématique. Dans ce cadre, face à une problématique d’optimisation fiscale pour une transmission de patrimoine, l’IA ne donnerait pas seulement les options possibles, mais préciserait « il y a deux ans, voilà la solution mise en place par X dans le projet Y« .

Donc, si un cabinet sélectionne soigneusement une IA, lui fournit un prompt irréprochable, l’entraine sur des données sélectionnées, et lui fournit une base documentaire de référence bien structurée, les avocats peuvent laisser l’IA traiter leurs dossiers pendant qu’ils vont jouer au golf ?

Malheureusement, toujours pas.

Faire confiance aveuglément aux réponses d’une IA, c’est un peu comme utiliser le bouton « J’ai de la chance » de Google. Ce bouton vous redirige directement vers le premier résultat de la première page de réponses. C’est très souvent pertinent, mais fréquemment, le meilleur résultat ne sera pas le premier, et vous ne le saurez pas. Une IA correctement paramétrée fera gagner énormément de temps à un cabinet, mais seul un expert détectera au milieu de la réponse assurée de l’IA les hallucinations ou oublis. Demandez à ChatGPT de vous générer des statuts de SAS, vous serez impressionnés par leur pertinence et par les capacités de ChatGPT à les améliorer en dialoguant avec lui. Vous vous direz qu’ils sont presque bons. Mais ce « presque », dans un contexte légal, est inacceptable. Il n’est pas envisageable qu’à chaque nouvelle génération, ces statuts varient légèrement, et que vous ne puissiez pas faire aveuglément confiance à l’IA. Vous allez peut être vous inspirer de ces statuts, mais jamais les utiliser tels quels. Vous choisirez toujours les statuts que vous avez mis des années à peaufiner, dans lesquels chaque article est réfléchi, chaque mot soigneusement pesé, des statuts qui incarnent votre compétence. C’est ce constat qui amène NeoLegal à s’appuyer sur l’IA, mais à développer des outils garantissant que les documents générés sont toujours strictement conformes aux modèles.

La qualité des réponses est un élément critique, mais un autre facteur ne peut pas être négligé: le coût du conseil juridique. Si quelqu’un n’a pas les moyens de s’offrir les services d’un avocat, vaut-il mieux qu’il abandonne, ou qu’il se tourne vers une IA qui ne sera pas aussi fiable, mais qui démontrera une plus grande maitrise du droit que son utilisateur, pour une fraction du coût d’une consultation ? Et si cette personne décide de se tourner vers une IA, cette dernière peut-elle légalement lui donner des conseils juridiques ?

Légalement, ChatGPT peut-il donner des conseils juridiques ?

Je ne suis pas avocat, ma compréhension du monopole du conseil détenu par les avocats s’appuie sur l’article 54 de la Loi n° 71-1130 du 31 décembre 1971 qui stipule que « nul ne peut, directement ou par personne interposée, à titre habituel et rémunéré, donner des consultations juridiques ou rédiger des actes sous seing privé, pour autrui », à l’exception des avocats, juristes, notaires, définis par les articles suivants.

Mais il n’existe apparemment aucune définition claire de ce qu’est une “consultation juridique” au sein des textes législatifs, même si cette notion a fait l’objet de réflexions, notamment dans la réponse ministérielle du 28 mai 1992, dans laquelle il apparait clairement que la consultation juridique nécessite un apport intellectuel de celui qui fournit ce service. L’avocat donne donc un avis personnel concernant une question juridique.

La loi a toujours un temps de retard par rapport à la technologie. Il y a 40 ans, savoir dans quel code poussiéreux chercher un article de référence était peut être considéré comme une prestation intellectuelle. Depuis, les codes ont été numérisés pour faciliter leur exploitation, sans enfreindre pour autant le monopole du conseil juridique. Laisser Google indexer ces documents et répondre aux recherches de ses utilisateurs par les sections correspondantes, semble aussi respectueux de la loi. Utiliser ces outils pour établir un comparatif des avantages sociaux des différentes formes sociales pour une future société n’enfreint toujours pas la loi. Mais demander à une IA de faire exactement cette comparaison et de fournir directement le résultat empièterait sur le monopole des avocats, et serait la limite à ne pas franchir ? Jusqu’à quel point une IA est-elle une simple aide à la navigation dans les textes de loi – que nul citoyen n’est censé ignorer – et à partir de quel moment empiète-t-elle sur la chasse gardée des avocats ?

Les actions intentées par le conseil national des barreaux contre des startups legaltech, comme Doctrine, DemanderJustice.com ou SaisirPruhommes.com sont des combats d’arrière garde. L’approche visant à encadrer et guider l’innovation, comme avec Paris Legal Makers, est probablement beaucoup plus constructive. Après seulement un an d’existence, ChatGPT avait séduit 67% des cadres, dont 57% l’utilisaient hebdomadairement. Aucune technologie n’a jamais été adoptée aussi rapidement. Peu importe les imperfections de l’IA, si autant d’utilisateurs se tournent vers elle, c’est qu’ils lui reconnaissent une valeur. Freiner par des actions légales les innovations réalisées en France sous le prétexte du monopole du conseil juridique aura l’avantage de susciter un débat et une clarification de la notion de « conseil juridique » et de « prestation intellectuelle », mais risque surtout de favoriser des acteurs basés à l’étranger.

Toutefois, le flou autour de ces concepts laisse suffisamment d’espace pour permettre l’éclosion d’assistants juridiques virtuels légaux destinés au grand public. Ce flou permet par exemple à ChatGPT de ne pas violer la loi : l’outil n’est pas présenté comme un conseil juridique, et ses réponses invitent toujours à consulter un professionnel. Il est probable que d’ici quelques années, pour ne pas dire quelques mois, notre définition du « conseil juridique » exclura tout un ensemble de problématiques communes traitées par les IA, tout comme on ne considère pas aujourd’hui que Google fasse du conseil juridique en nous listant les textes de lois, articles, blogs liés à une problématique.

En conclusion, ChatGPT peut-il, oui ou non, remplacer un avocat ?

En dépit de leurs limites, des IA spécialisées dans le domaine légal peuvent donc être de formidables outils pour les professionnels du droit. Et même si la consultation d’un avocat est toujours préférable, ces IA légales pourraient être une alternative pertinente pour des particuliers n’ayant pas accès à un professionnel du droit, tout comme des IA médicales seraient appréciées par ceux qui n’ont pas accès à un médecin, sans pour autant prétendre le remplacer.

Et si la loi donne le monopole du conseil juridique aux professionnels du droit, le flou autour des termes « conseil juridique » et « prestation intellectuelle » laisse suffisamment d’espace pour permettre l’éclosion d’assistants juridiques virtuels respectant le cadre légal.

« ChatGPT peut-il remplacer un avocat ? » n’est pas la bonne question. La question serait plutôt « Quel sera l’impact de l’IA sur le milieu légal ?« . Le recul est insuffisant pour évaluer les impacts que ChatGPT a déjà eus, mais des tendances se dessinent. Aux Etats-Unis, les témoignages se multiplient concernant la contraction du marché de l’emploi dans certains secteurs en première ligne face à l’IA, comme le copy-writing, le web-design ou la photo. Les chefs d’entreprises affirment pour 37% d’entre eux avoir déjà procédé à des licenciements à cause de l’IA. ChatGPT est devenu en un an un outil utilisé par la majorité des cadres. Les professionnels du droit doivent dès aujourd’hui s’adapter. Ils devront accepter la chute des revenus tirés d’actes répétitifs, dans lesquels leur contribution se limite à remplacer des noms et des montants dans des documents légaux. C’est sur ce secteur que l’IA, ou des outils comme ceux de NeoLegal brillent. Ce marché était de toute façon déjà attaqué par des startups comme LegalStart, ou LegalPilot avant la percée des IA. Mais s’appuyer sur ces outils au lieu de les affronter leur permettra de se concentrer sur leur mission de conseil, à forte valeur ajoutée, et sur des aspects du métier sur lesquels l’IA ne peut pas les concurrencer, comme la plaidoirie.

Je laisserai le mot de la fin au principal intéressé, ChatGPT, qui, à la question « Peux tu remplacer un avocat ? », répond humblement :

« En tant qu’intelligence artificielle, je ne peux pas remplacer un avocat au sens traditionnel du terme. Les avocats ont des compétences spécialisées en droit et en représentation juridique qui sont indispensables dans de nombreuses situations légales. Cependant, je peux fournir des informations générales sur le droit et les procédures légales, ainsi que des conseils sur les questions juridiques dans la mesure de mes capacités. »

Image de Nicolas Riousset

Nicolas Riousset

Président et fondateur de NeoLegal, développe des solutions logicielles qui facilitent le quotidien des professionnels du droit des sociétés.

Sur le même sujet