Intelligence artificielle dans le secteur juridique : risques et opportunités

Les promesses de l’IA pour les juristes sont nombreuses et vont transformer notre manière d’exercer. Si l’IA est porteuse de nombreuses opportunités dans le secteur juridique, son utilisation n’est cependant pas sans risques.

De nombreuses legaltechs étaient présentes cette année à Vivatech, le rendez-vous incontournable de l’innovation. Si les premières legaltechs sont apparues en France dans les années 2000, les progrès récents de l’IA générative semblent révolutionner les capacités des outils à la disposition des professionnels du droit. D’après l’étude récente menée par Lexis-Nexis sur l’IA Générative & les Professionnels du Droit en France, 92% des répondants connaissent l’IA générative et 49% l’utilisent ou prévoient de l’utiliser dans leur pratique du droit[1].

Les promesses de l’IA sont nombreuses : permettre au juriste d’être plus performant, plus efficace, devenir un « juriste augmenté », réduire les coûts en automatisant certaines tâches répétitives à faible valeur ajoutée, rédiger des documents juridiques personnalisés, identifier des arguments juridiques, aider à la prise de décision, évaluer les chances de succès d’une action judiciaire… 

Cependant, ces opportunités n’effacent pas les risques que soulève l’IA, notamment dans le domaine juridique si complexe : affabulations, biais, atteinte à la confidentialité et au secret, accentuation de la fracture numérique. 

Les développements de l’IA dans le secteur juridique 

Les apports de l’IA dans l’accès à l’information juridique, la traduction, le classement de documents sont incontestables. L’efficacité de l’indexation de l’information et des moteurs de recherches rend les résultats plus précis et pertinents. De même, l’obtention d’une première ébauche de traduction de documents entiers en quelques minutes permet à n’en pas douter un gain de temps et d’efficacité.

L’IA générative va plus loin et peut aider le professionnel du droit dans la rédaction et la révision de documents juridiques : courriels, comptes-rendus de réunions, contrats, mémorandums et projets de conclusions, analyse de documents… 

Certains éditeurs proposent ainsi une aide à la rédaction de contrats, et la recommandation de clauses, sur la base de contrats précédemment utilisés par l’utilisateur. On voit ici tout l’intérêt de la démarche : ce qui aurait hier nécessité des heures de travail d’indexation manuelle de documents et de clauses, peut être fait en quelques minutes par une IA dont le propre est justement de savoir brasser une quantité phénoménale de données et de documents.

Dans le domaine de la justice, les systèmes d’IA (« SIA ») ne sont pas en reste. Ceux-ci sont désormais aptes à modéliser des tendances judiciaires ; conçus comme des outils d’aide à la décision (justice dite « prédictive »[2]). Ceux-ci promettent aux professionnels du droit d’évaluer l’aléa d’un scénario juridique donné, les chances de succès d’une action judiciaire, les arguments de nature à influer sur la décision du juge ou encore le montant des indemnités qui pourraient être allouées par ce dernier.

Ce ne sont ici que quelques exemples des nombreuses solutions d’IA dédiée au secteur juridique qui apparaissent sur le marché. Les opportunités qu’elles offrent ne peuvent être ignorées par la profession. 

Quelques cabinets d’avocats ont d’ores et déjà investi dans l’IA, certains développant même leurs propres solutions internes. Toutefois, seuls 47% des professionnels du droit utilisent l’IA générative et ce chiffre tombe à 19% pour une utilisation dans leur pratique du droit[3]. Cette utilisation de l’IA générative concernerait majoritairement la recherche d’informations, l’aide à la rédaction de documents, de courriels et l’analyse de documents[4].

Les limites et questions que soulève l’IA dans le secteur juridique 

Si l’IA peine encore à être adoptée par certains professionnels du droit, c’est certainement en raison des limites actuelles de certaines de ces technologies en termes de fiabilité, mais également au regard des questions juridiques et éthiques que génère son utilisation.

Tout d’abord, l’IA générative commet des erreurs : elle affabule, elle hallucine. L’IA, au regard des données à sa disposition et des instructions reçues (prompts ou invite[5]), peut en effet inventer des réponses plausibles. Elle peut par exemple créer une jurisprudence, ou même une loi pour répondre à une question posée.

C’est ce qui est arrivé à un cabinet d’avocats américain qui avait utilisé ChatGPT dans le cadre de ses recherches et qui avait visé des jurisprudences fournies par l’IA dans ses écritures, jurisprudences qui n’avaient en réalité jamais existé. 

OpenAI, l’éditeur de ChatGPT, est d’ailleurs parfaitement conscient de cette limite, puisque dès votre connexion à l’outil, l’utilisateur est clairement informé : « Vérifiez les informations : Bien que nous ayons mis en place des mesures de protection, ChatGPT peut parfois vous fournir des informations inexactes. Il n’est pas destiné à donner des conseils. ». 

Faut-il pour autant se détourner de l’IA et des bénéfices qu’elle peut apporter ? 

Tout d’abord, les grands éditeurs juridiques proposent de limiter ces risques, en connectant leur système d’IA générative à une base de connaissances complète, fiable et dédiée au secteur du droit. Ensuite, il est important de savoir rédiger les invites, voire de se former pour cela, afin de minimiser autant que possible les affabulations. Enfin, et dans tous les cas, il est indispensable de conserver un esprit critique et surtout de vérifier les réponses fournies par l’IA. 

Ensuite, c’est la question de la confidentialité des données qui inquiète et freine la plupart des juristes dans leur recours aux SIA, notamment générative. Cette question de la confidentialité se pose tant dans la phase d’entraînement des SIA, qui ont besoin de très nombreuses données pour apprendre à faire leurs prédictions, que pendant la phase d’utilisation, lorsque des données et documents sont injectés dans la solution pour obtenir un résultat (invites, documents à traduire, à classer, à analyser, vidéo d’une réunion à retranscrire ou à résumer…). 

Cette question se pose avec une acuité toute particulière pour les professionnels du droit soumis à des obligations de confidentialité au regard de leurs contrats de travail ou parce qu’ils sont tenus au secret professionnel par leurs règles déontologiques[6].

Là encore, ChatGPT alerte l’utilisateur dès sa connexion : « Ne partagez pas d’informations sensibles. L’historique des chats peut être examiné ou utilisé pour améliorer nos services ». C’est pourquoi, avant toute utilisation de tels SIA, il est indispensable de vérifier leurs conditions d’utilisation afin de s’assurer que les données restent confidentielles et qu’elles ne sont pas réutilisées à d’autres fins que fournir le service souscrit. 

Dans le même ordre d’idée, les mesures de sécurité mises en œuvre doivent être vérifiées. Elles doivent être adaptées aux risques que présenterait un accès illégitime aux données, car les SIA ne sont pas à l’abri des cyberattaques[7]

En lien avec ces risques, la question de la responsabilité de l’utilisateur peut également être un frein au recours de l’IA dans le domaine du droit. Que ce soit dans l’hypothèse où l’utilisateur n’aurait pas vérifié la réponse erronée fournie par le SIA, ou en cas d’atteinte à la confidentialité des données ou au secret professionnel, le professionnel du droit peut engager sa responsabilité professionnelle. 

À titre d’exemple, le cabinet d’avocats américain qui avait fourni de fausses jurisprudences à l’appui de ses écritures a été sanctionné, le 22 juin 2023 par le Tribunal de District du sud de l’État de New York pour s’être servi de ChatGPT. En l’espèce, le Tribunal a admis que l’utilisation de SIA fiables n’était pas problématique, mais il a cependant considéré que le cabinet avait « abandonné ses responsabilités » en produisant de fausses décisions de justice sans veiller à vérifier leur exactitude[8].

Dans ce contexte, le Conseil des Barreaux européens a publié un guide sur l’utilisation de l’IA par les avocats[9] qui vise à les accompagner sur la manière d’utiliser les outils d’IA, notamment dans le respect de leurs obligations déontologiques. Parmi les risques évoqués, le guide mentionne notamment celui lié à la compétence professionnelle de l’avocat. En effet, les avocats ne doivent pas : « investir dans des technologies peu fiables et fonder des processus importants de leur pratique juridique sur des outils qui n’ont pas encore été testés correctement sur le marché (national) donné, ou qui ne sont pas encore conformes aux règles nationales de déontologie ». 

De même, le barreau de l’État de New York a publié des lignes directrices et des recommandations sur l’utilisation de l’IA et de l’IA générative dans la sphère juridique le 6 avril 2024. Y sont notamment abordés les devoirs de confidentialité, de compétence et de diligence.

Enfin, l’IA soulève une dernière question dans le secteur juridique, celle de la possible accentuation de la fracture numérique entre les avocats et directions juridiques qui sauteront le pas de l’IA et ceux qui ne le feront pas ou tarderont à le faire, que ce soit pour des raisons de coûts, de maîtrise technique ou de défiance. 

L’IA dans le secteur juridique présente des opportunités considérables. Cependant, cette transformation ne doit pas se faire à la légère. 

Pour bien utiliser l’IA et en maximiser les bénéfices, la formation et la sensibilisation des professionnels du droit sont essentielles, que ce soit sur la manière de l’utiliser, de rédiger les invites, de la distance à conserver par rapport aux réponses fournies. 

Seule une bonne compréhension des capacités et limites de l’IA en permettra une utilisation efficace et raisonnée, non pas pour remplacer le professionnel du droit mais pour faciliter son travail, accroître son efficacité, réduire ses coûts et lui permettre de se concentrer sur des aspects plus stratégiques de son travail.


[1] « L’IA Générative & les Professionnels du Droit », LexisNexis, septembre 2023.

[2] La justice prédictive peut être définie comme « L’analyse de grandes masses de décisions de justice par des technologies d’IA afin de construire, pour certains types de contentieux spécialisés, des prévisions sur l’issue des litiges (montant des indemnités de licenciement ou de la pension alimentaire par exemple) » (Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement de la Commission européenne pour l’efficacité de la justice, 28e réunion plénière de la CEPEJ, 7 décembre 2016, p. 76).

[3] « L’IA Générative & les Professionnels du Droit », LexisNexis, septembre 2023.

[4] « L’IA Générative & les Professionnels du Droit », LexisNexis, septembre 2023.

[5] Un prompt est un mot anglais qui désigne toute commande écrite envoyée à une IA spécialisée dans la génération de contenu, comme du texte ou des images. Il s’agit d’une instruction donnée à l’IA qui va ensuite l’interpréter et proposer un résultat.

[6] Le secret professionnel de l’avocat est défini à l’article 2 du Règlement Intérieur National de la profession d’avocat (RIN), l’avocat doit garder confidentiel le contenu de ses discussions, courriers avec ses clients ainsi que les informations dont il a eu connaissance au cours de ses échanges avec l’avocat de la partie adverse.

[7] À titre d’exemple, ChatGPT a été la victime d’une cyberattaque massive de la part d’un collectif de hackers, ce qui a entraîné un arrêt momentané de l’agent conversationnel (« ChatGPT victime d’une cyberattaque massive », LesEchos, 9 novembre 2023).

[8] United States District Court Southern District of New York, Roberto Mata c/ Avianca Inc., 22 juin 2023, Case 22-cv-1461

[9] Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU, Conseil des Barreaux européens, 2022.

Don't miss our next publications​

Your email address is processed by FÉRAL in order to send you the firm’s publications and news. You can unsubscribe at any time. To learn more about how your data is processed and how to exercise your rights, please consult our personal data protection policy.

Search
Close this search box.
Search
Close this search box.