Les risques liés aux hallucinations et mauvais usages de l’intelligence artificielle générative devant les juridictions françaises
18 mars 2026Les juridictions françaises, au même titre que plusieurs autres juridictions nationales, sont aujourd’hui confrontées aux hallucinations de l’intelligence artificielle, se manifestant par des références jurisprudentielles erronées produites dans les écritures des parties, ou par de mauvais usages par les justiciables. Bien qu’aucune sanction n’ait encore été prononcée en France à ce stade, contrairement aux nombreuses décisions rendues aux Etats-Unis, l’usage irresponsable ou déraisonné de l’intelligence artificielle peut avoir de graves conséquences pour les avocats et leurs clients.
Dans une ère où l’usage et les fonctionnalités de l’intelligence artificielle ne cessent de se développer, la transformation résultant de ces avancées technologiques se manifeste notamment à l’échelle des acteurs de la justice. En effet, il existe aujourd’hui de nombreux outils d’intelligence artificielle juridiques, destinés à la rédaction de documents contractuels ou d’actes de procédure, l’analyse et la synthèse de documents, ou encore la recherche jurisprudentielle. En 2026, Wolters Kluwer estime ainsi que, parmi les participants à son enquête couvrant 11 pays dans le monde (France, États-Unis, Chine, Allemagne, Pays-Bas, Royaume-Uni, Belgique, Italie, Espagne, Pologne et Hongrie), plus de 90% des professionnels du droit utilisent au moins un outil d’intelligence artificielle dans le cadre de leur activité[1].
Néanmoins, il convient de faire preuve de prudence, personne n’étant à l’abri des hallucinations de l’intelligence artificielle. En effet, les outils d’intelligence artificielle générative[2] sont souvent programmés pour présenter avec confiance et de façon articulée une réponse qui semble la plus statistiquement probable, sans procéder à une vérification postérieure, cette mission restant l’apanage des humains. Les contenus erronés ou trompeurs ainsi générés, tels que les fausses références de jurisprudence, sont abondants.
À l’instar de la jurisprudence sur les hallucinations déjà foisonnante aux États-Unis, les juridictions françaises ont également commencé à souligner, dans leurs décisions, le mauvais usage de l’intelligence artificielle générative.
LES RÉFÉRENCES JURISPRUDENTIELLES INEXACTES OU INEXISTANTES INVENTÉES PAR UNE INTELLIGENCE ARTIFICIELLE
La naissance d’une telle jurisprudence résulte de la volonté manifeste du juge de mettre en garde contre l’usage de références jurisprudentielles inexactes ou inexistantes dans les écritures des parties.
Cela peut recouvrir plusieurs cas de figure :
- lorsqu’aucune décision juridictionnelle n’existe avec le numéro indiqué,
- lorsque la décision n’a pas été rendue à la date indiquée,
- §ou encore lorsque la portée de la décision n’est pas en relation avec l’argument au soutien de laquelle elle est invoquée[3].
Dans ce contexte, le juge peut s’adresser à la partie concernée et/ou à son conseil, pour les inviter à « vérifier à l’avenir que les références qu’ils ont pu trouver sur les moteurs de recherches ou à l’aide de l’intelligence artificielle ne sont pas des "hallucinations" »[4].
L’avocat est parfois la seule personne visée, comme en témoigne une décision du Tribunal administratif d’Orléans : « Il y a lieu de faire remarquer au conseil de M. B… la nécessité de vérifier les décisions juridictionnelles citées, au demeurant non produites, avant de saisir le juge. […] Il y a donc lieu d’inviter le conseil du requérant à vérifier à l’avenir que les références trouvées par quelque moyen que ce soit ne constituent pas une "hallucination" ou une "confabulation" »[5].
À noter que, deux mois après cette décision, la formule du tribunal a été reprise à l’identique par une juridiction d’appel, dans une autre affaire[6].
LES ÉCRITURES RÉDIGÉES PAR UN OUTIL D’INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE
Les juridictions sont également confrontées aux requêtes et mémoires rédigés par un outil d’intelligence artificielle générative. L’ordre administratif a été le premier concerné, puisque la représentation par avocat n’est pas systématique devant le tribunal administratif et les justiciables sont parfois peu sensibilisés aux risques inhérents à ces outils[7].
Les juges semblent, cependant, tenir moins rigueur aux justiciables profanes qui font un mauvais usage de l’intelligence artificielle, lorsqu’ils ne sont pas accompagnés d’un professionnel du droit capable de vérifier la teneur des écritures produites.
À cet égard, le Tribunal administratif de Grenoble a pu relever un « manque de clarté [des conclusions de la requête] résultant vraisemblablement de la circonstance qu’elle a manifestement été rédigée au moyen d’un outil dit d’intelligence artificielle générative, totalement inadapté à cet usage »[8], ou encore « une requête et des mémoires générés avec un outil dit d’intelligence artificielle, dont le contenu est tout sauf "juridiquement cadré", contrairement à ce que prétend l’outil utilisé »[9], sans que cela n’influence la décision prise.
LES CONSÉQUENCES DE L’USAGE DE L’INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE SUR LE RAISONNEMENT DU JUGE
L’usage d’un outil d’intelligence artificielle générative n’est pas, en soi, sanctionné, puisqu’aucune règle de droit n’interdit d’user de tels outils pour appuyer son argumentation juridique. Cependant, les hallucinations de l’intelligence artificielle amènent les parties à présenter des arguments erronés ou mal-fondés, qui seront donc rejetés par le juge.
Ce fut le cas à plusieurs reprises dans des litiges devant le Tribunal administratif de Rennes qui a, ainsi, rejeté des demandes générées par une intelligence artificielle.
Ainsi, dans une première décision, ce Tribunal a rejeté une requête « manifestement […] rédigée à l’aide d’un outil d’intelligence artificielle générative », car fondée sur des moyens qui n’étaient pas assortis des « précisions nécessaires permettant au juge d’en apprécier le bien-fondé »[10].
Dans une deuxième décision, il a rejeté des conclusions « manifestement rédigées à l’aide d’un outil d’intelligence artificielle », car « portées devant un ordre de juridiction incompétent pour en connaître »[11], l’intelligence artificielle ayant alors commis une erreur de droit.
Il est donc impératif qu’un être humain, et a fortiori un professionnel du droit, vérifie les raisonnements générés par une intelligence artificielle afin de prévenir des erreurs de fait ou de droit dans l’argumentation du justiciable.
LES PREUVES GÉNÉRÉES PAR L’INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE
Si, à ce jour, la jurisprudence française n’a pas encore eu à se pencher sur le cas de fausses preuves générées par l’intelligence artificielle, le risque s’accroît à mesure que les outils d’intelligence artificielle générative se perfectionnent.
L’emblématique affaire Dawes[12], dans laquelle un client avait communiqué à ses avocats un faux document afin d’obtenir sa relaxe, trompant ainsi leur vigilance, pourrait être suivie de nouveaux procès contre des avocats ou des parties qui produiraient imprudemment des preuves générées par une intelligence artificielle.
Or, lorsque ce ne sont pas des références jurisprudentielles ou des écritures qui sont générées par intelligence artificielle, mais des preuves elles-mêmes, les conséquences deviennent bien plus graves, puisque la sanction encourue est alors une condamnation pénale pour faux en écriture[13] et tentative d’escroquerie au jugement[14].
En effet, si les juges peuvent être indulgents envers les maladresses des utilisateurs d’outils d’intelligence artificielle, cela ne saurait être le cas en présence de telles infractions.
LES SANCTIONS ENCOURUES PAR LES AVOCATS
Jusqu’à présent, à notre connaissance, les juridictions françaises n’ont prononcé aucune sanction à l’encontre d’avocats s’étant appuyés sur des hallucinations de l’intelligence artificielle dans leur argumentation mais se sont contentées de les inviter à vérifier les références citées dans les écritures. Il s’est donc agi, tout au plus, d’un simple avertissement, sans conséquence financière ou professionnelle.
La jurisprudence française diffère en ce point de la jurisprudence américaine, qui s’appuie sur l’article 11 des Règles fédérales américaines de procédure civile[15] pour sanctionner les avocats, parfois lourdement, puisque ceux-ci peuvent encourir des sanctions allant de l’amende[16] à l’interdiction de représentation dans le dossier pour le reste de la procédure[17], étant précisé que le cabinet dans lequel exerce l’avocat fautif peut être tenu solidairement responsable[18]. Au surplus, les avocats peuvent subir des sanctions additionnelles du fait de l’application de la législation étatique ou des règles professionnelles (Rules of Professional Conduct).
Cependant, en France, malgré l’absence de sanction spécifique, les avocats demeurent soumis au Règlement Intérieur National de la profession d’avocat. Parmi les principes essentiels de la profession qui y sont consacrés, figurent la compétence, la diligence et la prudence[19]. Ces principes supposent que l’avocat ayant recours à un système d’intelligence artificielle vérifie nécessairement la fiabilité des résultats obtenus.
Par ailleurs, le barreau de Paris appelle à la prudence dans son « Livre blanc sur l’Intelligence Artificielle » publié en octobre 2025, présenté comme un guide pratique fixant les premières ébauches d’un encadrement déontologique en la matière. Il affirme que la « responsabilité civile professionnelle d’un avocat peut être engagée du fait des informations erronées des systèmes d’intelligence artificielle », et reste dubitatif quant à la validité des clauses limitatives de responsabilité liées aux erreurs produites par l’intelligence artificielle qui pourraient être insérées dans les conventions d’honoraires des avocats[20].
Plus récemment encore, le Conseil National des Barreaux a adopté un guide sur « La Déontologie et l’Intelligence Artificielle » le 13 mars 2026, dans lequel il confirme que l’avocat « ayant recours à des contenus générés par l’intelligence artificielle sans vérification appropriée […] est susceptible de faire l’objet de poursuites disciplinaires »[21].
Ainsi, l’avocat est voué à demeurer seul responsable du produit généré avec l’aide de l’intelligence artificielle à l’égard du client. À cet égard, dès 1979, dans le cadre d’une formation dispensée à ses salariés, la société IBM rappelait qu’« un ordinateur ne peut jamais être tenu responsable, c'est pourquoi il ne doit jamais prendre de décision en matière de gestion. ».
Les avocats qui utilisent des outils d’intelligence artificielle doivent donc, pour respecter leurs devoirs déontologiques et professionnels et éviter d’engager leur responsabilité, se rappeler que si l’intelligence artificielle est un outil efficace, elle ne peut jamais totalement remplacer l’être humain.
Lizy Kim a contribué à la rédaction de ce LawFlash.
Contacts
Si vous avez des questions ou souhaitez plus d’informations sur les questions abordées dans ce LawFlash, veuillez contacter les personnes suivantes :
[1] Wolters Kluwer, Rapport d’enquête – Avocats et Juristes face au futur 2026, page 4.
[2] Communément appelés LLM pour « Large Language Models ».
[3] Tribunal administratif d’Orléans, 29 décembre 2025, n° 2506461.
[4] Tribunal judiciaire de Périgueux, 18 décembre 2025, n° 23/00452.
[5] Tribunal administratif d’Orléans, 29 décembre 2025, n° 2506461.
[6] Cour administrative d’appel de Bordeaux, 26 février 2026, n° 25BX02906.
[7] Article R. 431-2 du Code de justice administrative.
[8] Tribunal administratif de Grenoble, 3 décembre 2025, n° 2509827.
[9] Tribunal administratif de Grenoble, 9 décembre 2025, n° 2512468.
[10] Tribunal administratif de Rennes, 28 janvier 2026, n° 2506364.
[11] Tribunal administratif de Rennes, 30 janvier 2026, n° 2600610.
[12] Tribunal judiciaire de Paris, 18 avril 2023 et Cour d’appel de Paris, 8 juillet 2025 : les deux juridictions ont prononcé la relaxe des avocats impliqués pour les faits de complicité de tentative d’escroquerie au jugement.
[13] Infraction prévue et réprimée par les articles 441-4, 441-9, 441-10 et 441-11 du Code pénal.
[14] Infraction prévue et réprimée par les articles 121-5, 313-1, 313-7 et 313-8 du Code pénal.
[15] Article 11 (b) des Règles fédérales américaines de procédure civile (Fed. R. Civ. P.).
>[16] Cour de district des États-Unis pour le district sud de New York, Roberto Mata c. Avianca Inc., 22 juin 2023.
[17] Cour de district des États-Unis pour le district nord de l’Alabama, Frankie Johnson c. Jefferson S. Dunn et al., 23 juillet 2025.
[18] Article 11 (c) des Règles fédérales américaines de procédure civile (Fed. R. Civ. P.).
[19] Article 1.3 du Règlement Intérieur National.
[20] Barreau de Paris, Livre blanc sur l’Intelligence Artificielle, octobre 2025, page 19.
[21] Conseil National des Barreaux, La Déontologie et l’Intelligence Artificielle, 13 mars 2026, page 17.