Intelligence artificielle et tribunaux : prudence nécessaire dans la pratique judiciaire
- Rodolphe Rous
- 6 févr.
- 6 min de lecture

Réflexions à partir d’une décision québécoise et perspectives en droit français
L’essor spectaculaire des outils d’intelligence artificielle générative transforme profondément l’accès à l’information juridique. Des systèmes comme ChatGPT, Gemini ou d’autres assistants conversationnels permettent aujourd’hui à n’importe quel justiciable d’obtenir en quelques secondes une réponse argumentée sur une question de droit, accompagnée de références prétendument jurisprudentielles ou doctrinales.
Cette évolution n’est pas sans conséquence pour le fonctionnement des juridictions.
Plusieurs tribunaux commencent à constater que des parties, parfois même des professionnels du droit, produisent des conclusions ou des mémoires fondés sur des références juridiques fictives générées par des systèmes d’intelligence artificielle.
Un exemple récent particulièrement révélateur a été commenté dans un article publié par le blogue juridique SOQUIJ :
Emmanuelle Faulkner, « L’intelligence artificielle devant les tribunaux : prudence ! », 15 janvier 2026https://blogue.soquij.qc.ca/2026/01/15/lintelligence-artificielle-devant-les-tribunaux-prudence/
C
ette décision québécoise illustre parfaitement les dérives possibles liées à l’utilisation non critique de l’IA dans la recherche juridique. Elle invite également à réfléchir aux conséquences que ces pratiques pourraient avoir dans l’ordre juridique français.
L’analyse qui suit propose donc, d’une part, de revenir sur cette affaire et les enseignements tirés par les juridictions canadiennes, et, d’autre part, d’examiner la manière dont ces problématiques pourraient être appréhendées dans le système judiciaire français.
I – L’intelligence artificielle dans la recherche juridique : un outil puissant mais dangereux
A – L’affaire québécoise : des décisions jurisprudentielles inventées
L’affaire commentée dans l’article de SOQUIJ concerne un litige devant la Cour du Québec – Division des petites créances, relatif à un problème de vice caché dans la vente d’un animal.
Dans cette procédure, la demanderesse, qui se représentait seule, a présenté au tribunal une liste de décisions censées soutenir son argumentation. Ces décisions étaient accompagnées de résumés factuels, de citations et de conclusions juridiques.
Les décisions invoquées étaient les suivantes :
Leblanc c. Lacasse (2005)
Girard c. Roy, 2012 QCCQ 7854
Beaulieu c. Ferland, 2009 QCCQ 3249
Bujold c. Élevage du Nord, 2018 QCCQ 1649
Ces affaires étaient censées porter sur des situations similaires impliquant la vente d’animaux infertiles.
Le tribunal a toutefois constaté un fait particulièrement révélateur : ces décisions n’existaient tout simplement pas.
Le juge a ainsi expliqué que les références jurisprudentielles mentionnées correspondaient soit à des numéros d’arrêts totalement différents, soit à des décisions sans aucun lien avec la problématique soulevée.
La conclusion du tribunal est particulièrement claire : ces décisions sont des « hallucinations générées par l’intelligence artificielle ».
Ce phénomène d’« hallucination » est bien connu dans le fonctionnement des modèles de langage. Les systèmes d’IA ne consultent pas une base de données jurisprudentielle en temps réel : ils produisent des réponses statistiques en fonction des probabilités linguistiques. Il peut donc arriver qu’ils génèrent des références plausibles mais fictives.
Dans le cas d’espèce, la demanderesse avait clairement indiqué que la liste provenait de ChatGPT. Le tribunal a donc choisi de ne pas la sanctionner, mais a profité de l’occasion pour rappeler un principe fondamental : la justice repose sur des sources vérifiables, non sur des réponses générées par un algorithme.
B – Les risques structurels liés à l’IA dans la pratique juridique
Cette affaire met en évidence plusieurs dangers inhérents à l’utilisation non critique de l’intelligence artificielle dans le domaine juridique.
1. L’illusion de crédibilité
Les réponses produites par l’IA sont souvent structurées, argumentées et formulées dans un langage juridique convaincant. Elles peuvent inclure :
des références législatives,
des citations doctrinales,
des références jurisprudentielles.
Cette apparence de rigueur peut facilement tromper un justiciable non spécialiste.
Or, contrairement à une base de données juridique comme LexisNexis, Dalloz ou SOQUIJ, un système d’IA conversationnelle ne garantit pas l’existence réelle des sources citées.
2. L’alourdissement du travail judiciaire
Le tribunal québécois souligne un autre problème : lorsqu’une partie cite des sources fictives, la partie adverse et le juge doivent effectuer des recherches supplémentaires pour vérifier l’existence des décisions mentionnées.
Ce phénomène entraîne :
une perte de temps procédural,
une surcharge pour les juridictions,
une complexification inutile du débat judiciaire.
3. Le risque de désinformation juridique
Plus grave encore, l’IA peut donner au justiciable l’impression que la jurisprudence lui est favorable alors que ce n’est pas le cas.
Le tribunal souligne ainsi que l’outil peut induire en erreur sur l’état réel du droit.
II – Les réactions judiciaires face aux dérives de l’intelligence artificielle
A – Les sanctions prononcées dans certaines affaires canadiennes
L’article de SOQUIJ mentionne plusieurs décisions dans lesquelles les juridictions ont sanctionné l’usage abusif de l’IA.
Dans l’affaire Specter Aviation Limited c. Laprade, un défendeur qui se représentait seul a déposé une contestation contenant des citations jurisprudentielles fictives générées par l’IA.
Le tribunal a considéré que cette pratique portait atteinte au bon fonctionnement de la justice et a condamné l’intéressé à payer 5 000 dollars de frais.
Dans une autre affaire en droit du travail : Syndicat des travailleuses et travailleurs de L’Autre Maison – CSN et Centre L’Autre Maison inc., c’est une procureure de la partie patronale qui avait produit des références jurisprudentielles erronées générées par un outil d’intelligence artificielle.
L’arbitre de griefs a rappelé l’avocate à ses obligations de vigilance, sans toutefois prononcer de sanction financière.
Enfin, dans l’affaire : Bourse de Immobilier Multilogements inc. c. Lanthier : le défendeur a été condamné à 750 dollars de frais pour avoir déposé une procédure contenant plusieurs références jurisprudentielles fictives issues d’un outil d’IA.
Ces décisions témoignent d’une évolution importante : les juridictions commencent à considérer que l’usage négligent de l’IA peut constituer un manquement procédural susceptible d’être sanctionné.
B – L’encadrement institutionnel de l’IA dans le système judiciaire
Face à ces difficultés, plusieurs institutions juridiques ont publié des recommandations.
Le Barreau du Québec a ainsi diffusé un guide sur l’utilisation responsable de l’intelligence artificielle générative.
Ce guide rappelle notamment plusieurs principes fondamentaux :
l’IA peut constituer un outil d’assistance,
les sources doivent toujours être vérifiées,
l’utilisateur demeure responsable du contenu produit.
Ces recommandations traduisent une approche pragmatique : il ne s’agit pas d’interdire l’IA, mais d’en encadrer l’usage.
III – Quelle transposition possible en droit français ?
L’affaire québécoise soulève une question essentielle : comment le droit français pourrait-il réagir face à des conclusions judiciaires fondées sur des références fictives générées par l’IA ?
Même si les juridictions françaises n’ont pas encore connu de cas médiatisé comparable, plusieurs mécanismes juridiques permettraient de traiter ce type de situation.
A – La responsabilité procédurale des parties
En droit français, les parties ont l’obligation de présenter des prétentions et moyens sincères et vérifiables.
L’article 9 du Code de procédure civile rappelle que :
« Il incombe à chaque partie de prouver conformément à la loi les faits nécessaires au succès de sa prétention. »
Produire des décisions fictives pourrait être considéré comme une présentation inexacte des moyens juridiques.
Selon les circonstances, plusieurs sanctions pourraient être envisagées :
condamnation aux dépens,
condamnation pour procédure abusive,
application de l’article 700 du Code de procédure civile.
Dans les cas les plus graves, si la partie agit de mauvaise foi, la production de documents fictifs pourrait même être assimilée à une tentative de tromper le juge, ce qui pourrait relever du délit de faux.
B – Les obligations déontologiques des avocats
La question est encore plus sensible lorsque les références fictives sont produites par un professionnel du droit.
En France, l’avocat est tenu par plusieurs obligations fondamentales :
compétence,
diligence,
loyauté envers la juridiction.
Ces obligations figurent dans le Règlement Intérieur National (RIN) de la profession.
Un avocat qui déposerait des conclusions fondées sur des décisions fictives pourrait être considéré comme ayant manqué à son devoir de compétence ou de probité.
Dans un tel cas, une procédure disciplinaire pourrait être engagée devant le conseil de discipline de l’ordre.
C – L’évolution probable de la pratique judiciaire
Il est très probable que les juridictions françaises soient confrontées dans les prochaines années à des cas similaires.
L’usage de l’IA se généralise :
chez les justiciables non représentés,
chez certains professionnels,
dans la rédaction de conclusions ou de mémoires.
On peut donc anticiper plusieurs évolutions :
des recommandations des barreaux sur l’usage de l’IA
des rappels à l’ordre des juridictions
éventuellement des sanctions procédurales dans les cas les plus graves.
Conclusion : un outil d’assistance, pas une source de droit
L’affaire commentée dans l’article de SOQUIJ constitue un avertissement utile pour l’ensemble des systèmes judiciaires.
L’intelligence artificielle peut être un outil extrêmement puissant pour :
comprendre une problématique juridique,
structurer un raisonnement,
identifier des pistes de recherche.
Mais elle ne peut en aucun cas se substituer aux sources juridiques authentiques.
Comme l’a rappelé le tribunal québécois :
l’intelligence artificielle ne crée pas de jurisprudence.
La pratique juridique repose sur la vérification rigoureuse des sources. Dans un contexte où les outils numériques deviennent omniprésents, cette exigence de rigueur apparaît plus essentielle que jamais.
Pour les professionnels du droit comme pour les justiciables, la règle reste donc simple : l’intelligence artificielle peut assister la réflexion, mais elle ne dispense jamais de vérifier le droit applicable.




Commentaires