
Dans un dossier de tribunal, une citation juridique inventée n’est pas une petite coquille. C’est une pièce qui peut faire vaciller tout le sérieux d’un argument.
Selon Reuters, le grand cabinet Sullivan & Cromwell a présenté des excuses à un juge fédéral après un dépôt contenant des erreurs générées par IA, dont des références juridiques fabriquées et des formulations inexactes.
Quand l’IA entre dans un dossier, la vérification devient le vrai sujet
The Guardian rapporte que les erreurs ont été repérées dans le contexte d’une procédure de faillite très sensible. Le point décisif n’est pas seulement que l’outil se soit trompé : c’est que les garde-fous internes et la relecture n’auraient pas joué leur rôle.
Business Insider souligne le contraste entre la réputation du cabinet et la nature très concrète de la faute. Une hallucination d’IA peut paraître abstraite tant qu’elle reste dans une démo ; devant un juge, elle devient une citation fausse, un paragraphe à corriger, une crédibilité entamée.

Le risque n’est pas l’outil seul, c’est le raccourci
Deux jours plus tard, Reuters Legal indiquait qu’une cour d’appel appelait les avocats à être francs lorsque l’usage d’IA générative crée des erreurs. La transparence devient une consigne pratique, pas une posture morale.
Dans un métier où chaque source doit pouvoir être retrouvée, l’IA ne peut pas être traitée comme une calculatrice magique. Elle propose, reformule, accélère parfois. Mais une référence juridique n’existe pas parce qu’une phrase semble bien écrite.
Un autre cas récent décrit par Reuters Legal Industry parlait même de “raccourci périlleux” à propos d’un usage d’IA dans une affaire liée à Walmart. La répétition des incidents installe un seuil : l’erreur n’est plus exceptionnelle, elle doit être prévue.

Le test utile : qui signe vraiment la phrase ?
Le Stanford AI Index documente année après année l’essor rapide des usages d’IA. Dans les professions du droit, cette accélération pose une question très simple : à quel moment l’humain reprend-il la responsabilité complète de ce qui part au tribunal ?
Le bon usage n’est donc pas forcément le refus de l’outil. C’est une chaîne courte et visible : demander, vérifier, retrouver la source, corriger, assumer. Sans cette chaîne, l’IA ne gagne pas du temps ; elle déplace le risque vers l’endroit le plus coûteux.
La leçon tient dans un geste banal et sévère : cliquer sur chaque citation avant de signer. Dans un cabinet, ce geste peut sembler lent. Devant un juge, il devient la frontière entre assistance et invention.
Article créé en collaboration avec l’IA.





