Les avocats américains déposent à un rythme accéléré des mémoires générés par IA comportant des citations fictives, les sanctions prononcées par les tribunaux battent de nouveaux records et la technologie s’est tellement intégrée dans les logiciels juridiques que des experts estiment que les règles de divulgation obligatoires pourraient déjà être obsolètes.
Résumé
Les avocats américains déposent à un rythme accéléré des mémoires générés par IA comportant des citations fictives, les sanctions prononcées par les tribunaux battent de nouveaux records et la technologie s’est tellement intégrée dans les logiciels juridiques que des experts estiment que les règles de divulgation obligatoires pourraient déjà être obsolètes. D’après l’enquête de NPR du 3 avril, le volume des sanctions prononcées par les tribunaux pour des erreurs générées par IA a bondi tout au long de 2025 et ne s’est pas ralenti en 2026 — un schéma qui entraîne des conséquences directes pour n’importe quel secteur, y compris la crypto, dont l’exposition juridique dépend de la qualité des mémoires déposés pour sa défense.
Damien Charlotin, un chercheur à HEC Paris qui tient à jour un décompte mondial des sanctions des tribunaux pour des erreurs juridiques générées par IA, a dit à NPR que le rythme ne s’est pas stabilisé. « Récemment, nous avons eu 10 affaires provenant de 10 tribunaux différents en une seule journée », a-t-il déclaré. « Nous avons ce problème parce que l’IA est tout simplement trop performante — mais pas parfaite. » L’affaire la plus marquante du cycle précédent concernait les avocats du PDG de MyPillow, Mike Lindell, qui ont été condamnés à 3 000 $ chacun pour avoir déposé des mémoires contenant des citations fictives.
Un tribunal fédéral a peut-être établi un nouveau record le mois dernier lorsque des sanctions et des frais de 109 700 $ ont été imposés à un avocat basé dans l’Oregon. Les cours suprêmes des États se sont aussi impliquées : la plus haute juridiction du Nebraska a interrogé en février un avocat d’Omaha au sujet de citations fictives et l’a renvoyé pour des poursuites disciplinaires, et une scène tout aussi publique s’est déroulée au mois de mars à la Cour suprême de Géorgie. « Je suis surpris que des gens fassent encore ça alors que ça a été dans l’actualité », a déclaré Carla Wale, directrice adjointe du département information et technologie à la faculté de droit de l’Université de Washington.
Certains tribunaux ont réagi en exigeant des avocats qu’ils indiquent dans leurs dépôts tout contenu assisté par IA. Joe Patrice, rédacteur en chef senior d’Above the Law et avocat reconverti en journaliste, a dit à NPR que ces règles sont susceptibles de devenir impossibles à appliquer presque immédiatement. « Ça va devenir tellement intégré à la façon dont tout fonctionne que pour être consciencieusement conforme à la règle, vous devriez mettre sur tout ce que vous produisez : “Hé, ceci est une assistance par IA”, et à ce moment-là, ça devient en quelque sorte une démarche inutile », a-t-il déclaré. La rentabilité de la facturation juridique accélère aussi l’adoption plutôt que de la freiner. Comme les outils d’IA réduisent le temps de rédaction, les cabinets d’avocats subissent une pression pour trouver de nouveaux modèles de facturation — et Patrice estime que cette pression temporelle rend d’autant plus tentant pour les avocats d’accepter les premières ébauches produites par IA sans vérification adéquate.
Le revirement de la DOJ elle-même, qui s’éloigne de la poursuite des développeurs de crypto, s’est fait en partie sur la base de l’argument selon lequel le code est neutre sauf s’il existe une intention criminelle — une distinction qui exige précisément le type de raisonnement juridique minutieux que les mémoires assistés par IA, souvent déposés dans la précipitation, échouent systématiquement à reproduire. Un tribunal fédéral du Texas a récemment rejeté une affaire de responsabilité logicielle crypto en partie en citant une note de service de la DOJ sur les standards de poursuite des développeurs, illustrant comment la qualité du raisonnement juridique dans des affaires proches de l’IA façonne directement les résultats réglementaires pour l’ensemble du secteur.
L’IA elle-même est désormais entrée dans le collimateur juridique au-delà du problème d’erreur en salle d’audience. En mars, OpenAI a été poursuivi en justice fédérale dans l’Illinois par Nippon Life Insurance Company of America, qui a allégué qu’une femme utilisait ChatGPT comme conseiller juridique, recevant des indications qui ont conduit à des poursuites frivoles contre l’assureur. La plainte accusait OpenAI de pratiquer le droit sans licence. Dans une déclaration écrite à NPR, OpenAI a déclaré : « Cette plainte est dépourvue de tout fondement. » De son côté, Wale rejette les deux extrêmes. « Je pense que les avocats qui comprennent comment utiliser efficacement et de manière éthique l’IA générative remplacent ceux qui ne le comprennent pas », a-t-elle dit. « C’est ce que je pense que sera l’avenir. »