Los abogados de EE. UU. están presentando escritos generados por IA con citas ficticias a un ritmo cada vez más acelerado; las sanciones judiciales están marcando nuevos récords, y la tecnología se está integrando tan profundamente en el software legal que, según expertos, las normas de divulgación obligatoria podrían ya ser obsoletas.
Resumen
Los abogados de EE. UU. están presentando escritos generados por IA con citas ficticias a un ritmo cada vez más acelerado; las sanciones judiciales están marcando nuevos récords, y la tecnología se está integrando tan profundamente en el software legal que, según expertos, las normas de divulgación obligatoria podrían ya ser obsoletas. Según la investigación de NPR del 3 de abril, el volumen de sanciones judiciales por errores generados por IA se disparó a través de 2025 y no se ha frenado en 2026 — un patrón que tiene consecuencias directas para cualquier sector, incluido el cripto, cuya exposición legal depende de la calidad de los escritos presentados en su defensa.
Damien Charlotin, un investigador de HEC Paris que mantiene un recuento mundial de sanciones judiciales por errores legales generados por IA, le dijo a NPR que el ritmo no se ha estabilizado. “Recientemente tuvimos 10 casos de 10 tribunales diferentes en un solo día”, dijo. “Tenemos este problema porque la IA es simplemente demasiado buena — pero no perfecta.” El caso más destacado del ciclo pasado fue el de los abogados del CEO de MyPillow, Mike Lindell, a quienes multaron con $3,000 a cada uno por presentar escritos que contenían citas ficticias.
Es posible que un tribunal federal haya establecido un nuevo récord el mes pasado cuando se ordenó a un abogado con base en Oregón que pagara $109,700 en sanciones y costas. También se han visto involucradas las cortes supremas estatales: la corte alta de Nebraska interrogó en febrero a un abogado de Omaha sobre citas ficticias y lo remitió para disciplina, y una escena similar y pública se desarrolló en la Corte Suprema de Georgia en marzo. “Me sorprende que la gente siga haciendo esto cuando ha estado en las noticias”, dijo Carla Wale, vicedecana de información y tecnología en University of Washington School of Law.
Algunos tribunales han respondido exigiendo que los abogados etiqueten cualquier contenido asistido por IA en sus presentaciones. Joe Patrice, editor senior de Above the Law y un abogado convertido en periodista, le dijo a NPR que es probable que esas reglas se vuelvan inviables casi de inmediato. “Se va a integrar tanto en cómo opera todo que, para cumplir diligentemente con la regla, tendrías que poner en todo lo que publicas, ‘Oye, esto es asistencia de IA’, y en ese punto más o menos se vuelve un esfuerzo inútil”, dijo. También la economía de la facturación legal está acelerando la adopción en lugar de frenarla. Como las herramientas de IA reducen el tiempo de redacción, las firmas de abogados enfrentan presión para encontrar nuevos modelos de facturación — y Patrice sugiere que la presión por tiempo resultante hace que sea más tentador que los abogados acepten los primeros borradores de IA sin una verificación adecuada.
El propio cambio del DOJ alejándose de la persecución de desarrolladores de cripto se debió en parte al argumento de que el código es neutral a menos que haya intención criminal — una distinción que requiere exactamente el tipo de razonamiento legal cuidadoso que los escritos asistidos por IA, apresurados de forma constante, no logran replicar. Un tribunal federal de Texas desestimó recientemente una demanda de responsabilidad de software de cripto en parte citando un memorando del DOJ sobre estándares para la persecución de desarrolladores, lo que ilustra cómo la calidad del razonamiento legal en casos cercanos a la IA moldea directamente los resultados regulatorios para todo el sector.
La propia IA ya ha entrado en el punto de mira legal más allá del problema de errores en sala. En marzo, OpenAI fue demandada en un tribunal federal de Illinois por Nippon Life Insurance Company of America, que alegó que una mujer estaba usando ChatGPT como asesor legal, recibiendo orientación que llevó a demandas frívolas contra la aseguradora. La denuncia acusó a OpenAI de ejercer la abogacía sin licencia. En una declaración por escrito a NPR, OpenAI dijo: “Esta queja carece de cualquier mérito, absolutamente en ningún sentido.” Wale, por su parte, rechaza ambos extremos. “Creo que los abogados que entienden cómo usar la IA generativa de manera efectiva y ética reemplazan a los abogados que no lo hacen”, dijo. “Así es como creo que será el futuro.”