Các tòa án trên thế giới đang chịu áp lực ngày càng lớn do số vụ án tăng, và một chương trình thử nghiệm tại Los Angeles hy vọng thay đổi điều đó bằng cách kiểm tra xem AI có thể hỗ trợ thẩm phán mà không thay thế phán quyết của họ hay không. Tòa án Tối cao Los Angeles đang thử nghiệm một công cụ AI gọi là Learned Hand, giúp tóm tắt hồ sơ, tổ chức chứng cứ và tạo ra dự thảo phán quyết trong các vụ án dân sự. Mục tiêu là giảm thời gian dành cho các công việc hành chính để thẩm phán có thể tập trung vào các phần của vụ án đòi hỏi phân tích pháp lý và sự linh hoạt, người sáng lập và CEO của Learned Hand, Shlomo Klapper, nói với Decrypt.
“Chúng ta đang ở một giai đoạn trong xã hội nơi tòa án đang chịu áp lực lớn,” Klapper nói. “Số vụ án tăng lên, nhưng không có sự giúp đỡ nào đến,” ông nói thêm rằng tiến bộ trong trí tuệ nhân tạo đang “giảm mạnh chi phí kiện tụng.” AI đang gia tăng áp lực lên tòa án bằng cách làm cho việc tạo hồ sơ dễ dàng hơn, với số hồ sơ tăng 49% từ 4.100 lên 6.400 trong năm qua, theo báo cáo tháng 2 năm 2026 của công ty luật quốc gia Fisher Phillips. Chương trình thử nghiệm tại Los Angeles cho phép một nhóm nhỏ các thẩm phán truy cập hệ thống AI của Learned Hand để kiểm tra hiệu suất của nó qua từng giai đoạn của vụ án, từ tiếp nhận đến dự thảo phán quyết.
Klapper, từng là thư ký pháp lý của Tòa án Phúc thẩm Hoa Kỳ và chiến lược gia triển khai tại Palantir, cho biết Learned Hand, thành lập năm 2024, và đặt theo tên một thẩm phán liên bang cùng tên, được thiết kế để cung cấp cho các tòa án quá tải các công cụ AI “được xây dựng mục đích” nhằm giảm bớt công việc nhàm chán bằng cách phát hiện các sự kiện và vấn đề pháp lý chính, trong khi vẫn để quyền quyết định và quyền hạn cho thẩm phán con người. “Với sự hợp tác này, chúng tôi đang cẩn thận đánh giá các công nghệ mới nổi để xác định cách chúng có thể hỗ trợ các thẩm phán làm việc hiệu quả hơn,” Thẩm phán chủ tọa Sergio C. Tapia II nói trong một tuyên bố. “Hãy để tôi rõ ràng—dù công cụ này có thể nâng cao cách các thẩm phán xem xét và tương tác với hồ sơ vụ án và thông tin, nó sẽ không thay thế, hoặc làm tổn hại, tính thiêng liêng, độc lập và công bằng của quyết định tư pháp.” Klapper cho biết phần khó hơn trong việc phát triển AI cho tòa án không phải là tạo ra văn bản mà là kiểm tra kết quả của AI so với các tài liệu vụ án và nguồn pháp lý cơ bản. “Phần lớn chi phí của mô hình ngôn ngữ lớn của chúng tôi nằm ở việc xác minh, chứ không phải tạo ra,” Klapper nói. “Tạo ra thì dễ. Ai cũng có thể tạo ra thứ gì đó, nhưng làm thế nào để đảm bảo rằng nó thực sự đáng tin cậy?” Các lỗi tưởng tượng của AI đã xuất hiện trong các vụ án nổi bật. Năm 2023, nhóm luật sư bào chữa cho Prakazrel “Pras” Michel, thành viên sáng lập nhóm nhạc hip-hop Fugees, cáo buộc rằng AI đã giúp viết phần kết luận có các yêu cầu vô lý và bỏ sót các điểm yếu trong vụ án của chính phủ chống lại anh ta. Cùng năm đó, một thẩm phán liên bang đã yêu cầu các luật sư đại diện cho cựu luật sư của Trump, Michael Cohen, cung cấp bản in các vụ án trích dẫn sau khi tòa không thể xác minh chúng. Klapper cho biết Learned Hand được xây dựng dựa trên một bộ tài liệu nguồn hẹp hơn để giảm thiểu rủi ro các lỗi tưởng tượng của AI. Thay vì lấy dữ liệu từ internet mở hoặc các tập dữ liệu ngẫu nhiên, hệ thống hoạt động trong phạm vi các tài liệu pháp lý đã được xác định rõ.
Lý do là các mô hình ngôn ngữ lớn có thể phản ánh thành kiến trong dữ liệu huấn luyện của chúng, dẫn đến ví dụ AI lặp lại lời khuyên từ các nền tảng như Reddit, Klapper nói. Learned Hand giải quyết điều này bằng cách chia nhiệm vụ thành các bước và giao mỗi bước cho một mô hình có chức năng cụ thể. Learned Hand cũng được thiết kế sao cho các thẩm phán không cần đào tạo kỹ thuật để sử dụng. “Chỉ cần nhấn và chọn,” Klapper nói. “Họ không cần phải đưa ra bất kỳ lệnh nào.” Klapper lập luận rằng phần lớn thời gian của thẩm phán dành cho các công việc thường nhật chứ không phải lý luận pháp lý, và AI nhằm giúp họ “dành nhiều thời gian hơn cho công việc của thẩm phán và ít thời gian hơn cho công việc nhàm chán.” Klapper nói rằng các thẩm phán không nên tin hoàn toàn vào kết quả của AI và cả công cụ lẫn các công ty đứng sau đều cần chứng minh độ tin cậy của mình. “Tôi thích nói, đừng tin, hãy xác minh,” ông nói. “Họ không nên tin bất cứ điều gì. Nó phải thể hiện giá trị của mình.”