Không có nhiều luật sư dại dột đủ để cho AI trình bày lập luận trong vụ kiện của mình, nhưng người trong số họ đã làm điều đó và Thẩm phán Brantley Starr đang tiến hành đảm bảo sự cố đó sẽ không tái diễn trong phòng tòa của ông ta.
Thẩm phán liên bang Texas này đã thêm một yêu cầu rằng bất kỳ luật sư nào xuất hiện tại phòng tòa của ông ta phải xác nhận rằng "không có phần nào của hồ sơ được soạn thảo bởi trí tuệ nhân tạo sinh sản”, hoặc nếu thật vậy, thì nó đã được kiểm tra "bởi một con người".
Tuần trước, luật sư Steven Schwartz đã cho phép ChatGPT "bổ sung" nghiên cứu pháp lý của ông ta trong một hồ sơ liên bang gần đây, cung cấp cho ông ta sáu vụ kiện và tiền lệ liên quan - tất cả đều được mô hình ngôn ngữ tạo ra hoàn toàn.
Ông ta giờ đây "rất hối hận" vì làm như vậy, và trong khi việc phát hiện của cả nước về lỗi này có thể khiến bất kỳ luật sư nào đang nghĩ đến việc thử nghiệm lại phải suy nghĩ lại, thì Thẩm phán Starr không chấp nhận bất kỳ rủi ro nào.
Tại trang web liên bang Texas Northern District, Starr, giống như các thẩm phán khác, có cơ hội đặt các quy định cụ thể cho phòng tòa của mình. Và mới được thêm vào (dù không rõ ràng liệu đó có phải là do vụ kiện đã nêu ở trên hay không) là "Chứng nhận Bắt Buộc Liên Quan Đến Trí Tuệ Nhân Tạo Sinh Sản". Eugene Volokh đã đưa tin về điều này trước tiên.
Tất cả các luật sư xuất hiện trước tòa phải đăng ký trên hồ sơ một chứng chỉ xác nhận rằng: không có phần nào của hồ sơ được soạn thảo bởi trí tuệ nhân tạo sinh sản (như ChatGPT, Harvey.AI, hoặc Google Bard), hoặc rằng bất kỳ ngôn ngữ nào được soạn thảo bởi trí tuệ nhân tạo sinh sản đều đã được kiểm tra tính chính xác, bằng cách sử dụng phóng viên in hoặc cơ sở dữ liệu pháp lý truyền thống, bởi một con người.
Một mẫu để luật sư ký tên được đính kèm, lưu ý rằng "trích dẫn, trích dẫn gián tiếp, khẳng định diễn giải và phân tích pháp lý" đều được áp dụng cho lệnh cấm này. Vì tóm tắt là một trong những điểm mạnh của AI và tìm kiếm và tóm tắt tiền lệ hoặc các vụ kiện trước đó là điều đã được quảng cáo là có thể giúp ích trong công việc pháp lý, điều này có thể sẽ xảy ra nhiều hơn dự kiến.
Người đã soạn thảo bản ghi nhớ về vấn đề này trong văn phòng của Thẩm phán Starr đã hiểu rõ vấn đề. Yêu cầu chứng nhận bao gồm một giải thích khá hiểu biết và thuyết phục về sự cần thiết của nó (thêm dòng xuống dòng cho dễ đọc):
"Những nền tảng này rất mạnh mẽ và có nhiều ứng dụng trong pháp luật: ly dị hình thức, yêu cầu khám phá, những lỗi gợi ý trong các tài liệu, những câu hỏi dự kiến trong đối thoại lời nói. Nhưng việc trình bày pháp lý không thuộc về chúng. Đây là lí do tại sao.
Các nền tảng này trong tình trạng hiện tại của chúng nghiêng về hiện tượng ảo và thành kiến. Với hiện tượng ảo này, chúng tạo ra những thứ giả mạo - thậm chí là trích dẫn và trích dẫn gián tiếp. Vấn đề khác là độ tin cậy hoặc thành kiến. Trong khi các luật sư thề nguyện không bỏ qua các thế giới riêng, thành kiến và niềm tin của mình để trung thành với luật pháp và đại diện cho khách hàng của họ, trí tuệ nhân tạo sinh sản là sản phẩm của lập trình được thiết kế bởi con người không phải thề nguyện như vậy.
Do đó, những hệ thống này không có sự trung thành với bất kỳ khách hàng nào, quy tắc pháp luật, hoặc luật và Hiến pháp của Hoa Kỳ (hoặc, như đã đề cập ở trên, sự thật). Không bị ràng buộc bởi bất kỳ giá trị nghĩa vụ, danh dự hoặc công bằng nào, các chương trình nhân tạo hoạt động theo mã máy chứ không phải theo sự thuyết phục, dựa trên việc lập trình chứ không phải nguyên tắc. Bất cứ bên nào tin rằng một nền tảng có tính chính xác và độ tin cậy cần thiết cho pháp lý có thể đề xuất cho phép và giải thích lý do".
Nói cách khác, hãy chuẩn bị để giải thích cho mình.
Mặc dù đây chỉ là một thẩm phán trong một tòa án, nhưng không có gì ngạc nhiên nếu những người khác đưa ra quy định này cho riêng mình. Vì như tòa án nói, đây là một công nghệ mạnh mẽ và có tiềm năng hữu ích, nhưng việc sử dụng nó phải được tuyên bố rõ ràng và kiểm tra tính chính xác.