Hai luật sư sử dụng những vụ kiện giả được tạo ra bởi ChatGPT bị phạt cộng đồng 5.000 đô la và được yêu cầu liên hệ với các thẩm phán được đề cập trong các vụ kiện giả với thông tin về tình hình, đánh dấu cho những lần trừng phạt lớn đầu tiên từ việc sử dụng trí thông minh nhân tạo trong lĩnh vực pháp lý.

Các luật sư giới thiệu các vụ kiện được tạo bởi ChatGPT tại phòng tòa như đã hành động với ý chí xấu và bị trừng phạt với một khoản tiền phạt 5.000 đô la. (Ảnh: Leon Neal / Getty Images)

Getty Images

Thông tin chính

Trong quyết định của mình, Thẩm phán Quận New York P. Kevin Castel nói Steven Schwartz - luật sư sử dụng ChatGPT - và Peter LoDuca, đồng nghiệp của Schwartz và luật sư đã tiếp quản vụ kiện khi nó di chuyển khỏi thẩm quyền của Schwartz, "tự ý né tránh" dấu hiệu các vụ kiện mà họ đang sử dụng như là các ví dụ là giả mạo, do đó họ đã hành động với ý chí xấu và lừa dối tòa án.

Castel nói rằng trong khi "không có gì vô nghĩa về việc sử dụng công cụ trí tuệ nhân tạo đáng tin cậy để được hỗ trợ", hai luật sư đã bị trừng phạt vì họ đã bỏ mặc trách nhiệm của mình và kẹp lại với các vụ kiện giả mạo, dẫn đến "nhiều tác hại (đối với) hệ thống pháp luật."

Castel nói nếu cặp đôi này đã thẳng thắn về những sai lầm của họ, ông viết, "bản ghi nay sẽ khác hẳn", nhưng họ đã kéo dài và giới thiệu các vụ kiện giả mạo và ý kiến do trí tuệ nhân tạo tạo ra như là sự thật.

Levidow Levidow & Oberman, P.C., công ty luật của Schwartz, cho biết với Forbes rằng họ đang xem xét các phương án và "chưa có quyết định về việc có nên kháng cáo".

Kẻ phê bình chính

Levidow Levidow & Oberman, P.C., cho biết trong một tuyên bố dành cho Forbes rằng họ "hoàn toàn có ý định tuân thủ" mệnh lệnh của tòa án, nhưng "không đồng ý" bất kỳ ai ở công ty "hành động với ý chí xấu." Tuyên bố tiếp tục rằng: "Chúng tôi vẫn tin rằng đối diện với những gì mà Thẩm phán thừa nhận là một tình huống chưa từng có, chúng tôi đã mắc sai lầm với sự thiếu tin tưởng vào việc công nghệ có thể tạo ra các vụ kiện từ đầu đến cuối."

Thông tin nền tảng

Schwartz đã phục vụ như là cố vấn pháp lý cho Roberto Mata, người kiện Avianca Airlines về những cáo buộc rằng ông bị "va phải bởi một xe đẩy dịch vụ kim loại" trên chuyến bay năm 2019 và bị thương tật cá nhân. Avianca đã yêu cầu tòa án từ chối vụ kiện, và như phản ứng, Schwartz đã nộp sáu vụ kiện để chứng tỏ tiền lệ, bao gồm Varghese v. China Southern Airlines và Shaboon v. Egypt Air. Nhưng tòa án đã phát hiện ra các vụ kiện - sau đó được tiết lộ là được tạo ra bởi ChatGPT - không tồn tại và có "quyết định tòa án giả mạo với những lời trích dẫn giả mạo và các trích dẫn nội bộ giả mạo." Khi bên cảnh cáo hỏi một số vụ kiện và yêu cầu tài liệu và ý kiến, Schwartz trở lại với ChatGPT, cho ông tài liệu pháp lý giả mạo ông sau đó giới thiệu cho tòa án như là sự thật, dẫn đến Castel cân nhắc trừng phạt. Schwartz đã ký tên vào một bản khai thác nhận sử dụng chatbot AI nhưng vẫn duy trì rằng ông không có ý định lừa dối tòa án và không hành động với ý chí xấu. Ông nói rằng ông "chán nản" khi biết về các vụ kiện giả mạo, và "không hiểu (ChatGPT) không phải là một công cụ tìm kiếm, mà là một công cụ xử lý ngôn ngữ sinh.".

Yếu tố phụ

Castel cũng bác bỏ vụ kiện của Mata chống lại Avianca - vụ án mà ChatGPT đã được sử dụng - tuyên bố rằng nó đã bị nộp quá muộn.

Đọc thêm

Giấy tờ ChatGPT giả dối dẫn đến khoản phạt 5.000 đô la đối với Luật sư New York (Bloomberg)

Translation:

  • Luật sư Sử Dụng ChatGPT Trong Phòng Tòa - Và Trích Dẫn Những Vụ Án Giả. Một Thẩm Phán Đang Xem Xét Các Biện Pháp Kỷ Luật

Một luật sư ở bang Oregon, Hoa Kỳ đã trích dẫn câu chuyện giả và các vụ án giả trong phòng tòa bằng cách sử dụng hệ thống túc cầu ChatGPT AI lần đầu tiên trong lịch sử tại Hoa Kỳ. Nhiều luật sư và chuyên gia nghiên cứu tin tưởng rằng việc sử dụng công nghệ AI trong pháp lý là đương nhiên, nhưng phải tuân thủ các qui định và đạo đức nghề nghiệp của luật sư.

Điều này đã dẫn đến một cuộc tranh luận về công nghệ và đạo đức luật sư trong pháp lý, và nhiều thẩm phán và chuyên gia pháp lý đang xem xét các biện pháp kỷ luật để giải quyết vụ việc này.

Theo báo cáo, luật sư này đã sử dụng ChatGPT để viết các vụ án giả và biên tập hồ sơ kiến ​​nghị cho phiên tòa trong một vụ việc dân sự đang diễn ra. Trong khi rất ít chi tiết con người được công bố về vụ việc này, nhiều chuyên gia cảnh báo rằng việc sử dụng công nghệ AI trong phòng tòa cần phải được kiểm soát chặt chẽ và đảm bảo tuân thủ các qui định pháp lý và đạo đức nghề nghiệp của luật sư.

Trước đó, nhiều công ty luật đang sử dụng ChatGPT và các hệ thống AI khác để tích hợp phần mềm quản lý pháp lý và tối ưu hóa quy trình pháp lý, tuy nhiên, trường hợp này cho thấy rằng việc sử dụng công nghệ AI cần phải đảm bảo tính khách quan và minh bạch trong pháp lý và đạo đức nghề nghiệp của luật sư.

Vì vậy, vụ việc này đang làm dấy lên nhiều tranh cãi và thách thức cho hệ thống pháp lý và công nghệ AI trong phòng tòa, đồng thời đặt ra câu hỏi về trách nhiệm và đạo đức nghề nghiệp của luật sư khi sử dụng công nghệ này trong pháp lý.