Một luật sư ở New York đã gặp rắc rối trong một vụ kiện giữa một người đàn ông và hãng hàng không Avianca Holding S.A. sau khi đưa ra những trích dẫn không tồn tại trong vụ kiện do ChatGPT tạo ra.
Vụ kiện liên quan đến một người đàn ông tên là Roberto Mata kiện Avianca, tuyên bố anh bị thương tích khi một xe đẩy dịch vụ kim loại đâm vào đầu gối của anh ta trong chuyến bay. Những vụ yêu sách bồi thường thiệt hại thường không thú vị, ngoại trừ những quan điểm văn hóa rộng hơn về cách Mỹ nhiều vụ kiện, nhưng vụ kiện này có một sự xoay chuyển thú vị sau khi hãng hàng không cố gắng yêu cầu xét xử vụ kiện được bãi bỏ.
The New York Times đã đưa tin vào thứ Bảy rằng, đáp ứng yêu cầu của hãng hàng không, những luật sư đại diện cho Mata đã đệ trình một bản tóm tắt gồm 10 trang, trích dẫn hơn một nửa chục vụ kiện liên quan, lập luận rằng những vụ kiện cho thấy "hiệu ứng hoãn của lệnh tự động trong một đạo luật về thời hạn giới hạn".
Tuy nhiên, một vấn đề phiền toái rất lớn là không một trường hợp nào là thật sự. Luật sư tạo bản tóm tắt này, Steven A. Schwartz của tập đoàn Levidow, Levidow & Oberman, đã sử dụng ChatGPT của OpenAI LP để viết nó.
Schwartz, người được cho là đã hành nghề luật sư trong ba thập kỷ, bảo vệ bản thân mình và cho rằng anh ta không nhận ra khả năng của trí tuệ nhân tạo để tạo ra nội dung sai lệch. Schwartz cho biết với Thẩm phán P. Kevin Castel rằng anh ta không có ý định lừa dối tòa án hay hãng hàng không và đã tuyên bố không sử dụng ChatGPT nữa mà không có sự xác minh kỹ lưỡng. Tình huống bất thường này đã gây ra một phiên điều trần về các biện pháp trừng phạt tiềm năng đối với Schwartz, mô tả sự việc là một "trường hợp chưa từng có" đầy những "quan điểm tư pháp giả".
Sự cố đã gây ra các cuộc thảo luận trong cộng đồng pháp lý về các giá trị và rủi ro của trí tuệ nhân tạo. Stephen Gillers, giáo sư đạo đức pháp lý tại Trường Luật Đại học New York, cho biết trong bài viết của The Times rằng vụ việc này làm nổi bật việc các chuyên gia pháp lý không thể đơn giản chỉ lấy đầu ra từ trí tuệ nhân tạo và tích hợp nó vào các tố cáo tòa án. "Thảo luận giữa các luật sư hiện nay là làm thế nào để tránh chính xác những gì mà vụ kiện này mô tả," ông Gillers thêm.
Vụ việc này tạo ra tiền lệ bởi vai trò mà trí tuệ nhân tạo đóng trong nghiên cứu pháp lý và xây dựng luận điểm, đặt ra mối quan ngại nghiêm trọng về độ tin cậy của các công cụ trí tuệ nhân tạo trong nghề luật. Vụ việc cũng nhấn mạnh nguy cơ tiềm ẩn trong việc tin tưởng đầu ra của trí tuệ nhân tạo không chỉ trong các tố cáo tòa án mà còn trong sử dụng chung mà không qua xác minh phụ.