Pras Michél cùng với luật sư trước đây của ông, David Kenner. Hình ảnh: Tasos Katopodis/Getty Images.
Sẵn sàng hay không, thành viên của nhóm Fugees, Pras Michél, đang đối mặt trực diện với Trí tuệ Nhân tạo (AI). Michél đang yêu cầu một phiên tòa mới sau khi ông bị kết án về các cáo buộc âm mưu vào tháng 4. Lập luận pháp lý của ông là một lập luận mới lạ, khi ông cho rằng luật sư bảo vệ của ông đã sử dụng Trí tuệ Nhân tạo trong phòng xử, làm trệch hướng khả năng được tha bổng. Michél, tên thật là Prakazrel Michél, đã nộp đơn vào ngày 16 tháng 10 năm 2023, khẳng định rằng luật sư bảo vệ David Kenner đã làm ngổn ngang lập luận cuối cùng của ông bằng cách dựa vào một chương trình Trí tuệ Nhân tạo "thử nghiệm" đã bỏ qua những lập luận quan trọng - có thể dẫn đến sự kết án của rapper này. "Lời kết đã gây thiệt hại cho sự bảo vệ," các luật sư mới của Michél, Peter Zeidenberg, Michael F. Dearington, David M. Tafuri và Sarah "Cissy" Jackson viết trong các văn kiện tòa án.
Do việc sử dụng Trí tuệ Nhân tạo, người đại diện cho Michél cho biết luật sư Kenner đã thừa nhận hiệu quả rằng Michél đã phạm tội trong lời kết cuối của ông. Theo cáo buộc, Michél đã đưa tiền từ một người kinh doanh nghi ngờ, Jho Low, vào chiến dịch tranh cử tổng thống của Barack Obama năm 2012 bằng cách sử dụng các nhà tài trợ giả mạo. Trong lời kết của mình, luật sư Kenner nói rằng Low muốn có một bức ảnh chụp cùng Obama và sẵn lòng trả bất cứ số tiền nào để có được nó - và ông không phủ nhận rằng Michél đã nhận tiền từ Low. "Michél đang cố gắng sắp xếp để có được một bức ảnh cho một người tên là Jho Low và ông đã cố gắng hết sức mình để có được bức ảnh đó cho Jho Low," Kenner nói.
Cáo buộc của Michél về việc sử dụng Trí tuệ Nhân tạo là một phần của một yêu sách rộng hơn, rằng Kenner "không hiệu quả và ảnh hưởng nghiêm trọng đến quyền bào chữa." "Chương trình Trí tuệ Nhân tạo đã làm hỏng Kenner và Kenner đã làm hỏng Michél," luật sư mới của ông nói trong các văn kiện tòa án. "Lời kết cuối không đáng kể, không hữu ích và là một cơ hội đã bị tổn thất gây ảnh hưởng xấu đến quyền bào chữa."
Vulture đã nói chuyện với một số luật sư già dặn về tác động tiềm năng của việc sử dụng Trí tuệ Nhân tạo trong việc đòi lại một phiên tòa mới.
Phần lập luận trong phòng xử mà Michél cáo buộc là được tạo ra bởi trí tuệ nhân tạo là gì?
Theo những gì Michél kể về câu chuyện Obama, ngôn ngữ của ông đối với các thành viên hội đồng xét xử "trông như một lời thú nhận tội" về việc sử dụng tiền chiến dịch của Michél để tham nhũng ảnh hưởng, các luật sư mới của ông viết. Họ cũng chú ý đến việc Kenner sử dụng sai lạc lời bài hát. Ông đã nhầm lẫn bài hát của Puff Daddy thành Fugees - một bài hát Puff Daddy rất nổi tiếng, với lời "Mỗi ngày, mỗi khi tôi cầu nguyện, tôi sẽ nhớ về bạn" - và ông đã "nhầm lẫn siêu hit toàn cầu của Michél 'Ghetto Supastar (That is What You Are)' của Fugees, trong khi thực tế đó là một bài hát độc lập của Michél," họ đã viết.
Luật sư mới của Michél không chỉ khẳng định rằng Kenner đã sử dụng văn bản được tạo ra bởi chatbot để định hướng pháp lý. Hồ sơ tòa của họ còn cho rằng anh ta đã sử dụng một trí tuệ nhân tạo doanh nghiệp vì lý do tài chính. "Kenner đã tạo ra lập luận kết luận của mình - có thể xem là một phần quan trọng nhất trong bất kỳ phiên tòa giám định nào - bằng cách sử dụng một chương trình trí tuệ nhân tạo nguyên mẫu thuộc sở hữu chưa được tiết lộ vốn tài chính của anh ta và Alon Israely." Họ cho rằng việc Kenner được cho là đã sử dụng EyeLevel.AI, công nghệ được sử dụng trong bảo vệ, đã làm hỏng lập luận kết luận của anh ta, nói rằng "nó đã đưa ra những lập luận vô nghĩa, hiểu nhầm những yếu tố cần thiết, sắp xếp nhầm các kế hoạch và không chú ý đến những điểm yếu quan trọng trong vụ án của chính quyền".
EyeLevel.AI đã đưa ra phản hồi về các cáo buộc?
Trước khi Michél phàn nàn về việc sử dụng trí tuệ nhân tạo, EyeLevel.AI đã cho biết trong một tuyên bố trên trang web của công ty rằng "công nghệ hỗ trợ vụ án của chúng tôi đã lịch sử cuối tuần trước, trở thành việc sử dụng trí tuệ nhân tạo tạo ra sự đa dạng trong tòa án liên bang lần đầu tiên. Vụ án liên quan đến Pras Michél, một cựu thành viên của ban nhạc hip-hop The Fugees, người đã bị truy tố về tội lừa đảo quốc tế." Công ty cho rằng công nghệ "Lit Assist" của họ có thể cung cấp "các thông tin quan trọng nhanh hơn so với nỗ lực của con người và các công nghệ thông thường" cho việc soạn thảo văn bản đến công việc kháo sát phúc thẩm.
"Đây là một bước tiến hoàn toàn mới trong vụ án phức tạp," Kenner đã được trích dẫn như vậy trong một thông cáo sau phiên tòa. "Hệ thống đã biến hàng giờ hoặc hàng ngày công việc pháp lý thành chỉ vài giây. Đây là một cái nhìn vào tương lai về cách xử lý vụ án." Các luật sư trước đây của Michél không đưa ra phản hồi khi được yêu cầu để bình luận.
Tuy nhiên, EyeLevel.AI khẳng định không xảy ra bất kỳ điều gì không chính đáng. Giám đốc điều hành của công ty, Neil Katz, nói với New York Times rằng luật sư cũ của Michél không phụ thuộc vào công nghệ này. "Ý tưởng ở đây không phải là bạn sẽ lấy những gì được tạo ra bởi máy tính và mang nó vào phòng tòa và đọc nó ra," Katz nói với báo. "Đó không phải là điều đã xảy ra ở đây." Anh ta khẳng định rằng "luật sư con người xem đây là một ý tưởng quan trọng giúp họ đến với các ý kiến nhanh hơn... Họ cuối cùng sẽ viết các lập luận pháp lý mà họ trình bày trong tòa án." Anh ta cũng phủ nhận rằng những luật sư đã có sự liên quan tài chính nào đến công ty của anh ta.
"Trí tuệ nhân tạo của EyeLevel là công cụ mạnh mẽ để luật sư con người đưa ra quyết định con người, nhưng làm điều đó nhanh hơn và có thông tin nhiều hơn trong tầm tay," Katz nói trong một tuyên bố gửi cho Vulture. "EyeLevel có thể tiếp thu và hiểu các bản ghi tư pháp phức tạp dựa trên sự thật về vụ án được trình bày ở tòa án. Sau đó, điều này có thể được sử dụng bởi luật sư để chuẩn bị các lập luận pháp lý, chất vấn các nhân chứng, dự đoán các lập luận của đối tác và nhiều hơn nữa." Cụ thể với vụ án của Michél, "trí tuệ nhân tạo đã được huấn luyện đặc biệt trên các bản ghi tư pháp của phiên tòa và đã tạo ra nghiên cứu và phân tích cho đội ngũ pháp lý một cách cách mang tính cách mạng, dựa trên sự thật về vụ án được trình bày trong phiên tòa. Chúng tôi không đồng ý với ý niệm rằng công nghệ của chúng tôi đã tạo ra thông tin không chính xác, sai lệch hoặc vô dụng đối với đội ngũ pháp lý."
Đã từng có những khiếu nại về việc trí tuệ nhân tạo dẫn đến việc trợ giúp pháp lý không hiệu quả không?
Carl Tobias, một giảng viên luật tại Đại học Richmond, nói rằng đây là một lĩnh vực mới, và có thể chưa từng có khiếu nại như thế này xảy ra. "Cả lĩnh vực việc trợ giúp pháp lý không hiệu quả đã có nhiều tiền lệ và nhiều yếu tố pháp lý - bảo vệ quyền của con người trong một số tình huống nhất định," Tobias nói, "nhưng việc sử dụng công nghệ mới chưa rõ ràng và vì vậy, nghe có vẻ như đây là một lĩnh vực đang được nghiên cứu." Vì đây là một "lãnh thổ chưa được định rõ," Tobias nói rằng khó để nói rằng một thẩm phán sẽ quyết định như thế nào.
Liệu Michél có thực sự có thể được mở lại phiên tòa mới vì luật sư của anh ấy sử dụng trí tuệ nhân tạo?
Việc mở lại phiên tòa mới không phải là một nhiệm vụ dễ dàng, bao gồm cả lý do với sự trợ giúp không hiệu quả từ luật sư. Một yếu tố cần được xem xét là liệu trí tuệ nhân tạo có thực sự làm công việc mà luật sư phải làm. Murray Richman, một luật sư bảo hộ lâu năm có danh sách khách hàng nổi tiếng bao gồm rapper đã qua đời DMX, cho biết phạm vi là rất quan trọng: "Nó phụ thuộc vào mức độ phần lớn của lập luận đó có dựa trên trí tuệ nhân tạo hay không." Một số cụm từ chung chung như được dùng trong những bài phát biểu khai mạc - như "bà con", ví dụ - là một điều, nhưng nếu trí tuệ nhân tạo làm công việc nặng nhọc, thì đó là một chuyện hoàn toàn khác. Richman giải thích rằng đó có thể là lý do cho sự hỗ trợ luật sư không hiệu quả, vì luật sư không làm công việc - đó tương đương với việc yêu cầu một sinh viên luật viết một bài tóm tắt. "Đó có phải là sự trợ giúp không hiệu quả từ luật sư? Tất nhiên là vậy", Richman nói. "Đó là việc nhờ người khác làm điều mà người đó phải tự làm hoặc nên làm."
Liệu có một luật sư nào đã gặp rắc rối vì sử dụng trí tuệ nhân tạo trong phòng án?
Vào tháng 6 năm 2023, hai luật sư ở thành phố New York đã bị phạt 5.000 đô la vì gửi một bản tường thuật pháp lý đầy những vụ án hư cấu do ChatGPT tạo ra, theo Times. Vụ án này, một vụ kiện không đáng chú ý chống lại hãng hàng không Avanca, đã thu hút sự chú ý quốc tế. Luật sư của hãng hàng không nói rằng họ không thể tìm thấy các vụ kiện do đối thủ của họ gửi. Thẩm phán trong vụ này đã yêu cầu hai luật sư gửi cho ông bản sao của các vụ kiện đó. Họ không thể làm được vì những vụ kiện đó không tồn tại. "Tôi nghe nói về trang web mới này, mà tôi lầm tưởng rằng nó là một công cụ tìm kiếm siêu cấp," luật sư sử dụng ChatGPT, Steven A. Schwartz, nói với thẩm phán. Ông cũng nói: "Tôi không hiểu rằng ChatGPT có thể tạo ra những vụ án giả."
Vùng đất chưa được khám phá của những tuyên bố phiên tòa của Pras Michél's AI