Các nhà phê bình cùng đánh giá các đề xuất với một trong những cơ quan tài trợ lớn của Úc đã bị cáo buộc sử dụng các trò chuyện AI để sản xuất phản hồi của họ.
Các ứng viên đề nghị được tài trợ lên đến 500.000 đô la Úc (262.000 bảng Anh) do Hội đồng Nghiên cứu Úc (Australian Research Council - ARC) thực hiện dự án Discovery Project đã tố cáo phát hiện "dấu hiệu" cho thấy ChatGPT khi nhận phản hồi từ các đánh giá viên, theo tài khoản Twitter của ARC Tracker.
Ngay cả một người còn quên gỡ "gợi ý tái tạo phản hồi" xuất hiện ở cuối văn bản do ChatGPT tạo ra.
Ứng viên cho biết các báo cáo là "sự tái khai thác thông tin" của đề nghị của họ với ít bằng chứng về bài phê bình, sự hiểu biết hoặc đánh giá, ARC Tracker cho biết.
Thêm vào đó, thực tế này là "hoàn toàn dễ đoán" do áp lực thời gian đối với nhà nghiên cứu và một phần vấn đề là ARC đã "không làm gì" để ngăn chặn việc sử dụng chatbots AI trong việc đánh giá các đề nghị vì nó không được đề cập trong hướng dẫn ban hành cho các đánh giá viên.
ARC Tracker cho biết, cơ quan tài trợ nên cân nhắc cấm những người được phát hiện sử dụng ChatGPT cho mục đích này và báo cáo họ đến các trường đại học của họ.
Philip Dawson, một nhà nghiên cứu đạo đức và đồng giám đốc Trung tâm Nghiên cứu về Đánh giá và Học tập Kỹ thuật số tại Đại học Deakin, đã tweet rằng hành vi này "nên được đối xử tồi tệ hơn chỉ là một bài phê bình không thích hợp".
"Những dự án nghiên cứu được thiết kế để được bảo mật và chia sẻ chúng với [nhà tạo ra ChatGPT] OpenAI là một vi phạm quan trọng về tính hợp pháp về sở hữu trí tuệ," ông nói.
Để đáp lại lo ngại này, ARC cho biết đang "xem xét một loạt vấn đề liên quan đến việc sử dụng trí tuệ nhân tạo phát sinh (AI) sử dụng thuật toán để tạo nội dung mới (ví dụ như ChatGPT) và có thể tạo ra các thách thức về tính bảo mật và an toàn cho nghiên cứu và quản lý chương trình tài trợ".
ARC đã nhắc nhở tất cả các nhà phê bình cùng "về các nghĩa vụ của họ để đảm bảo tính bảo mật của thông tin nhận được như một phần của Quá trình Chương trình Tài trợ Cạnh tranh Quốc gia".
Nó cho biết "Mã Đạo đức Cho Việc Thực Hiện Nghiên cứu Trách nhiệm" Úc quy định rằng "cá nhân phải tham gia vào việc đánh giá xem xét của đồng nghiệp một cách công bằng, nghiêm túc và kịp thời và bảo đảm tính bảo mật của nội dung".
ARC cho biết, đã có những quy trình vững chắc để xem xét những lo ngại về cách quản lý tính bảo mật trong quá trình đánh giá.
"Việc công bố vật liệu không phải của bạn ngoài hệ thống quản lý nghiên cứu đóng, bao gồm cả vào các công cụ AI phát sinh, có thể cấu thành vi phạm tính bảo mật. Do đó, ARC khuyến nghị rằng các nhà phê bình không nên sử dụng AI như một phần hoạt động đánh giá của họ".
Hướng dẫn về lĩnh vực này sẽ được "cập nhật trong tương lai gần", ARC bổ sung.