Khi trí tuệ nhân tạo sinh sáng tiếp tục lan rộng vào tất cả các khía cạnh của văn hóa, những người trông nom cho Wikipedia bị chia rẽ về cách tiếp cận tốt nhất.
Trong cuộc gọi cộng đồng gần đây, đã trở nên rõ ràng rằng cộng đồng chia rẽ về việc sử dụng các mô hình ngôn ngữ lớn để tạo nội dung. Trong khi một số người cho biết các công cụ như ChatGPT của Open AI có thể giúp đỡ trong việc tạo và tóm tắt bài viết, những người khác vẫn cảnh giác.
Mối lo ngại là nội dung được tạo ra bởi máy tính phải được cân bằng với rất nhiều xem xét của con người và sẽ làm cho các wikis ít được biết đến bị lấn át bởi nội dung tồi. Mặc dù các trình tạo số AI rất hữu ích để viết văn bản giống con người, nhưng chúng cũng dễ mắc phải sai lệch thông tin và thậm chí trích dẫn các nguồn và bài báo khoa học không tồn tại. Điều này thường dẫn đến các bản tóm tắt văn bản trông có vẻ chính xác, nhưng sau đó được phát hiện là hoàn toàn giả tạo.
Amy Bruckman, giáo sư hậu bổng và chủ tịch phụ trách khoa công nghệ tương tác tại Viện Công nghệ Georgia và tác giả của Should You Believe Wikipedia?: Online Communities and the Construction of Knowledge, nói rằng giống như những người tạo ra kiến thức xã hội, mô hình ngôn ngữ lớn chỉ tốt tới mức nó có thể phân biệt sự thật và hư cấu.
“Tự phòng vệ của chúng ta là sử dụng [các mô hình ngôn ngữ lớn], nhưng chỉnh sửa nó và có ai đó kiểm tra nguồn”, Bruckman đã cho biết với Motherboard.
Các mô hình ngôn ngữ lớn cũng chứa đựng độ thiên vị ngầm định, thường dẫn đến nội dung bị lệch về phía các nhóm người bị đóng đinh và bị bỏ qua. Cộng đồng cũng chia rẽ về việc các mô hình ngôn ngữ lớn có nên được phép học từ nội dung Wikipedia hay không. Trong khi sự truy cập mở là nguyên tắc thiết kế của Wikipedia, một số lo lắng về việc lấy cắp không kiểm soát dữ liệu Internet sẽ cho phép các công ty AI như OpenAI khai thác các bộ dữ liệu thương mại đóng cửa cho mô hình của họ. Điều này đặc biệt là một vấn đề nếu nội dung của Wikipedia chính là sản phẩm của trí tuệ nhân tạo, tạo ra một vòng lặp phản hồi thông tin có thể thiên vị, nếu không được kiểm soát.
Wikimedia Foundation, tổ chức phi lợi nhuận đứng sau trang web, đang tìm cách xây dựng các công cụ để giúp các tình nguyện viên nhận ra nội dung được tạo bởi bot. Trong khi đó, Wikipedia đang cố gắng soạn thảo chính sách để đưa ra giới hạn về cách các tình nguyện viên có thể sử dụng các mô hình ngôn ngữ lớn để tạo nội dung. Draft chính sách hiện tại ghi chú rằng bất kỳ ai không quen với các rủi ro của các mô hình ngôn ngữ lớn nên tránh sử dụng chúng để tạo nội dung Wikipedia, vì điều đó có thể mở rộng khả năng bị kiện cáo xâm phạm danh tiếng và vi phạm bản quyền - cả hai điều này đều được tổ chức phi lợi nhuận bảo vệ nhưng các tình nguyện viên Wikipedia không.
Đức Thọ, một nhà nghiên cứu AI, cho biết “Wikipedia đang quảng bá cho AI hơn vì họ muốn được cộng đồng và AI chung sống”.
Đến thời điểm này, chính sách thảo luận bao gồm một điểm rõ ràng nói rằng thuộc tính trong-câu là cần thiết cho nội dung được tạo bởi AI. Bruckman không thấy những vấn đề liên quan đến các mô hình ngôn ngữ lớn khác với việc chỉnh sửa ý kiến bừa bãi và những nỗ lực độc ác để chỉnh sửa các trang Wikipedia.
“Tôi không nghĩ rằng điều đó khác biệt so với chiến đấu chống phá hoại”, Bruckman nói thêm. “Chúng ta có chiến lược để chiến đấu với điều đó. Tôi nghĩ rằng nội dung được tạo ra bởi AI chưa được xem xét là một hình thức phá hoại, và chúng ta có thể sử dụng các kỹ thuật giống như chúng ta sử dụng trong việc chặn phá hoại trên Wikipedia, để chống lại rác từ AI”.
Dẫu vậy, cho đến khi các công cụ được xây dựng, Wikipedia cần chỉnh sửa thủ công và kiểm tra nguồn từng điểm một để đảm bảo độ chính xác của thông tin.