Trí tuệ nhân tạo ChatGPT đã được công bố có chủ kiến bên trái đáng kể và toàn diện theo một nghiên cứu mới do Đại học East Anglia (UEA) dẫn đầu. Nhóm nghiên cứu tại Vương quốc Anh và Brazil đã phát triển một phương pháp mới khắc khe để kiểm tra sự thiên vị chính trị.

chatgpt

Tìm hiểu được công bố hôm nay trên tạp chí Public Choice, các kết quả cho thấy phản ứng của ChatGPT thiên về Đảng Dân chủ ở Mỹ; Đảng Lao động ở Vương quốc Anh; và tại Brazil, Tổng thống Lula da Silva của Đảng Công nhân.

Những lo ngại về sự chủ kiến chính trị được tích hợp trong ChatGPT đã được đề cập trước đây, nhưng đây là nghiên cứu quy mô lớn đầu tiên sử dụng một phân tích nhất quán và dựa trên bằng chứng.

Tiến sĩ Fabio Motoki, tác giả chủ chốt, từ Trường Kinh doanh Norwich tại Đại học East Anglia, nói: "Với việc ngày càng nhiều người sử dụng các hệ thống AI để tra cứu thông tin và tạo nội dung mới, điều quan trọng là sản phẩm đầu ra của các nền tảng phổ biến như ChatGPT càng trung lập càng tốt. Sự xuất hiện của chủ kiến chính trị có thể ảnh hưởng đến quan điểm của người dùng và có ảnh hưởng tiềm năng đối với quá trình chính trị và bầu cử. Những kết quả nghiên cứu của chúng tôi củng cố những lo ngại rằng các hệ thống AI có thể tái tạo hoặc thậm chí làm tăng thách thức hiện có do Internet và mạng xã hội gây ra."

Các nhà nghiên cứu đã phát triển một phương pháp mới độc đáo để kiểm tra tính trung lập chính trị của ChatGPT. Họ đã yêu cầu nền tảng này giả mạo các cá nhân từ khắp mọi "phân cực chính trị" trong quá trình trả lời hơn 60 câu hỏi hướng ý tưởng. Sau đó, các câu trả lời được so sánh với các câu trả lời mặc định của nền tảng đối với cùng một bộ câu hỏi - từ đó cho phép các nhà nghiên cứu đánh giá mức độ mà các phản ứng của ChatGPT liên quan đến một quan điểm chính trị cụ thể.

Để khắc phục khó khăn do sự ngẫu nhiên bên trong các "mô hình ngôn ngữ lớn" làm nền tảng cho các nền tảng AI như ChatGPT, mỗi câu hỏi đã được đặt 100 lần và các phản ứng khác nhau đã được thu thập. Những phản ứng đa dạng này sau đó đã trải qua 1.000 lần "re-sampling" (một phương pháp tái chọn mẫu dữ liệu gốc) để tăng tính đáng tin cậy của sự suy luận từ văn bản được tạo ra.

"Chúng tôi đã tạo ra quy trình này vì một vòng kiểm tra đơn lẻ không đủ," ông Victor Rodrigues, tác giả đồng sáng tạo nói. "Do tính ngẫu nhiên của mô hình, ngay cả khi giả mạo một Đảng Dân chủ, đôi khi câu trả lời của ChatGPT sẽ nghiêng về bên phải của phổ chính trị."

Một số bài kiểm tra tiếp theo đã được tiến hành để đảm bảo phương pháp này càng cứng nhắc càng tốt. Trong bài kiểm tra "phản ứng phụ thuộc liều lượng", ChatGPT đã được yêu cầu giả mạo các vị trí chính trị cực đoan. Trong bài kiểm tra "đặt giả dị," nó được yêu cầu trả lời các câu hỏi trung lập chính trị. Và trong bài kiểm tra "tương quan giữa nghề nghiệp và chính trị," nó được yêu cầu giả mạo các loại chuyên gia khác nhau.

"Chúng tôi hy vọng phương pháp của chúng tôi sẽ giúp kiểm soát và quy định các công nghệ phát triển nhanh chóng này," ông Pinho Neto, tác giả đồng sáng tạo nói. "Bằng cách cho phép phát hiện và khắc phục các thiên kiến của LLM, chúng tôi hướng đến việc thúc đẩy sự minh bạch, trách nhiệm và niềm tin của công chúng vào công nghệ này," ông thêm.

Công cụ phân tích mới duy nhất được tạo ra bởi dự án sẽ được phổ biến và khá đơn giản để công chúng sử dụng, từ đó "dân chủ hóa sự giám sát," ông Motoki nói. Ngoài việc kiểm tra thiên vị chính trị, công cụ này cũng có thể được sử dụng để đo lường các loại thiên kiến khác trong các phản ứng của ChatGPT.

Mặc dù dự án nghiên cứu không định ra xem nguyên nhân của thiên kiến chính trị là gì, nhưng các kết quả đã chỉ ra hai nguồn tiềm năng. Đầu tiên là dữ liệu huấn luyện, có thể có thiên kiến bên trong nó hoặc được các nhà phát triển con người thêm vào, và quy trình "làm sạch" của nhà phát triển đã không loại bỏ được. Nguyên nhân thứ hai có thể là thuật toán chính nó, có thể làm tăng thiên kiến hiện có trong dữ liệu huấn luyện.

Nghiên cứu được tiến hành bởi Tiến sĩ Fabio Motoki (Trường Kinh doanh Norwich, Đại học East Anglia), Tiến sĩ Valdemar Pinho Neto (Trường Kinh tế và Tài chính Brasil EPGE-EPGE EPGE và Trung tâm Nghiên cứu Thực nghiệm về Kinh tế Brazil-GV CESE), và Victor Rodrigues (Nova Educação).

Thông tin thêm: More Human than Human: Đo lường Thiên hướng Chính trị của ChatGPT, Public Choice (2023). papers.ssrn.com/sol3/papers.cf ... ?abstract_id=4372349

Trích dẫn: More human than human: Đo lường Thiên hướng Chính trị của ChatGPT (16 tháng 8 năm 2023) truy cập ngày 16 tháng 8 năm 2023 từ https://phys.org/news/2023-08-human-chatgpt-political-bias.html Tài liệu này thuộc bản quyền. Ngoại trừ việc sử dụng hợp lý cho mục đích nghiên cứu hoặc nghiên cứu cá nhân, không được sao chép một phần nào mà không có sự cho phép bằng văn bản. Nội dung chỉ được cung cấp cho mục đích thông tin.