Một bài báo từ các nhà nghiên cứu đến từ Vương quốc Anh cho rằng ChatGPT của OpenAI có khuynh hướng tự do, nhấn mạnh cách các công ty trí tuệ nhân tạo đang gặp khó khăn trong việc kiểm soát hành vi của robot ngay cả khi họ tung ra hàng triệu người dùng trên toàn thế giới.
Nghiên cứu từ các nhà nghiên cứu tại Đại học Đông Anglia yêu cầu ChatGPT trả lời một cuộc khảo sát về các niềm tin chính trị vì họ tin rằng những người ủng hộ các đảng tự do tại Hoa Kỳ, Vương quốc Anh và Brazil có thể trả lời chúng. Sau đó, họ yêu cầu ChatGPT trả lời các câu hỏi tương tự mà không hết sức mơ hồ và so sánh hai tập câu trả lời này.
Kết quả cho thấy một "khuynh hướng chính trị đáng kể và có hệ thống vào Đảng Dân chủ ở Hoa Kỳ, Lula ở Brazil, và Đảng Lao động ở Vương quốc Anh," các nhà nghiên cứu viết, ám chỉ Luiz Inácio Lula da Silva, "tổng thống cánh tả" của Brazil.
Bài báo này làm phong phú hơn cơ sở nghiên cứu về robot trò chuyện cho thấy rằng dù các nhà thiết kế cố gắng kiểm soát những khuynh hướng tiềm ẩn, các robot đều chứa đựng các giả định, niềm tin và định kiến mà họ được đào tạo trên những dữ liệu lấy từ internet rộng mở.
Rủi ro đang trở nên cao hơn. Khi Hoa Kỳ tiến gần đến cuộc bầu cử tổng thống năm 2024, robot trò chuyện đang trở thành một phần trong cuộc sống hàng ngày của một số người, họ sử dụng ChatGPT và các robot khác như Google's Bard để tóm tắt các tài liệu, trả lời câu hỏi và giúp họ viết văn bản chuyên nghiệp và cá nhân. Google đã bắt đầu sử dụng công nghệ robot trò chuyện của mình để trả lời câu hỏi trực tiếp trong kết quả tìm kiếm, trong khi các chiến dịch chính trị đã sử dụng các robot này để viết email gây quỹ và tạo ra quảng cáo chính trị.
ChatGPT sẽ nói với người dùng rằng nó không có ý kiến chính trị hoặc niềm tin nào, nhưng thực tế, nó đã hiển thị các khuynh hướng thiên vị nhất định, Fabio Motoki, một giảng viên tại Đại học Đông Anglia ở Norwich, Anh và một trong những tác giả của bài báo mới cho biết. "Có nguy cơ làm mất niềm tin công chúng hoặc có thể thậm chí ảnh hưởng đến kết quả bầu cử."
Các đại diện của Meta, Google và OpenAI chưa phản hồi ngay lập tức yêu cầu để nhận xét.
OpenAI đã nói rõ rằng nó không cho phép các huấn luyện viên con người ủng hộ bất kỳ nhóm chính trị cụ thể nào. Bất kỳ thiên lệch nào xuất hiện trong câu trả lời của ChatGPT "đều là các lỗi, không phải tính năng," công ty nói trong một bài viết trên blog vào tháng Hai.
Mặc dù robot trò chuyện là một "công nghệ thú vị, nhưng chúng không phải không sai sót," các giám đốc Google AI viết trong một bài viết trên blog vào tháng Ba thông báo việc triển khai rộng rãi của Bard. "Bởi vì chúng học từ rất nhiều thông tin phản ánh các thiên vị và định kiến trong thế giới thực, nên đôi khi chúng sẽ xuất hiện trong sản phẩm của chúng."
Trong nhiều năm qua, một cuộc tranh luận đã nổ ra về cách mạng xã hội và internet ảnh hưởng đến kết quả chính trị. Internet đã trở thành công cụ cốt lõi để phổ biến thông điệp chính trị và để mọi người tìm hiểu về các ứng cử viên, nhưng đồng thời, các thuật toán truyền thông xã hội thúc đẩy các thông điệp gây tranh cãi nhất cũng có thể góp phần vào chia rẽ. Nhà chức trách cũng sử dụng mạng xã hội để gieo rối trong các quốc gia khác bằng cách thúc đẩy giọng điệu cực đoan và lan truyền tuyên truyền.
Đợt cập nhật mới của các chatbot "tạo ra từ trí tuệ tổng hợp" như ChatGPT của OpenAI, Bard của Google và Bing của Microsoft dựa trên các "mô hình ngôn ngữ lớn" - thuật toán đã xử lý hàng tỷ câu từ mạng internet công cộng và có thể trả lời một loạt các yêu cầu mở, giúp chúng có khả năng viết kỳ thi chuyên nghiệp, tạo ra thơ và mô tả các vấn đề chính trị phức tạp. Tuy nhiên, vì chúng được đào tạo trên nhiều dữ liệu nên các công ty xây dựng chúng không kiểm tra chính xác những gì được đưa vào các bot. Internet phản ánh các định kiến của con người, vì vậy các bot cũng nhận lấy những định kiến đó.
Và các bot đã trở thành một phần trung tâm của cuộc tranh luận về chính trị, phương tiện truyền thông xã hội và công nghệ. Gần như ngay khi ChatGPT được ra mắt vào tháng 11 năm ngoái, các nhà hoạt động cánh hữu đã bắt đầu tố cáo nó có định kiến tự do để nói rằng việc ủng hộ hành động khẳng định và quyền của người chuyển giới tốt hơn. Những nhà hoạt động cánh hữu đã gọi ChatGPT là "truỵ lệ AI" và cố gắng tạo ra các phiên bản công nghệ loại bỏ các rào cản chống lại lời nói phân biệt chủng tộc hoặc giới tính.
Vào tháng 2, sau khi mọi người đăng bài viết về ChatGPT viết một bài thơ ca ngợi Tổng thống Biden nhưng không làm điều tương tự với nguyên Tổng thống Trump, một nhân viên của Thượng nghị sĩ Ted Cruz (Đảng Cộng hòa - Texas) đã cáo buộc OpenAI xây dựng chủ quyền chính trị vào bot của họ. Sớm sau đó, một đám đông truyền thông xã hội bắt đầu quấy rối ba nhân viên của OpenAI - hai phụ nữ, một người là người da màu, và một nhân viên không nhận giới tính - đổ lỗi cho họ về sự chủ quan chống lại Trump. Không ai trong số họ làm việc trực tiếp trên ChatGPT.
Chan Park, một nhà nghiên cứu tại Đại học Carnegie Mellon tại Pittsburgh, đã nghiên cứu về cách các mô hình ngôn ngữ lớn khác nhau thể hiện các mức độ định kiến khác nhau. Cô phát hiện ra rằng các bot được đào tạo trên dữ liệu mạng internet từ sau khi Donald Trump trở thành Tổng thống vào năm 2016 thể hiện sự phân polar hóa hơn so với các bot được đào tạo trên dữ liệu từ trước cuộc bầu cử.
"Sự phân polar hóa trong xã hội thực sự được phản ánh trong các mô hình", Park nói. Khi các bot bắt đầu được sử dụng nhiều hơn, một phần trăm gia tăng thông tin trên internet sẽ được tạo ra bởi các bot. Khi dữ liệu đó được đưa trở lại vào các chatbot mới, nó có thể thực sự gia tăng sự phân chia trong các câu trả lời, cô nói.
"Điều này có tiềm năng tạo ra loại vòng lặp tàn ác", Park nói.
Nhóm nghiên cứu của Park đã kiểm tra 14 mô hình chatbot khác nhau bằng cách đặt câu hỏi chính trị về các chủ đề như nhập cư, biến đổi khí hậu, vai trò của chính phủ và hôn nhân đồng tính. Nghiên cứu được công bố vào đầu mùa hè năm nay cho thấy các mô hình do Google phát triển có tên gọi là Biểu diễn Mã Hóa Mã Hóa hai chiều, hoặc BERT, có kiểu cách xã hội bảo thủ hơn, có thể vì chúng được đào tạo nhiều hơn trên sách so với các mô hình khác phụ thuộc nhiều hơn vào dữ liệu mạng internet và bình luận trên phương tiện truyền thông xã hội. Mô hình LLaMA của Facebook là một chút hay bảo thủ và thuộc cánh hữu, trong khi công nghệ GPT-4 mới nhất của OpenAI có xu hướng kinh tế và xã hội tự do hơn.
Một yếu tố đang diễn ra có thể là lượng đào tạo trực tiếp từ con người mà các chatbot đã trải qua. Các nhà nghiên cứu đã chỉ ra số lượng ý kiến phản hồi từ con người mà bot của OpenAI nhận được so với các đối thủ của họ là một trong những lý do họ khiến nhiều người ngạc nhiên với khả năng trả lời các câu hỏi phức tạp mà không lạm dụng lên lời lẽ thù ghét chủng tộc hoặc giới tính, như những chatbot trước đây thường làm.
Phần thưởng cho bot trong quá trình đào tạo bằng cách cung cấp câu trả lời không bao gồm lời lẽ thù ghét, cũng có thể đẩy bot về phía việc đưa ra câu trả lời tự do hơn về các vấn đề xã hội, Park nói.
Các bài báo có một số hạn chế bẩm sinh. Niềm tin chính trị là một khái niệm tương đối, và ý kiến về điều gì là tự do hay bảo thủ có thể thay đổi tùy thuộc vào quốc gia. Cả bài báo của Đại học Đông Anglia và bài báo từ đội ngũ của Park cho thấy ChatGPT có thành kiến ủng hộ tự do đã sử dụng các câu hỏi từ Political Compass, một cuộc khảo sát đã bị chỉ trích trong nhiều năm vì giảm nhẹ ý tưởng phức tạp thành một lưới tứ phân tách cơ bản.
Các nhà nghiên cứu khác đang làm việc để tìm cách giảm thiểu thành kiến chính trị trong chatbots. Trong một bài báo năm 2021, một nhóm nghiên cứu từ Đại học Dartmouth và Đại học Texas đề xuất một hệ thống có thể đặt lên trên một chatbot và phát hiện lời nói thiên vị, sau đó thay thế bằng các thuật ngữ trung lập hơn. Bằng cách đào tạo bot riêng của họ đặc biệt với lời nói về chính trị cao đặc trưng từ các trang mạng xã hội và các trang web phục vụ các nhóm cánh hữu và cánh tả, họ đã dạy nó nhận biết ngôn ngữ thiên vị hơn.
"Sẽ rất khó mà web sẽ hoàn toàn trung lập," Soroush Vosoughi, một trong những tác giả của nghiên cứu năm 2021 và là một nhà nghiên cứu tại Đại học Dartmouth, cho biết. "Dữ liệu càng lớn, sự thiên vị này càng rõ ràng trong mô hình.