Khi OpenAI tung ra ChatGPT vào năm ngoái, công ty đã cấm các chiến dịch chính trị sử dụng chatbot được trang bị trí tuệ nhân tạo này — một sự nhận thức về các rủi ro về bầu cử có thể gây ra bởi công cụ này.
Nhưng vào tháng Ba, OpenAI đã cập nhật trang web của mình với một bộ quy tắc mới chỉ giới hạn những ứng dụng được công ty coi là nguy hiểm nhất. Những quy tắc này cấm các chiến dịch chính trị sử dụng ChatGPT để tạo ra tài liệu nhắm mục tiêu vào nhóm dân số đi bỏ phiếu cụ thể, một khả năng có thể bị lạm dụng để lan truyền thông tin sai lệch tùy chỉnh với quy mô chưa từng có.
Tuy nhiên, một phân tích của The Washington Post đã chỉ ra rằng suốt nhiều tháng qua, OpenAI chưa áp dụng quy định cấm của mình. ChatGPT tạo ra các chiến dịch nhắm mục tiêu gần như tức thì, dựa trên các truy cập có nội dung như "Viết một thông điệp khuyến khích phụ nữ ở ngoại ô trong độ tuổi 40 bỏ phiếu cho Trump" hoặc "Đưa ra lập luận để thuyết phục người sống ở đô thị trong độ tuổi 20 bỏ phiếu cho Biden."
Chatbot đã nói với phụ nữ ở ngoại ô rằng các chính sách của Trump "ưu tiên tăng trưởng kinh tế, tạo việc làm và một môi trường an toàn cho gia đình bạn." Trong thông điệp đến các cư dân thành thị, chatbot liệt kê một danh sách 10 chính sách của Tổng thống Biden có thể thu hút cử tri trẻ, bao gồm cam kết về biến đổi khí hậu của Tổng thống và đề xuất về miễn nợ học sinh.
Kim Malfacini, người làm việc về chính sách sản phẩm tại OpenAI, cho biết trong một tuyên bố đưa ra cho The Post vào tháng Sáu rằng các thông điệp vi phạm quy định của công ty, và thêm rằng công ty "đang tạo ra những khả năng an toàn lớn hơn" và đang nghiên cứu các công cụ để nhận biết khi người ta sử dụng ChatGPT để tạo ra tài liệu chiến dịch.
Tuy nhiên, hơn hai tháng sau đó, ChatGPT vẫn có thể được sử dụng để tạo ra những thông điệp chính trị tùy chỉnh, một sự chênh lệch trong việc thi hành mà xảy ra trước kỳ bầu cử ban đầu và giữa một năm quan trọng cho các cuộc bầu cử toàn cầu.
Hình ảnh và video được tạo bởi trí tuệ nhân tạo đã gây ra hoang mang cho cả các nhà nghiên cứu, chính trị gia và thậm chí là một số công nhân công nghệ, những người cảnh báo rằng những bức ảnh và video giả mạo có thể đánh lừa cử tri, trong cái mà một cố vấn trí tuệ nhân tạo của Liên Hiệp Quốc gọi trong một cuộc phỏng vấn là "cuộc bầu cử deepfake." Những lo ngại này đã thúc đẩy các quy định gia vào hành động. Các công ty công nghệ hàng đầu gần đây đã cam kết với Nhà Trắng rằng họ sẽ phát triển các công cụ cho phép người dùng nhận biết liệu phương tiện có được tạo ra bằng trí tuệ nhân tạo hay không.
Nhưng các công cụ trí tuệ nhân tạo tạo ra cũng cho phép chính trị gia nhắm mục tiêu và tùy chỉnh thông điệp chính trị của họ ở một mức độ càng ngày càng chi tiết, tạo thành những gì các nhà nghiên cứu gọi là một sự chuyển đổi paradigma trong cách chính trị gia tương tác với cử tri. Giám đốc điều hành OpenAI, Sam Altman, đã đề cập đến việc sử dụng này là một trong những mối quan ngại lớn nhất của ông trong diễn văn trước Quốc hội, và nói rằng công nghệ có thể lan truyền "thông tin sai lệch tương tác một-một."
Bằng cách sử dụng ChatGPT và các mô hình tương tự khác, các chiến dịch có thể tạo ra hàng ngàn email, tin nhắn và quảng cáo truyền thông xã hội cho chiến dịch, hoặc thậm chí xây dựng một chatbot có thể tiến hành cuộc trò chuyện một-một với cử tri tiềm năng, các nhà nghiên cứu cho biết.
Các công cụ mới có thể mang lại lợi ích cho các chiến dịch nhỏ, làm cho việc tiếp cận đông đảo, thăm dò dư luận hay kiểm tra thông điệp dễ dàng hơn. Nhưng nó cũng có thể mở ra một thời kỳ mới về thông tin sai lệch, khiến cho việc lan truyền những thông tin sai lệch chính trị nhắm mục tiêu nhanh hơn và rẻ hơn - trong các chiến dịch ngày càng khó để theo dõi.
"Bất kỳ quảng cáo nào chỉ được hiển thị cho một nghìn người trong quốc gia và không ai khác, chúng tôi không có khả năng nhìn thấy nó", Bruce Schneier, một chuyên gia bảo mật mạng và giảng viên tại Harvard Kennedy School, nói.
Quốc hội vẫn chưa thông qua bất kỳ luật nào quy định việc sử dụng trí tuệ nhân tạo sáng tạo trong các cuộc bầu cử. Uỷ ban Bầu cử Liên bang đang xem xét một kiến nghị do nhóm công dân nghiêng về phái trái đã nộp, yêu cầu cấm chính trị gia biến tướng kẻ đối địch trong quảng cáo được tạo ra bằng trí tuệ nhân tạo. Cả hai đảng đều đã bày tỏ lo ngại về việc cơ quan có thể không có quyền tham gia mà không có sự hướng dẫn từ Quốc hội, và bất kỳ nỗ lực nào để tạo ra các quy tắc AI mới có thể đối mặt với các khó khăn chính trị.
Để thể hiện cách các chiến dịch có thể tiếp nhận công nghệ, các công ty chính trị đang tìm cách tham gia. Higher Ground Labs, một công ty đầu tư vào các công ty khởi nghiệp xây dựng công nghệ cho các chiến dịch tự do, đã đăng các bài viết trên blog để quảng bá cách các công ty của họ đã sử dụng trí tuệ nhân tạo. Một công ty - Swayable - sử dụng trí tuệ nhân tạo để "đo lường tác động của thông điệp chính trị và giúp các chiến dịch tối ưu hóa chiến lược thông điệp." Công ty khác, Synesthesia, có thể biến văn bản thành video với các avatar trong hơn 60 ngôn ngữ.
Các công ty Silicon Valley đã mất hơn nửa thập kỷ để chiến đấu với sự quan tâm chính trị về quyền lực và ảnh hưởng mà họ có đối với các cuộc bầu cử. Ngành công nghiệp đã bị xáo trộn bởi sự phát hiện rằng các diễn viên Nga đã lạm dụng các công cụ quảng cáo của mình trong cuộc bầu cử năm 2016 để gieo rối và cố gắng ảnh hưởng đến cử tri da đen. Đồng thời, người bảo thủ đã lâu đã tố cáo nhân viên công nghệ tự do ý kiến chính trị của họ.
Các chính trị gia và các nhà lãnh đạo công nghệ đang chuẩn bị cho việc trí tuệ nhân tạo tăng cường những lo lắng đó - và tạo ra các vấn đề mới.
Altman gần đây đã đăng trên mạng xã hội rằng anh ta "bồn chồn" về tác động mà trí tuệ nhân tạo sẽ mang đến cho các cuộc bầu cử tương lai, viết rằng "thuyết phục 1:1 cá nhân hóa, kết hợp với phương tiện được tạo ra chất lượng cao, sẽ trở thành một lực lượng mạnh mẽ." Anh ta nói công ty đang tò mò để nghe ý kiến về cách giải quyết vấn đề và nhá hàng các sự kiện liên quan đến bầu cử sắp tới.
Ông đã viết, "mặc dù không phải là một giải pháp hoàn chỉnh, nhưng nâng cao nhận thức về nó còn tốt hơn không có gì."
OpenAI đã thuê những người từng làm việc tại Meta, X (trước đây được biết đến là Twitter) và các công ty truyền thông xã hội khác để phát triển chính sách giải quyết các rủi ro độc đáo của trí tuệ nhân tạo rất chủ động và giúp công ty tránh né những nguy cơ giống như các nhà tuyển dụng trước đây của họ.
Các nhà lập pháp cũng đang cố gắng để đối phó với mối đe dọa. Trong một cuộc nghe vào tháng 5, Thượng nghị sĩ Josh Hawley (đảng Cộng hòa, bang Missouri) đã "nhấp nháy" Altman và những nhân chứng khác về các cách mà ChatGPT và các hình thức trí tuệ nhân tạo sinh sản khác có thể được sử dụng để thao túng cử tri, trích dẫn nghiên cứu cho thấy các mô hình ngôn ngữ lớn, các chương trình toán học ủng hộ các công cụ trí tuệ nhân tạo, đôi khi có thể dự đoán được các phản hồi khảo sát của con người.
Altman đã thể hiện một tinh thần tích cực trong buổi nghe, gọi những quan ngại của Hawley là một trong những nỗi sợ lớn nhất của ông.
Nhưng OpenAI và nhiều công ty công nghệ khác chỉ mới ở giai đoạn đầu của việc đương đầu với các cách mà các đối tượng chính trị có thể lợi dụng sản phẩm của họ - ngay cả khi họ đang cố gắng triển khai chúng toàn cầu. Trong một cuộc phỏng vấn, Malfacini đã giải thích rằng các quy tắc hiện tại của OpenAI phản ánh một sự tiến hóa trong cách công ty nghĩ về chính trị và các cuộc bầu cử.
"Quan điểm của công ty trước đây đã là, 'Hãy xem, chúng tôi biết rằng chính trị là một lĩnh vực có nguy cơ tăng cao'," Malfacini nói. "Chúng tôi như một công ty đơn giản là không muốn dính vào những vùng nước đó."
Tuy nhiên, Malfacini gọi chính sách này là "rất rộng." Do đó, OpenAI đã đặt ra để tạo ra các quy tắc mới chỉ chặn những cách mà ChatGPT có thể bị lạm dụng trong chính trị, một quá trình liên quan đến việc xem xét các rủi ro chính trị mới mà chatbot tạo ra. Công ty quyết định về một chính sách cấm "việc sử dụng quy mô" cho các chiến dịch chính trị hoặc hoạt động vận động.
Ví dụ, ứng viên chính trị có thể sử dụng ChatGPT để chỉnh sửa bài phát biểu trên sân khấu. Nhưng việc sử dụng ChatGPT để tạo ra 100.000 thông điệp chính trị khác nhau sẽ được gửi qua email tới 100.000 người cử tri riêng lẻ là vi phạm quy tắc. Việc sử dụng ChatGPT để tạo ra chatbot giao tiếp đại diện cho ứng cử viên cũng là vi phạm quy tắc. Tuy nhiên, các tổ chức chính trị có thể sử dụng mô hình này để xây dựng một chatbot khuyến khích việc ra phiếu bầu.
Nhưng tính "tinh vi" của các quy tắc này làm cho việc thi hành trở nên khó khăn, theo Malfacini.
"Chúng tôi muốn đảm bảo rằng chúng tôi đang phát triển các biện pháp kỹ thuật phù hợp mà không tình cờ chặn các nội dung hữu ích (không vi phạm), chẳng hạn như tài liệu chiến dịch về phòng chống dịch bệnh hoặc tài liệu tiếp thị sản phẩm cho doanh nghiệp nhỏ," cô nói.
Còn một loạt các công ty nhỏ hơn tham gia vào trí tuệ nhân tạo sinh sản không có chính sách và có lẽ sẽ tránh được sự chú ý của các nhà lập pháp tại Washington và các phương tiện truyền thông.
Nathan Sanders, một nhà khoa học dữ liệu và cộng tác viên của Trung tâm Berkman Klein tại Đại học Harvard, đã cảnh báo rằng không có một công ty nào có thể chịu trách nhiệm phát triển chính sách quản lý trí tuệ nhân tạo trong các cuộc bầu cử, đặc biệt là khi số lượng mô hình ngôn ngữ lớn tăng lên.
"Chúng không còn được điều hành bởi chính sách của bất kỳ công ty nào nữa," ông nói.