WASHINGTON (AP) — Các kỹ sư máy tính và nhà khoa học chính trị có định hướng công nghệ đã cảnh báo trong nhiều năm rằng các công cụ trí tuệ nhân tạo rẻ tiền và mạnh mẽ sẽ sớm cho phép bất kỳ ai tạo ra hình ảnh giả, video và âm thanh đủ chân thật để lừa đảo cử tri và có thể ảnh hưởng đến cuộc bầu cử.

Những hình ảnh tổng hợp xuất hiện thường là crude, không thuyết phục và rất tốn kém để sản xuất, đặc biệt là khi các loại thông tin sai lệch khác rất rẻ và dễ lan truyền trên mạng xã hội. Mối đe dọa từ trí tuệ nhân tạo và những deepfakes đã có vẻ như là cách đó một hoặc hai năm.

Không phải nữa.

Công cụ trí tuệ nhân tạo phát sinh đã có thể tạo ra giọng nói con người được nhân bản và hình ảnh, video và âm thanh siêu thực chỉ trong vài giây, với chi phí tối thiểu. Khi liên kết với các thuật toán truyền thông xã hội mạnh mẽ, nội dung giả và tạo ra bằng kỹ thuật số này có thể lan truyền xa và nhanh chóng và các tiểu đoàn chiến dịch có thể dùng để gây những trò dơi này trên quy mô và tốc độ chưa từng thấy.

Những tác động đối với các chiến dịch và cuộc bầu cử năm 2024 vừa ảnh hưởng lớn vừa đáng lo ngại: Trí tuệ nhân tạo có thể không chỉ nhanh chóng tạo ra những email, tin nhắn hay video chiến dịch được nhắm mục tiêu, nó cũng có thể được sử dụng để đánh lừa cử tri, giả mạo ứng viên và phá hoại cuộc bầu cử trên quy mô và tốc độ chưa từng thấy.

Xem thêm: Chuyên gia an ninh cảnh báo về mối đe dọa tiềm năng của công cụ trí tuệ nhân tạo

"Ai đã chuẩn bị cho điều này," cảnh báo A.J. Nash, phó chủ tịch tình báo của công ty an ninh mạng ZeroFox. "Đối với tôi, bước tiến lớn là khả năng âm thanh và video đã xuất hiện. Khi bạn có thể làm điều đó trên quy mô lớn, và phân phối nó trên các nền tảng truyền thông xã hội, thì tác động sẽ lớn."

Chuyên gia trí tuệ nhân tạo có thể nhanh chóng kể ra nhiều kịch bản đáng lo ngại mà trí tuệ nhân tạo tạo ra nội dung truyền thông giả tạo để gây nhầm lẫn cho cử tri, nói xấu ứng viên hoặc thậm chí kích động bạo lực.

Đây là một số ví dụ: Thông điệp tự động để bầu cử cho ứng viên trong giọng nói của ứng viên đó, chỉ dẫn cử tri bỏ phiếu vào ngày sai; băng ghi âm của ứng viên được cho là thú nhận tội phạm hoặc tỏ ý kiến phân biệt chủng tộc; hình ảnh video cho thấy ai đó đang phát biểu hoặc phỏng vấn mà họ không bao giờ phát biểu hoặc phỏng vấn. Hình ảnh giả được thiết kế như các bản tin tin tức địa phương, khẳng định sai rằng ứng viên đã rút lui khỏi cuộc đua tranh.

"Imagine Elon Musk đến gọi điện cho bạn và bảo bạn vote cho ứng viên nào đó?" Nói Oren Etzioni, CEO sáng lập của Viện Allen cho AI, người đã từ chức năm ngoái để bắt đầu một tổ chức phi lợi nhuận AI2. "Rất nhiều người sẽ nghe. Nhưng đó không phải là anh ta."

Xem thêm: 'Godfather of AI' nhắc lại những nguy hiểm mà những công nghệ đang phát triển đem lại cho xã hội

Cựu Tổng thống Donald Trump, người đang chạy trong năm 2024, đã chia sẻ nội dung được tạo ra bằng trí tuệ nhân tạo với người theo dõi của mình trên mạng xã hội. Một video đã bị hiệu chỉnh của CNN, Anderson Cooper, mà Trump đã chia sẻ trên nền tảng Truth Social của mình vào thứ sáu tuần trước, bóp méo phản ứng của Cooper với town hall của CNN tuần này với Trump, đã được tạo ra bằng công cụ sao chép giọng nói AI.

Một quảng cáo chiến dịch điển hình được phát hành vào tháng trước bởi Văn phòng Đảng Cộng hòa Quốc gia hiển thị một cái nhìn khác về tương lai bị điều khiển số hóa này. Quảng cáo trực tuyến, đến sau khi Tổng thống Joe Biden tuyên bố lại tranh cử, và bắt đầu bằng hình ảnh Biden kỳ lạ, hơi bị méo mó và bộ văn bản “Imagine the weakest president we’ve ever had was re-elected?”

Một loạt các hình ảnh được tạo ra bằng trí tuệ nhân tạo trong quảng cáo của Ủy ban Quốc gia Đảng Cộng hòa (RNC) cho thấy Đài Loan bị tấn công; các cửa hàng tạm đóng cửa ở Hoa Kỳ khi nền kinh tế đổ vỡ; các binh sĩ và phương tiện quân sự trang bị đang tuần tra trên đường phố khi các tội phạm mang hình xăm và đợt dân nhập cư tạo ra sự hoảng loạn.

"Một cái nhìn do trí tuệ nhân tạo tạo ra về tương lai có thể của đất nước nếu Joe Biden được tái bầu vào năm 2024," - mô tả của quảng cáo từ RNC.

RNC đã thừa nhận việc sử dụng AI của mình, nhưng những tổ chức khác, bao gồm các chiến dịch chính trị độc hại và các đối thủ nước ngoài, sẽ không thừa nhận, theo Petko Stoyanov, giám đốc công nghệ toàn cầu tại Forcepoint, một công ty an ninh mạng đóng tại Austin, Texas. Stoyanov dự đoán các nhóm muốn can thiệp vào dân chủ Mỹ sẽ sử dụng trí tuệ nhân tạo và phương tiện tổng hợp như một cách để phá vỡ lòng tin.

"Chuyện gì sẽ xảy ra nếu một thực thể quốc tế - một kẻ tội phạm mạng hoặc một quốc gia - mạo danh ai đó. Tác động của nó là gì? Chúng ta có bất kỳ biện pháp pháp lý nào không?" Stoyanov nói. "Chúng ta sẽ thấy nhiều tin tức sai lệch hơn từ nguồn quốc tế."

Các thông tin sai lệch chính trị do trí tuệ nhân tạo tạo ra đã lan truyền trên mạng trước cuộc bầu cử năm 2024, từ một video được chỉnh sửa của Biden xuất hiện đang phát biểu tấn công người chuyển giới đến những hình ảnh nhân tạo của trẻ em được cho là đang học phái đạo Satan trong các thư viện.

Các hình ảnh AI có vẻ như cho thấy được Trump bị bắt giữ cũng đã lừa được một số người dùng mạng xã hội mặc dù cựu Tổng thống không chụp ảnh sau khi bị bắt và đưa ra tòa án tội phạm tại Manhattan vì việc làm giả các hồ sơ kinh doanh. Các hình ảnh khác được tạo ra bởi trí tuệ nhân tạo đã cho thấy Trump chống lại cảnh sát, mặc dù người tạo ra nó đã nhanh chóng thừa nhận nguồn gốc của chúng.

Dự luật yêu cầu các ứng viên đánh dấu quảng cáo chiến dịch được tạo ra bằng trí tuệ nhân tạo đã được giới thiệu tại Hạ Viện bởi Đại biểu Yvette Clarke, D-N.Y. của Mỹ, người đã tài trợ luật lệ yêu cầu bất kỳ người nào tạo ra hình ảnh tổng hợp phải thêm dấu chứng chỉ cho biết điều đó.

Một số tiểu bang đã đưa ra các đề xuất của riêng mình để giải quyết những mối quan ngại về deepfakes.

Clarke nói nỗi sợ lớn nhất của cô là trí tuệ nhân tạo sinh sản có thể được sử dụng trước cuộc bầu cử năm 2024 để tạo ra một video hoặc âm thanh kích động bạo lực và thúc đẩy người Mỹ đối đầu với nhau.

"Quan trọng là chúng ta đuổi kịp công nghệ", - Clarke cho biết với The Associated Press. "Chúng ta phải thiết lập một số dải an toàn. Con người có thể bị lừa dối, và chỉ cần một giây phân chia. Mọi người bận rộn với cuộc sống của họ và họ không có thời gian kiểm tra mỗi thông tin. Trí tuệ nhân tạo được vũ khí hóa, trong mùa bầu cử, nó có thể gây ra sự đảo lộn cực kỳ."

Tháng trước, Hiệp hội Tham vấn Chính trị nước Mỹ tại Washington đã lên tiếng lên án việc sử dụng deepfakes trong quảng cáo chính trị, gọi chúng là "một sự lừa dối" không có chỗ trong các chiến dịch đạo đức, chính trị hợp pháp.

Các hình thức khác của trí tuệ nhân tạo đã từng là một phần của chiến dịch chính trị trong nhiều năm, sử dụng dữ liệu và thuật toán để tự động hóa các nhiệm vụ như nhắm mục tiêu cử tri trên mạng xã hội hoặc theo dõi những người đóng góp. Các chiến lược gia chiến dịch và doanh nhân công nghệ hy vọng những đổi mới mới nhất sẽ mang lại một số điều tích cực vào năm 2024.

"Ý tưởng là mỗi chuyên gia chiến lược Dân chủ, mỗi ứng cử viên Dân chủ sẽ có một người đồng hành trong túi của họ," ông nói.

Swenson tường thuật từ New York."