Một video giả mạo của Tổng thống Biden tái phục hồi dự thưởng và gửi binh sĩ tốt nhất của Mỹ giúp Ukraine chiến đấu.
Hình ảnh giả mạo của cựu tổng thống Donald Trump bị bắt ở New York.
Một quảng cáo đưa ra bởi Ủy ban Quốc gia Đảng Cộng hoà được soạn toàn bộ bằng phương tiện tổng hợp.
Khi các công cụ tạo hình ảnh và công cụ khác trở nên phổ biến, công nghệ nhanh chóng trở thành một công cụ thông điệp chính trị, gây hỗn loạn và thông tin sai lệch. Trong khi đó, sự phát triển nhanh chóng của công nghệ này đã vượt xa quy định của Mỹ.
Một số thành viên trong Quốc hội cho rằng đó là một vấn đề. Vào thứ Ba, Đại biểu Yvette D. Clarke (D-N.Y.) đã đưa ra dự luật yêu cầu tiết lộ nội dung được tạo ra bởi trí tuệ nhân tạo trong quảng cáo chính trị - một phần của nỗ lực, bà cho biết, để “đưa Quốc hội quan tâm đến nhiều thách thức mà chúng ta đang đối mặt với AI”.
“Luật hiện tại của chúng ta không đủ để bảo vệ người Mỹ khỏi những gì mà triển vọng triển khai nhanh chóng của AI có thể làm cho xã hội gặp rắc rối,” Clarke nói trong một cuộc phỏng vấn.
Điểm khởi đầu ngay cho dự luật của bà, là một quảng cáo được phát hành vào tuần trước bởi đảng Cộng hòa Quốc gia sử dụng các hình ảnh được tạo ra bởi AI để vẽ một bức tranh đen tối về một nghiệp kỳ thứ hai cho Biden. Thiết kế để trả lời thông báo của Biden cho biết ông đang chạy đua cho cuộc tổng tuyển cử, đoạn clip kéo dài 30 giây bao gồm các hình ảnh giả mạo của Trung Quốc xâm chiếm Đài Loan và người nhập cư tràn qua biên giới miền Nam, cùng các kịch bản khác. Quảng cáo có một lời khuyên ở góc trên bên trái nói rằng, “Được xây dựng hoàn toàn với hình ảnh AI.”
Clarke cho biết việc tiết lộ đã làm cho quảng cáo của đảng Cộng hòa trở thành một mô hình của việc triển khai AI minh bạch trên một mặt, nhưng bà cảnh báo rằng không phải tất cả các đối tượng sẽ tuân thủ ví dụ đó, và hậu quả có thể rất nghiêm trọng trong chiến dịch tổng tuyển cử năm 2024.
Dự luật của Clarke sẽ sửa đổi luật tài trợ chiến dịch liên bang để yêu cầu các quảng cáo chính trị bao gồm một tuyên bố tiết lộ bất kỳ việc sử dụng hình ảnh được tạo ra bởi AI. Ủy ban Bầu cử Liên bang gần đây đã thắt chặt các quy tắc về tuyên bố nhà tài trợ cho quảng cáo số để làm rõ rằng yêu cầu tiết lộ ai đã trả tiền cho quảng cáo được thúc đẩy trên các trang web cũng áp dụng cho quảng cáo trên các nền tảng khác, chẳng hạn như mạng xã hội và các trang web phát trực tuyến.
Cải cách bổ sung cần được thực hiện do các “đổi mới cách mạng” trong công nghệ AI, cũng như tiềm năng “sử dụng AI phát sinh gây hại đến chế độ dân chủ của chúng ta”, theo dự luật của Clarke.
Các nhà lập pháp chưa hành động với sự khẩn trương trên các biện pháp đề xuất tương tự nhằm hạn chế việc sử dụng các ứng dụng AI, bao gồm công nghệ nhận diện khuôn mặt. Dự luật này đã bị đình trệ giữa sự bế tắc Quốc hội rộng hơn mà cũng đã ngăn cản các đề xuất về quyền riêng tư và minh bạch quảng cáo, tuy nhiên lãnh đạo đa số Thượng viện Charles E. Schumer (D-N.Y.) gần đây đã đưa ra một khuôn khung cho quy định AI có thể khơi gợi hành động.
Năm ngoái, Clarke không phải là thành viên Quốc hội đơn lẻ lên tiếng giới hạn việc sử dụng công nghệ này bởi cảnh sát, nhưng nó không vượt qua hai ủy ban mà nó được giới thiệu tới. Các biến thể của dự luật đã được giới thiệu trong nhiều năm. Một phiên bản, cấm chính phủ triển khai công nghệ nhận diện khuôn mặt và các kỹ thuật sinh học khác, đã được giới thiệu gần đây.
Một số nhà lập pháp đã tìm cách sáng tạo để tạo đà cho hành động của Quốc hội. Đầu năm nay, Đại biểu Ted Lieu (D-Calif.) đã giới thiệu một biện pháp kêu gọi Quốc hội quy định việc phát triển và triển khai công nghệ AI. Để nhấn mạnh sức mạnh của công nghệ, Lieu đã tạo ra nghị quyết bằng mô hình ngôn ngữ AI ChatGPT.
Con người đã viết dự luật của Clarke. Và trong khi bà không triển khai hay bị lừa bởi các hình ảnh được tạo ra bởi AI, bà cho biết, nhu cầu tạo ra các điểm kiểm soát là rõ ràng.
“Tôi nghĩ rằng có sự sử dụng quan trọng của AI, nhưng cũng phải có một số quy tắc để xử lý, để người dân Mỹ không bị đánh lừa hoặc đưa vào tình thế nguy hiểm,” bà nói.