Phóng to / Hình ảnh của một đám mây nấm hạt nhân được tạo bởi trí tuệ nhân tạo. Vào ngày thứ Tư, thượng nghị sĩ Edward Markey (D-Mass.) và các đại diện Ted Lieu (D-Calif.), Don Beyer (D-Va.) và Ken Buck (R-Colo.) đã thông báo về dự luật song phương nhằm ngăn chặn hệ thống trí tuệ nhân tạo ra quyết định phóng một vũ khí hạt nhân. Đạo luật Block Nuclear Launch by Autonomous Artificial Intelligence Act sẽ cấm việc sử dụng các khoản tài trợ liên bang để triển khai bất kỳ vũ khí hạt nhân nào bằng hệ thống tự động mà không có "sự kiểm soát của con người đầy ý nghĩa".
"Trong thời đại ngày càng số hóa này, chúng ta cần đảm bảo con người giữ quyền lực duy nhất để chỉ huy, điều khiển và phóng các vũ khí hạt nhân - không phải các robot," Thượng nghị sĩ Markey cho biết trong một thông cáo báo chí. "Đó là lý do tại sao tôi tự hào giới thiệu dự luật Block Nuclear Launch by Autonomous Artificial Intelligence Act. Chúng ta cần giữ con người trong chuỗi quyết định sử dụng vũ lực gây thương tích hoặc chết người, đặc biệt là đối với những loại vũ khí nguy hiểm nhất."
Dự luật mới được xây dựng dựa trên chính sách hiện có của Bộ Quốc phòng Hoa Kỳ, tài liệu nêu rõ rằng trong tất cả các trường hợp, "Hoa Kỳ sẽ duy trì 'sự kiểm soát của con người' đối với tất cả các hành động cần thiết để cung cấp thông tin và thực hiện quyết định của Tổng thống về việc khởi động và chấm dứt việc sử dụng vũ khí hạt nhân."
Dự luật mới nhằm đưa nguyên tắc của Bộ Quốc phòng thành luật, và cũng làm theo khuyến nghị của Ủy ban An ninh Quốc gia về Trí tuệ Nhân tạo, kêu gọi Hoa Kỳ xác nhận chính sách của mình là chỉ con người mới đủ thẩm quyền để ủy quyền sử dụng vũ khí hạt nhân.
"Trong khi sử dụng trí tuệ nhân tạo của quân đội Hoa Kỳ có thể phù hợp cho mục đích nâng cao an ninh quốc gia, việc sử dụng trí tuệ nhân tạo để triển khai vũ khí hạt nhân mà không có chuỗi kiểm soát và điều khiển của con người là nguy hiểm và nên bị cấm," Buck phát biểu. "Tôi tự hào cho việc làm đồng tác giả của dự luật này để đảm bảo con người, không phải máy móc, có quyền kiểm soát cuối cùng đối với các quyết định quân sự quan trọng và nhạy cảm nhất."
Dự luật mới được đưa ra khi lo lắng tăng lên về tiềm năng tương lai của công nghệ trí tuệ nhân tạo (thỉnh thoảng lại còn bị sai lệch hiểu biết và quá phổ biến), mà đã khiến một nhóm nghiên cứu cho rằng cần tạm dừng việc phát triển các hệ thống "mạnh mẽ" hơn GPT-4 vào tháng Ba.
Trong khi GPT-4 không được sợ hãi có thể tạo ra một cuộc tấn công hạt nhân, một nhóm các nhà nghiên cứu trí tuệ nhân tạo chấm điểm các khả năng của các mô hình ngôn ngữ lớn phổ biến nhất hiện nay của OpenAI và lo sợ rằng các hệ thống trí tuệ nhân tạo tương lai tiên tiến hơn có thể sẽ là mối đe dọa đối với nền văn minh con người. Một số nỗi sợ này đã được chuyển sang cộng đồng dân chúng rộng lớn, mặc dù những lo lắng về mối đe dọa về tồn tại từ trí tuệ nhân tạo vẫn còn là vấn đề gây tranh cãi trong cộng đồng học máy rộng lớn.
Để tránh leo thang hạt nhân, dự luật mới cũng là phần của kế hoạch lớn hơn của Markey và Lieu. Cặp đôi này cũng vừa giới thiệu lại một dự luật cấm bất kỳ Tổng thống Mỹ nào khởi động một cuộc tấn công hạt nhân mà không có sự ủy quyền từ Quốc hội. Mục tiêu chung, theo các nghị sĩ, là giảm rủi ro "thảm họa hạt nhân" và ngăn chặn sự gia tăng vũ khí hạt nhân.
Các Đồng tác giả của Block Nuclear Launch by Autonomous Artificial Intelligence Act ở Thượng viện bao gồm Bernie Sanders (I-Vt.) và Elizabeth Warren (D-Mass.).