Liên Hợp Quốc vừa thực hiện nhiều hoạt động mới nhằm đối phó với các công nghệ trí tuệ nhân tạo (AI) trong những tuần gần đây, sau sự tiến bộ nhanh chóng và những tác động không rõ ràng của các hệ thống AI.
Các nhà lập pháp từ cả hai viện - đặc biệt là Thượng nghị sĩ Ed Markey, D-Mass và Đại diện Ted Lieu, D-Calif, Don Beyer, D-Va, và Ken Buck, R-Colo. đã đưa ra luật mới ngày thứ tư để đáp ứng với sự lo ngại gia tăng của những hệ thống AI không được quy định khi ra quyết định quan trọng của xã hội và điều hành hoạt động hạ tầng.
Dự luật đôi bên và đồng chính phủ này nhằm mục đích quản lý tốt hơn các hệ thống AI có thể điều khiển các vũ khí hạt nhân của Mỹ. Với tên gọi “Luật Chặn Phóng Của Hệ Thống Hạt Nhân Tự Động AI Năm 2023”, dự luật này chủ yếu nhằm bắt buộc yếu tố con người trong tất cả các giao thức và hệ thống quản lý thiết bị hạt nhân của nhà nước.
“Vì chúng ta đang sống trong một thời đại ngày càng số hóa, chúng ta cần đảm bảo rằng con người giữ quyền lực thống trị, điều khiển và phóng hạt nhân - không phải là robot”, ông Markey cho biết trong một thông cáo báo chí. “Chúng ta cần giữ cho con người trong quá trình ra quyết định sống hoặc chết để sử dụng lực lượng đánh thuê, đặc biệt là đối với vũ khí nguy hiểm nhất của chúng ta”.
Xây dựng trên Đánh giá Vị trí Hạt nhân 2022 của Bộ Quốc phòng Hoa Kỳ và các quy định của Hiệp định Genève, dự luật sẽ phổ quát hoá yêu cầu “kiểm soát con người có ít nhất một phần” trong bất kỳ hệ thống vũ khí tự động nào.
Dự luật đã thu hút sự tham gia của Đồng chí Bernie Sanders, I-Vt, Đồng chí Elizabeth Warren, D-Mass, và Đồng chí Jeff Merkley, D-Ore.
“Trong khi việc sử dụng AI của quân đội Mỹ có thể phù hợp cho mục đích tăng cường an ninh quốc gia, việc sử dụng AI để triển khai vũ khí hạt nhân mà không có chuỗi lệnh và kiểm soát của con người là vô trách nhiệm, nguy hiểm và cần được cấm”, Buck cho biết. “Tôi rất tự hào được đồng tác giả dự luật này để đảm bảo rằng con người, không phải máy móc, sẽ có quyền quyết định cuối cùng về các quyết định quân sự quan trọng và nhạy cảm nhất.”
Thượng nghị sĩ Mark Warner, D-Va, cũng đã yêu cầu có sự minh bạch hơn đối với các hệ thống AI, phát hành hàng loạt thư đến các giám đốc điều hành của các công ty công nghệ tiên tiến mở rộng vào lĩnh vực AI, bao gồm Tim Cook của Apple và Sundar Pichai của Google.
Warner khẩn khoản yêu cầu người đứng đầu công nghệ phải điều tra kỹ lưỡng về những hại hỏa được ghi nhận trong các công nghệ học máy và AI, đặc biệt là thiên vị được học thông qua đầu vào dữ liệu.
“Với việc sử dụng AI ngày càng tăng trên các lĩnh vực kinh tế của chúng ta và khả năng để trải qua các mô hình ngôn ngữ lớn liên tục được tích hợp vào các hệ thống hiện có, từ lĩnh vực chăm sóc sức khỏe đến lĩnh vực tài chính, tôi thấy có một nhu cầu khẩn cấp để nhấn mạnh việc đặt an ninh lên hàng đầu của công việc của bạn”, Warner viết.
Ông cũng nhấn mạnh sự cần thiết phải kiểm soát các lỗ hổng bảo mật trong các hệ thống tự động hóa, bao gồm các cuộc tấn công đầu độc dữ liệu. Như một phần của cuộc điều tra của mình, Warner yêu cầu có một cái nhìn tổng thể về các nỗ lực bảo mật của từng công ty, quy trình truy cập bên thứ ba và các yêu cầu an ninh khác.
“Khi chúng ta xây dựng những nền tảng AI này, những công cụ AI này, tôi đã hỏi tất cả các công ty lớn: 'Hãy cho tôi biết bạn đang làm gì để đảm bảo an ninh ở vị trí đầu tiên.' Tất cả những cơ sở dữ liệu lớn này cho phép các thuật toán tạo ra thông tin này trong quá trình hình thành các mô hình ngôn ngữ của AI sinh động”, ông Warner cho biết với phóng viên trong cuộc gọi báo chí vào ngày thứ năm. “Bạn phải đảm bảo rằng, ngay từ đầu, đã có các bảo vệ an ninh phù hợp”.
Các nỗ lực của Warner và Đạo luật Chặn Phóng Hạt Nhân mới phản ánh các cuộc điều tra liên bang đang diễn ra để quản lý tốt hơn các phần mềm AI /ML đang nổi lên nhưng có sức mạnh. Các nhà lập pháp khác đã sử dụng các công cụ AI như ChatGPT phổ biến để đề xuất cho việc quy định nó, và vị trí của nó trong công nghệ hạt nhân cụ thể đã được thảo luận bởi Ủy ban Điều hành Hạt nhân, phát hành một bản nháp kế hoạch chiến lược AI đầu tiên của họ vào tháng Sáu năm ngoái. Giống như dự luật, tài liệu của Ủy ban cũng nhấn mạnh nhu cầu tương tác liên tục giữa con người và máy móc.
"Trí tuệ nhân tạo đề nghị rất nhiều khả năng, và cũng ... AI không bị ràng buộc có thể tiếp quản các chức năng chính", Warner nói. “Vì vậy, tôi đang cố gắng đảm bảo rằng tôi được giáo dục và giáo dục đồng nghiệp của tôi - không có vấn đề chính trị nào về vấn đề này”.
Ông cũng thêm rằng, trong khi Hoa Kỳ nên tiếp tục thúc đẩy sự đổi mới trong các sản phẩm AI và ML, quốc gia không thể tiếp tục tiếp cận một cách thụ động như đã xảy ra khi các nền tảng truyền thông xã hội được tạo ra.