Tổng thống Joe Biden đã ban hành một sắc lệnh hành pháp rộng lớn vào thứ Hai nhằm bảo vệ chống lại những mối đe dọa do trí tuệ nhân tạo gây ra, đảm bảo rằng những nhân tố xấu không sử dụng công nghệ này để phát triển vũ khí tàn phá hoặc tấn công mạng siêu tốc mạnh.
Sự chuyển động này xác định vai trò của chính phủ liên bang trong một ngành công nghiệp gần nửa nghìn tỷ đô la, trung tâm của sự cạnh tranh gay gắt giữa một số công ty lớn nhất của đất nước, bao gồm Google và Amazon.
Chính phủ Biden cũng kêu gọi Quốc hội thông qua luật quyền riêng tư dữ liệu, một thành tựu mà các nhà lập pháp không đạt được trong nhiều năm qua mặc dù có nhiều nỗ lực.
Sắc lệnh hành pháp này thực hiện giám sát các bài kiểm tra an toàn mà các công ty sử dụng để đánh giá các bot trò chuyện như ChatGPT và giới thiệu các tiêu chuẩn ngành như dấu chứng để nhận biết các sản phẩm được dùng trí tuệ nhân tạo, cùng với các quy định khác.
Loạt cải cách này có ý nghĩa là "những biện pháp mạnh mẽ nhất mà bất kỳ chính phủ nào trên thế giới từng thực hiện về an toàn, bảo mật và sự tin cậy của trí tuệ nhân tạo", Phó Tổng thư ký Nhà Trắng Bruce Reed nói trong một tuyên bố.
Dưới đây là những điều có trong sắc lệnh hành pháp nhằm kiềm chế trí tuệ nhân tạo:
Các công ty trí tuệ nhân tạo phải tiến hành kiểm tra an toàn và chia sẻ kết quả với chính phủ liên bang
Một quy định quan trọng được thiết lập dưới sắc lệnh hành pháp đòi hỏi các công ty trí tuệ nhân tạo tiến hành kiểm tra nhất định cho một số sản phẩm của họ và chia sẻ kết quả với các quan chức chính phủ trước khi công năng mới trở nên có sẵn cho người tiêu dùng.Các bài kiểm tra an toàn do nhà phát triển tiến hành, được biết đến với tên gọi "red teaming," đảm bảo rằng sản phẩm mới không gây ra mối đe dọa lớn cho người dùng hoặc công chúng nói chung.
Nếu một ước lượng an toàn trả về kết quả đáng lo ngại, chính phủ liên bang có thể buộc một công ty phải cải thiện sản phẩm hoặc từ bỏ một sáng kiến cụ thể.
Các quyền lực mới của chính phủ này được chấp nhận theo Đạo luật Sản xuất Quốc phòng, luật được ban hành cách đây ba phần tư thế kỷ trước, đã trao cho Nhà Trắng một vai trò rộng lớn trong việc giám sát các ngành công nghiệp liên quan đến an ninh quốc gia, chính phủ Biden cho biết.
"Những biện pháp này sẽ đảm bảo hệ thống trí tuệ nhân tạo an toàn, bảo mật và đáng tin cậy trước khi các công ty làm cho chúng trở thành công cụ công khai," Nhà Trắng bổ sung.
Tổng thống Joe Biden, đi vào từ trái sang phải, nói trong Phòng Roosevelt của Nhà Trắng với Adam Selipsky, giám đốc điều hành của Amazon.com Inc.
Web Services (AWS), từ trái qua phải, Greg Brockman, Chủ tịch và Đồng sáng lập OpenAI, Nick Clegg, Phó Chủ tịch Quan hệ quốc tế và Truyền thông của Meta Platforms Inc., Mustafa Suleyman, Giám đốc điều hành Inflection AI, và Dario Amodei, Đồng sáng lập và Giám đốc điều hành của Anthropic, ngày 21 tháng 7 năm 2023.Yuri Gripas/Abaca/Bloomberg qua Getty Images
Một bộ tiêu chuẩn mới thiết lập các quy chuẩn ngành công nghiệp Trí tuệ nhân tạo (AI)
Lệnh điều hành của các nhà điều hành công bố một bộ tiêu chuẩn ngành rộng lớn với hy vọng tạo ra các sản phẩm minh bạch, an toàn khỏi những kết quả nguy hiểm, chẳng hạn như vật liệu sinh học được tạo ra bởi AI hay các cuộc tấn công mạng.Một tiêu chuẩn mới quan trọng sẽ mã hóa việc sử dụng dấu nước để cảnh báo người tiêu dùng khi họ gặp phải một sản phẩm được kích hoạt bởi trí tuệ nhân tạo (AI), nhằm giới hạn mối đe dọa từ nội dung giả mạo như deepfakes.
Một quy định khác sẽ đảm bảo rằng các công ty sinh học công nghệ thực hiện các biện pháp phòng ngừa thích hợp khi sử dụng AI để tạo hoặc điều chỉnh vật liệu sinh học.
Hướng dẫn cho ngành công nghiệp sẽ hoạt động dưới dạng các đề xuất thay vì là các yêu cầu bắt buộc, để cho các công ty tự do bỏ qua các đề xuất của chính phủ.
Chính phủ liên bang sẽ sử dụng đòn bẩy của mình là một nhà tài trợ chính của nghiên cứu khoa học để thúc đẩy việc tuân thủ các cảnh báo về vật liệu sinh học, theo thông báo của Nhà Trắng. Đồng thời, Nhà Trắng sẽ yêu cầu các cơ quan liên bang sử dụng các dấu hiệu này khi triển khai các sản phẩm AI.
Tuy nhiên, sắc lệnh thi hành có nguy cơ giới thiệu một tầm nhìn tham vọng cho tương lai của AI nhưng không đủ quyền lực để đem lại sự thay đổi trên toàn ngành công nghiệp, Sarah Kreps, giáo sư chính phủ và giám đốc Viện Chính sách Công nghệ tại Đại học Cornell, nhận định.
"Sắc lệnh thi hành mới đúng tông luôn nhận ra cả tiềm năng và nguy cơ của AI", Kreps nói. "Nhưng cái thiếu là cơ chế thi hành và thực thi. Nó đang yêu cầu rất nhiều hành động mà không thể mong đợi sẽ nhận được phản hồi."
Cơ quan chính phủ phải tuân thủ sự giám sát nghiêm ngặt về việc sử dụng AI.
Sắc lệnh thi hành dạy một phạm vi rộng lớn các cơ quan chính phủ triển khai các thay đổi trong việc sử dụng AI, nâng cao các tổ chức liên bang làm gương mẫu về các thực tiễn mà chính quyền cuối cùng hy vọng sẽ được các tổ chức tư nhân áp dụng.
Chương trình lợi ích liên bang và các nhà thầu, ví dụ, sẽ thực hiện các biện pháp để đảm bảo rằng AI không làm tệ hơn đối tác chủng tộc trong hoạt động của họ, Nhà Trắng cho biết. Tương tự, Bộ Tư pháp sẽ xác lập các quy tắc về cách tốt nhất để điều tra các vi phạm Quyền của Công dân liên quan đến AI.
Trong khi đó, Bộ Năng lượng cũng như Bộ An ninh Nội địa sẽ thực hiện các biện pháp để đối phó với mối đe dọa mà AI mang lại cho hạ tầng quan trọng.
Robert Weissman, chủ tịch của Tổ chức Bảo vệ Quyền lợi Người tiêu dùng có trụ sở tại Washington D.C., khen ngợi sắc lệnh thi hành đồng thời nhận thức về giới hạn của nó.
"Sắc lệnh thi hành hôm nay là một bước quan trọng của chính quyền Biden để bắt đầu quá trình điều chỉnh công nghệ AI tiến bộ nhanh chóng", Weissman nói. "Nhưng chỉ là bước đầu tiên.