Nhà lãnh đạo Mỹ Joe Biden thảo luận về trí tuệ nhân tạo tại một sự kiện tại San Francisco vào tháng 6 năm 2023.

Ảnh: ANDREW CABALLERO-REYNOLDS/AFP qua Getty Images

Các công ty công nghệ đang rất hoan nghênh quy định mới này, mục tiêu của nó là điều chỉnh cách chính phủ liên bang sử dụng trí tuệ nhân tạo và thiết lập hướng dẫn cho các công ty xây dựng mô hình mới.

Tổng thống Biden đã ký một lệnh hành pháp toàn diện mới vào thứ Hai để đặt rào cản trong việc sử dụng và phát triển trí tuệ nhân tạo, bao gồm các điều khoản sẽ buộc các mô hình trí tuệ nhân tạo lớn sắp tới như GPT-5 của OpenAI phải được giám sát trước khi được công bố.

Trong cuộc nói chuyện với các nhà lập pháp, các nhà lãnh đạo ngành công nghiệp và các nhà báo tại Nhà Trắng vào thứ Hai, Biden mô tả cách lệnh hành pháp này được thiết kế để giảm thiểu các rủi ro từ trí tuệ nhân tạo trong khi vẫn khai thác được lợi ích của nó. Tôi quyết định làm mọi thứ trong khả năng của mình để thúc đẩy và yêu cầu sự đổi mới có trách nhiệm,” Biden nói, gọi trí tuệ nhân tạo là “công nghệ quan trọng nhất thời đại chúng ta.”

Là một phần của lệnh hành pháp, bất kỳ công ty nào xây dựng một mô hình trí tuệ nhân tạo có thể mang đến nguy cơ cho an ninh quốc gia phải tiết lộ nó cho chính phủ và chia sẻ dữ liệu về những gì đang được thực hiện để bảo vệ nó theo tiêu chuẩn liên bang sẽ được phát triển bởi Viện Tiêu chuẩn và Công nghệ Quốc gia. Sắc lệnh chia sẻ dữ liệu kiểm tra trước công bố chỉ áp dụng cho các mô hình chưa được công bố - đó sẽ bao gồm GPT-5, người kế vị đáng kỳ vọng của GPT-4 rất được yêu thích.

“Các công ty phải thông báo cho chính phủ về các hệ thống trí tuệ nhân tạo quy mô lớn mà họ đang phát triển và chia sẻ kết quả kiểm tra độc lập nghiêm ngặt để chứng minh chúng không mang đến nguy cơ an ninh quốc gia hay an toàn cho nhân dân Mỹ,” Biden nói tại sự kiện.

Ben Buchanan, cố vấn đặc biệt về trí tuệ nhân tạo của Nhà Trắng, nói với Forbes rằng các mô hình hiện đang được sử dụng, như GPT-4 hoặc Google's Bard, vẫn phải tuân theo các yếu tố khác của lệnh hành pháp, bao gồm “các quy định về công bằng, phòng chống phân biệt đối xử, bảo vệ người tiêu dùng, người lao động,” ông nói. Tuy nhiên, cho tới thời điểm này, ông thêm, “chúng tôi chưa thấy có bất kỳ thảm họa nào liên quan đến Chat GPT-4.”

Lệnh cũng nhắm mở cuộc tuyển dụng hàng loạt nhân viên trí tuệ nhân tạo trong chính phủ liên bang với “từ vài chục đến hàng trăm” người tập trung vào lĩnh vực trí tuệ nhân tạo, Buchanan nói. Ngoài ra, lệnh cũng khẳng định sẽ giảm các rào cản đối với lao động quốc tế trong ngành trí tuệ nhân tạo. Tuy nhiên, điều đó không bao gồm việc tăng hạn ngạch về số lượng visa H1B, Buchanan nói, nhưng ông nhấn mạnh sẽ có sự tập trung nhiều hơn vào việc làm cho quá trình visa tổng thể thuận lợi hơn đối với những người làm việc trong “các công nghệ mới nổi quan trọng.”

Lệnh cũng thiết lập việc tạo ra hướng dẫn và tiêu chuẩn về việc sử dụng trí tuệ nhân tạo bởi chính phủ. Để đối phó với nỗi sợ hãi rằng trí tuệ nhân tạo có thể được sử dụng để phân biệt đối xử đối với công dân, mục tiêu cơ sở hạ tầng quan trọng hoặc được sử dụng trong chiến tranh, lệnh hành pháp cũng sẽ yêu cầu các mô hình và chương trình trí tuệ nhân tạo lớn được đánh giá bởi các cơ quan liên bang trước khi triển khai. Các cơ quan liên bang - từ Bộ Quốc phòng đến Bộ Tư pháp - cũng sẽ cần có các nghiên cứu chỉ ra cách họ dự định tích hợp trí tuệ nhân tạo vào chức năng của mình. Dự kiến ​​một số quy định liên quan đến vấn đề an ninh sẽ có hiệu lực trong vòng 90 ngày tới.

“Tôi quyết định làm mọi thứ trong khả năng của mình để thúc đẩy và yêu cầu sự đổi mới có trách nhiệm.”

Tổng thống Joe Biden

Lệnh hành pháp này là nỗ lực rộng nhất cho đến nay của chính phủ Biden để tạo ra các rào cản chức năng cho việc phát triển trí tuệ nhân tạo trong khi củng cố vị thế của Hoa Kỳ

là một nhà lãnh đạo trong chính sách AI. Kể từ khi nhậm chức với những lời hứa kiềm chế Công nghệ Lớn, chính quyền Biden đã phải đối mặt với những thất bại trong việc thực thi quy định chống độc quyền kinh doanh và gặp ít thành công trong việc giải quyết những lo ngại về quyền riêng tư mà công nghệ đã gặp phải từ lâu. Lệnh này rõ ràng kêu gọi Quốc hội thông qua luật quyền riêng tư dữ liệu song phương, nhận thức rằng AI tăng cường độ đầy đủ cho việc thu thập dữ liệu xâm nhập.

Việc xuất hiện ChatGPT nổi tiếng trên mạng vào cuối năm ngoái đã làm rõ hơn về hứa hẹn và nguy cơ tiềm ẩn của Trí tuệ Nhân tạo, và chính phủ Hoa Kỳ đã vội vàng đưa ra các quy định để bảo vệ người tiêu dùng trong khi khuyến khích sự đổi mới.

"Nguyên nhân chúng tôi đang cố gắng tạo ra một cách tiếp cận tinh vi nhưng toàn diện là vì chúng tôi nhận thấy sự tăng trưởng lớn", ông Buchanan nói với Forbes. "Và hướng dẫn của Tổng thống ở đây là chúng ta có thể giảm thiểu rủi ro của công nghệ này để khai thác những lợi ích".

Các nhà lãnh đạo tại các công ty khởi nghiệp Trí tuệ Nhân tạo ca ngợi phương pháp tiếp cận của chính phủ. "Bạn không thể quản lý những gì bạn không đo được, và với quy định này chính phủ đã tiến một bước quan trọng trong việc tạo ra các bộ tiêu chuẩn và giám sát bên thứ ba cho hệ thống Trí tuệ Nhân tạo", Jack Clark, người sáng lập kiêm trưởng nhóm chính sách của Anthropic, nói với Forbes qua email.

"Việc tinh chỉnh nhập cư người lao động có trình độ cao trong lĩnh vực Trí tuệ Nhân tạo có thể là điều tốt nhất trong việc này", Manu Sharma, người sáng lập kiêm Giám đốc điều hành của công ty khởi nghiệp Trí tuệ Nhân tạo Labelbox, nói trong email. "Đây vẫn là giai đoạn đầu của Trí tuệ Nhân tạo và chúng ta cần những trí tuệ xuất sắc nhất để giúp Hoa Kỳ gia tăng tốc độ đổi mới".

Tuy nhiên, một số người thể hiện lo ngại về việc quy định này có thể giúp cho các công ty khổng lồ trong lĩnh vực này như Google và Microsoft. "Sự đáng tin cậy rằng Chính phủ Biden đã nhanh chóng ưu tiên để giải quyết những mối đe dọa hiện tại nghiêm trọng xung quanh Trí tuệ Nhân tạo, bao gồm cả việc bảo vệ an ninh mạng, cơ sở hạ tầng quan trọng và an ninh quốc gia", Aidan Gomez, người sáng lập kiêm Giám đốc điều hành của Cohere, nói. "Tuy nhiên, chúng ta phải cẩn trọng để chính phủ không tạo ra một chế độ quy định củng cố quyền lực của các công ty đương nhiệm".

Lệnh ban hành có quyền lực rộng lớn trong chính phủ liên bang để xác định các tiêu chuẩn và hướng dẫn cho các cơ quan khác nhau. Ví dụ, để chống lại gian lận được hỗ trợ bởi Trí tuệ Nhân tạo như video "deep-fake" hoặc cuộc gọi được tạo ra bằng trí tuệ nhân tạo, lệnh yêu cầu Bộ Thương mại phát triển các nguyên tắc hướng dẫn cho các cơ quan liên bang sử dụng các công cụ đánh dấu và xác thực nội dung để nhãn dựng nội dung được tạo bởi trí tuệ nhân tạo.

Nhưng một số biện pháp sẽ yêu cầu sự hợp tác từ các cơ quan đó trước khi hoàn toàn có hiệu lực. Ví dụ, lệnh yêu cầu Ủy ban Thương mại Liên bang, dẫn đầu, tăng cường chống độc quyền và bảo vệ người tiêu dùng về các công ty Trí tuệ Nhân tạo, mặc dù không có quyền chỉ đạo cơ quan này.

Khi đến việc thi hành, lệnh sử dụng Đạo luật Sản xuất Quốc phòng để đặt trách nhiệm cho các công ty thông báo cho chính phủ khi họ xây dựng các mô hình cơ bản lớn có thể đe dọa an ninh quốc gia. Buchanan cũng đã đề cập đến cách các quy định khác sẽ được sử dụng để giảm thiểu Trí tuệ Nhân tạo, chẳng hạn như luật chống phân biệt đối xử. "Chúng ta có, tôi nghĩ, một lượng quyền thực sự đáng kể để áp dụng trong một số vấn đề khác nhau," Buchanan nói với Forbes. "Tôi nghĩ trong một số trường hợp, có thể nói rằng chúng ta đang nhìn nhận bức tranh lớn hơn và giao các nhiệm vụ quan trọng, nhưng trong nhiều trường hợp khác, chúng tôi áp đặt luật pháp".

Khác với các kỷ nguyên công nghệ trước đây, các nhà lãnh đạo Trí tuệ Nhân tạo đang tích cực tương tác với chính phủ thay vì công khai tránh xa các quyền lực quản lý. CEO OpenAI Sam Altman đã tiến hành một hành trình toàn cầu để thuyết phục các nhà lãnh đạo thế giới về tính quan trọng của công nghệ này và đặt mình vào vị trí để định hình quy định của nó. CEO Google Sundar Pichai đã kêu gọi quy định Trí tuệ Nhân tạo trong nhiều năm; trong một bài viết ý kiến trên Financial Times năm 2020, ông viết, "Bây giờ không còn nghi ngờ gì trong tâm trí tôi rằng Trí tuệ Nhân tạo cần phải được quy định".

Quá quan trọng để không làm điều đó. Câu hỏi duy nhất là cách tiếp cận nó.

Trong các tuyên bố, Kent Walker, Chủ tịch Quan hệ toàn cầu của Google, và người phát ngôn của OpenAI Elie Georges đều ca ngợi chính phủ vì tập trung vào việc nâng cao tiềm năng của trí tuệ nhân tạo (AI). OpenAI và Google, cùng với các công ty khác như Nvidia, đã ký thỏa thuận tự nguyện mà Chính quyền Biden công bố vào đầu năm nay để đảm bảo mô hình của họ an toàn và đáng tin cậy, cùng với hơn mười công ty khác. Nhiều trong số những công ty này đã có các nhóm kiểm tra mô hình chi tiết để kiểm tra độ tin cậy. Nvidia từ chối bình luận về sắc lệnh hành pháp.

Sắc lệnh hành pháp của ông Biden được ban hành trong bối cảnh Liên minh châu Âu đang dần đến gần việc đưa ra các luật trí tuệ nhân tạo đầu tiên trên thế giới, theo Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu, cho phép liên minh cấm hoặc đóng cửa các dịch vụ trí tuệ nhân tạo được cho là có hại cho xã hội. Nhiều quốc gia khác cũng đang di chuyển để hạn chế việc sử dụng trí tuệ nhân tạo, bao gồm Australia, đang tìm cách ban hành luật lệ để cấm video deepfake.

Vào cuối tuần này, Phó Tổng thống Kamala Harris dự định đại diện cho chính quyền tham dự Hội nghị trí tuệ nhân tạo lớn ở Luân Đôn, nơi bà sẽ trình bày chính sách trí tuệ nhân tạo của chính quyền và kêu gọi sự hợp tác lớn hơn với cả đồng minh và đối thủ của Mỹ trong việc quy định các công ty trí tuệ nhân tạo.

Thượng nghị sĩ Chuck Schumer đang dẫn đầu một cuộc đẩy mạnh tại Quốc hội để ban hành luật về trí tuệ nhân tạo. Đầu tháng này, thượng nghị sĩ New York đã tổ chức "Diễn đàn Thông tin Trí tuệ nhân tạo" mà đã có sự tham gia của nhà đầu tư rủi ro Marc Andreessen và các nhà sáng lập công ty khởi nghiệp về trí tuệ nhân tạo như Gomez của Cohere, theo báo Washington Post. Tuy nhiên, vẫn chưa rõ ràng về những giới hạn mà thượng nghị sĩ hy vọng giới thiệu và dự luật sẽ như thế nào.

Mặc dù nhận thức rộng rãi từ nhiều người trong ngành công nghệ rằng cần có điều luật về trí tuệ nhân tạo, nhưng có những người công khai phản đối bất kỳ quy định nào có thể hạn chế sự phát triển bùng nổ của ngành công nghiệp trí tuệ nhân tạo. Trong một biên chế được chê cười rộng rãi được xuất bản vào tháng này, Andreessen viết rằng làm chặn đột phá đổi mới của trí tuệ nhân tạo tương đương với "giết người".

Kenrick Cai và Richard Nieva đã góp phần vào việc báo cáo.