Giám đốc điều hành OpenAI, Sam Altman, đã kêu gọi các nhà lập pháp xem xét quy định công nghệ trí tuệ nhân tạo trong lời khai tại Thượng viện ngày 16/5. Đề xuất này đặt ra câu hỏi tiếp theo với Đại hội đồng quốc hội là gì. Các giải pháp Altman đề xuất - tạo ra một cơ quan quản lý trí tuệ nhân tạo và yêu cầu giấy phép cho các công ty - rất thú vị. Nhưng những chuyên gia khác trên cùng bảng đóng góp cũng ít nhất cũng quan trọng: yêu cầu công khai quá trình huấn luyện dữ liệu và thiết lập các khung việc rõ ràng cho nguy cơ liên quan đến trí tuệ nhân tạo.
Một điểm không được nói là, với kinh tế xây dựng các mô hình trí tuệ nhân tạo lớn quy mô, ngành công nghiệp có thể đang chứng kiến sự xuất hiện của một loại độc quyền công nghệ mới.
Các nhà lập pháp và công chức chính trên toàn thế giới đã bắt đầu giải quyết một số vấn đề được đưa ra trong lời khai của Altman. Áp dụng Luật trí tuệ nhân tạo của Liên minh châu Âu dựa trên một mô hình rủi ro gán những ứng dụng trí tuệ nhân tạo vào ba loại rủi ro: không chấp nhận được, rủi ro cao và rủi ro thấp hoặc tối thiểu. Phân loại này nhận thức được rằng các công cụ cho điểm danh xã hội bởi các chính phủ và các công cụ tự động cho thuê có các nguy cơ khác nhau so với việc sử dụng trí tuệ nhân tạo trong bộ lọc thư rác, ví dụ.
Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ cũng có một khung quản lý rủi ro trí tuệ nhân tạo được tạo ra với đầu vào rộng từ nhiều bên liên quan, bao gồm Phòng Thương mại Hoa Kỳ và Liên đoàn các nhà khoa học Mỹ, cũng như các hiệp hội kinh doanh và chuyên nghiệp, các công ty công nghệ và các viện nghiên cứu.
Các cơ quan liên bang như Ủy ban Cơ hội việc làm công bằng và Ủy ban Thương mại liên bang đã đưa ra hướng dẫn về một số rủi ro tự nhiên của trí tuệ nhân tạo. Ủy ban An toàn Sản phẩm Tiêu dùng và các cơ quan khác cũng có vai trò quan trọng.
Thay vì tạo ra một cơ quan mới có nguy cơ bị ảnh hưởng bởi ngành công nghệ mà nó được quy định, Đại hội đồng quốc hội có thể hỗ trợ sự áp dụng khung quản lý rủi ro NIST công khai và công khai và thông qua các dự luật như Đạo luật Chịu trách nhiệm thuật toán. Điều đó sẽ có hiệu lực áp đặt trách nhiệm, giống như Đạo luật Sarbanes-Oxley và các quy định khác đã biến yêu cầu báo cáo cho các công ty. Quốc hội cũng có thể thông qua luật toàn diện về quyền riêng tư dữ liệu.
Quy định trí tuệ nhân tạo nên liên quan đến sự hợp tác giữa giới học thuật, ngành công nghiệp, chuyên gia chính sách và cơ quan quốc tế. Các chuyên gia đã đánh giá cách tiếp cận này như các tổ chức quốc tế như Tổ chức Nghiên cứu Hạt nhân Châu Âu, còn được gọi là CERN, và Ủy ban Chính sách Biến đổi khí hậu giữa các chính phủ. Mạng Internet đã được quản lý bởi các cơ thể phi chính phủ liên quan đến các tổ chức phi lợi nhuận, xã hội dân sự, ngành công nghiệp và nhà chính sách, chẳng hạn như Tổ chức cấp tên và số cho Internet và Kỷ yếu Tiêu chuẩn Viễn thông Thế giới. Các ví dụ đó cung cấp mô hình cho ngành công nghiệp và nhà lập pháp ngày nay.
Mặc dù Altman của OpenAI cho rằng các công ty có thể được cấp giấy phép để phát hành các công nghệ trí tuệ nhân tạo cho công chúng, ông đã làm rõ rằng ông đang đề cập đến trí tuệ nhân tạo tổng quát nhân tạo, có nghĩa là các hệ thống trí tuệ nhân tạo tiềm năng trong tương lai với trí thông minh giống con người có thể gây nguy hiểm cho nhân loại. Điều đó sẽ tương tự như việc các công ty được cấp phép để xử lý các công nghệ nguy hiểm khác, chẳng hạn như điện hạt nhân. Nhưng việc cấp phép có thể có vai trò quan trọng trước khi kịch bản tương lai như vậy xảy ra.
Kiểm toán thuật toán sẽ yêu cầu chứng chỉ, các tiêu chuẩn thực hành và đào tạo rộng rãi. Yêu cầu chịu trách nhiệm không chỉ là vấn đề cấp phép cá nhân mà còn đòi hỏi các tiêu chuẩn và thực hành toàn công ty.
Củng cố các điều khoản hiện có về an toàn, quyền riêng tư và bảo vệ người tiêu dùng đồng thời đưa ra các tiêu chuẩn chịu trách nhiệm thuật toán sẽ giúp làm rõ hệ thống trí tuệ nhân tạo phức tạp. Cũng quan trọng là nhận thức rằng sự chịu trách nhiệm dữ liệu và sự minh bạch có thể áp đặt các hạn chế mới đối với tổ chức.