Mặc dù ChatGPT đã thu hút sự chú ý của Washington cách đây nhiều tháng, nhưng các nhà lập pháp Hoa Kỳ vẫn đang đấu tranh để tìm ra điều gì là phù hợp với trí tuệ nhân tạo đang bùng nổ này. Các phương án đang được thảo luận bao gồm các quy tắc để đảm bảo Trí tuệ Nhân tạo không sử dụng để phân biệt đối xử hoặc vi phạm quyền công dân của ai đó. Ngoài ra còn có cuộc tranh luận về việc liệu có cần quy định nhà phát triển Trí tuệ Nhân tạo hay là công ty sử dụng nó để tương tác với người tiêu dùng. Đặc biệt, OpenAI, startup đứng sau cơn sốt chatbot ChatGPT, đã bàn bạc về một cơ quan quản lý trí tuệ nhân tạo độc lập. Hiện vẫn chưa rõ phương pháp nào sẽ thắng cuộc, nhưng một số người trong cộng đồng kinh doanh, bao gồm IBM và Phòng Thương mại Hoa Kỳ, ủng hộ phương pháp chỉ quy định các lĩnh vực quan trọng như chẩn đoán y tế, một phương pháp được gọi là tiếp cận dựa trên rủi ro. Việc phổ biến của trí tuệ nhân tạo gọi là generative AI đang gây ra lo ngại rằng công nghệ đang nhanh chóng tiến hóa này có thể khuyến khích việc gian lận trong kỳ thi, kích thích thông tin sai lệch và dẫn đến một thế hệ lừa đảo mới. Các cuộc họp đã tăng lên, bao gồm cả việc các nhà lãnh đạo của OpenAI, Microsoft Corp và Alphabet Inc đến thăm Nhà Trắng trong tháng này. Chính phủ cũng đang cố gắng để cập nhật kiến thức về Trí tuệ Nhân tạo. Trong khi đó lớn nhất của Big Tech là đẩy lùi những phản ứng quá sớm. Schumer giới thiệu kế hoạch đòi hỏi các chuyên gia độc lập kiểm tra các công nghệ Trí tuệ Nhân tạo mới trước khi ra mắt. Nó cũng yêu cầu sự minh bạch và cung cấp cho chính phủ dữ liệu cần thiết để tránh gây hại. Phương án tiếp cận dựa trên rủi ro có nghĩa là trí tuệ nhân tạo được sử dụng để chẩn đoán ung thư chẳng hạn sẽ được kiểm tra kỹ bởi Cục quản lý Thực phẩm và Dược phẩm, trong khi trí tuệ nhân tạo cho giải trí sẽ không được quy định. Liên minh châu Âu đã di chuyển về hướng phê chuẩn các quy tắc tương tự.
Tuy nhiên, Đảng viên Dân chủ Michael Bennet lại cho rằng trọng tâm của những rủi ro này không đủ và đã đề xuất một dự luật gọi cho cơ quan nhiệm vụ trí tuệ nhân tạo của chính phủ. Ông cho rằng mình ủng hộ một "phương pháp dựa trên giá trị" để ưu tiên quyền riêng tư, tự do công dân và quyền lợi.
Luật dựa trên rủi ro có thể quá cứng nhắc và không thể nhận ra những nguy hiểm như việc sử dụng trí tuệ nhân tạo để giới thiệu các video khuyến khích sự vị thành niên trắng, một cố vấn của Bennet nói thêm.
Các nhà lập pháp cũng đã thảo luận về cách tốt nhất để đảm bảo trí tuệ nhân tạo không được sử dụng để phân biệt chủng tộc, có thể trong việc quyết định ai được nhận khoản vay thấp lãi suất, theo một người theo dõi cuộc hội thoại của các nhà lập pháp, người không được ủy quyền để nói chuyện với các nhà báo.
Ở OpenAI, các nhân viên đã suy nghĩ đến sự giám sát rộng hơn.
Cullen O'Keefe, một nhà nghiên cứu của OpenAI, đề xuất trong một bài diễn thuyết tại Đại học Stanford vào tháng 4 việc tạo ra một cơ quan sẽ yêu cầu các công ty phải có giấy phép trước khi huấn luyện mô hình trí tuệ nhân tạo mạnh hoặc vận hành các trung tâm dữ liệu giúp chúng. Theo O'Keefe, cơ quan này có thể được gọi là Văn phòng An toàn và Bảo mật Cơ sở hạ tầng AI, hoặc OASIS.
Được hỏi về đề xuất này, giám đốc công nghệ chính của OpenAI, Mira Murati, nói rằng một cơ quan đáng tin cậy có thể "bắt các nhà phát triển chịu trách nhiệm" với các tiêu chuẩn an toàn. Nhưng quan trọng hơn cơ chế là thỏa thuận "về những tiêu chuẩn là gì, những rủi ro mà bạn đang cố gắng giảm thiểu là gì".
Cơ quan quản lý lớn cuối cùng được tạo ra là Cơ quan Bảo vệ Tài chính Tiêu dùng, được thành lập sau cuộc khủng hoảng tài chính 2007-2008.
Một số Đảng viên Cộng hòa có thể phản đối bất kỳ quy định nào về trí tuệ nhân tạo.
"Chúng ta nên cẩn trọng để các đề xuất quy định trí tuệ nhân tạo không trở thành cơ chế quản lý chặt chẽ của chính phủ đối với mã máy như các công cụ tìm kiếm và thuật toán", một cố vấn Cộng hòa Thượng viện nói với Reuters.