Người đứng đầu luật sư của OpenAI, công ty phát triển ChatGPT, cho rằng cách tốt nhất để quản lý trí tuệ nhân tạo là không bắt đầu từ các quy tắc của chính phủ mà để cho các công ty tự thiết lập các tiêu chuẩn để đảm bảo AI được sử dụng an toàn và đúng mục đích. Người đứng đầu luật sư chung của OpenAI - Jason Kwon đã đưa ra lập luận đó trong một cuộc thảo luận tại Washington DC vào thứ Ba do BSA / The Software Alliance tổ chức, ngay cả khi ông thừa nhận rằng AI đang phát triển rất nhanh, nó có thể dẫn đến những kết quả bất ngờ mà các công ty cần phải kiểm soát ngay lập tức.
Tuy nhiên, khi được hỏi thông điệp của mình đến các nhà lập pháp là gì, Kwon khuyến khích các tiêu chuẩn dẫn đầu bởi ngành công nghiệp cho trí tuệ nhân tạo là tự nguyện, kêu gọi một chiến lược nhiều công ty ở hầu hết các ngành công nghiệp thích hơn là các sắc lệnh của chính phủ.
Tuy Kwon đề xuất các tiêu chuẩn tự nguyện, nhưng ông thừa nhận rằng ChatGPT của OpenAI đã dẫn đến một số kết quả không mong muốn. Ông cho biết công ty đã nhận thức được khả năng, ví dụ như chatbot có thể được sử dụng để sản xuất thông tin sai lệch. Nhưng ông cho biết công ty bất ngờ khi một "sai lầm" sớm nhất của hệ thống đó là tạo ra "đầu ra độc hại".
Kwon nói rằng các sửa chữa nội bộ cho các hệ thống trí tuệ nhân tạo của công ty được thực hiện thông qua việc tiếp xúc với các chuyên gia nhằm đưa ra các biện pháp để ngăn chặn các đầu ra không mong muốn hay khó khăn.
Trong khi Kwon rõ ràng cho thấy OpenAI ưa thích các tiêu chuẩn dẫn đầu bởi ngành công nghiệp, nhưng vẫn chưa rõ liệu công ty sẽ nhận được cách làm của mình. Một số cơ quan liên bang đã cho biết họ đang tìm cách sử dụng quyền hạn hiện tại của họ để quản lý trí tuệ nhân tạo và các nhà lập pháp trong Hạ viện và Thượng viện đã họp với các chuyên gia để tìm hiểu thêm về trí tuệ nhân tạo và đề xuất các quy định có lẽ sẽ có tính thuyết phục hơn bất kỳ đề xuất của ngành công nghiệp nào.