Sự hồi hộp về các công nghệ trí tuệ nhân tạo tiên tiến, như ChatGPT chatbot của OpenAI, đã dẫn đến lo sợ về những nguy cơ tiềm tàng. Vào thứ Hai, nhà nghiên cứu Geoffrey Hinton, được biết đến với biệt danh "Ông trùm AI," cho biết ông đã rời khỏi chức vụ tại Google do lo ngại về những mối đe dọa tiềm ẩn từ phát triển trí tuệ nhân tạo. Trong khi đó, các lo ngại khác cũng bao gồm việc hệ thống trí tuệ nhân tạo, nếu không được kiểm soát, có thể gây ra thông tin sai lệch, cho phép các công ty trữ dữ liệu cá nhân của người dùng mà không thông báo, thể hiện sự chênh lệch đối xử hoặc thu hồi vô số việc làm của con người để nhường lại cho máy móc. Tuy nhiên, những lo ngại này là hoàn toàn chính đáng, theo giáo sư khoa học máy tính tại Đại học Brown Suresh Venkatasubramanian, người nghiên cứu về công bằng và thành kiến trong hệ thống công nghệ. Venkatasubramanian cho biết trong bản "Thư quyền lợi cho trí tuệ nhân tạo" mà ông cộng tác với những chuyên gia khác, các biện pháp an toàn "đạo đức" có thể giám sát và điều tiết công nghiệp trí tuệ nhân tạo một cách an toàn. Với những biện pháp đó, hầu hết mọi người sẽ không cảm thấy khác biệt khi sử dụng các hệ thống trí tuệ nhân tạo, ông nói. Dưới đây là những biện pháp an toàn mà ông và các chuyên gia khác đề xuất, và những gì thực sự chúng sẽ trông như thế nào khi được thực hiện.