Vào thứ Ba, 24 chuyên gia AI, bao gồm các người đoạt giải Turing như Geoffrey Hinton và Yoshua Bengio, đã công bố một bài báo yêu cầu các chính phủ hành động để quản lý các rủi ro từ AI. Tài liệu chính sách này tập trung đặc biệt vào các rủi ro cực đoan do các hệ thống tiên tiến nhất gây ra, chẳng hạn như khả năng tạo ra hoạt động tội phạm hoặc khủng bố quy mô lớn.

Bài báo đưa ra một số khuyến nghị chính sách cụ thể, chẳng hạn như đảm bảo các công ty công nghệ lớn và các nhà tài trợ công cộng dành ít nhất một phần ba ngân sách nghiên cứu và phát triển AI cho các dự án thúc đẩy việc sử dụng AI an toàn và đạo đức. Các tác giả cũng kêu gọi việc tạo ra các tiêu chuẩn quốc gia và quốc tế.

Bengio, giám đốc khoa học tại Viện Học thuật Học thuật Montreal, cho biết bài báo nhằm giúp những người làm chính sách, truyền thông và công chúng "hiểu các rủi ro và một số việc chúng ta phải làm để làm cho hệ thống AI làm những việc chúng ta muốn".

Các khuyến nghị không đưa ra điểm mới. Thay vào đó, các tác giả chung tác phẩm của báo cáo này đặt tên mình sau quan điểm đồng thuận của các nhà nghiên cứu chính sách AI quan ngại về các rủi ro cực đoan (họ phù hợp chặt chẽ với các chính sách phổ biến nhất được xác định trong một cuộc khảo sát chuyên gia vào tháng Năm).

"Chúng tôi muốn trình bày những suy nghĩ (chúng tôi cho là) rõ ràng về an toàn AI, có sự tự do đáng kể từ những ảnh hưởng của các lợi ích đã được định sẵn," Stuart Russell, giáo sư khoa học máy tính tại Đại học California, Berkeley, và một trong những tác giả của bức thư, cho biết với TIME qua email.

Tuyên bố của tuần này khác với các bức thư mở do các chuyên gia dẫn đầu trước đó, Russell nói, vì "Các chính phủ đã nhận ra rằng có các rủi ro thực sự. Họ đang hỏi cộng đồng AI, 'Chúng ta nên làm gì?'. Tuyên bố này là một câu trả lời cho câu hỏi đó."

Các tác giả chung tác phẩm bao gồm nhà sử học và triết gia Yuval Noah Harari, và nhà đoạt giải "thiên tài" MacArthur và giáo sư khoa học máy tính tại Đại học California, Berkeley, Dawn Song, cùng với một số học giả khác từ các nước và lĩnh vực khác nhau.

Bài báo này là tuyên bố quan trọng thứ ba có sự ký tên từ các chuyên gia AI trong năm nay, trong một nỗ lực ngày càng tăng để cảnh báo về các rủi ro tiềm ẩn của phát triển AI không được quy định. Vào tháng Ba, một bức thư mở yêu cầu các phòng lab AI "tạm dừng ngay lập tức ít nhất 6 tháng việc đào tạo các hệ thống AI mạnh hơn GPT-4" đã được ký bởi hàng ngàn người, bao gồm Elon Musk, Bengio và Russell.

Trong tháng 5, một "tuyên bố" được tổ chức bởi Trung tâm An toàn Trí tuệ Nhân tạo đã tuyên bố rằng "giảm thiểu rủi ro tuyệt chủng từ Trí tuệ Nhân tạo nên là ưu tiên toàn cầu cùng với các rủi ro xã hội tỷ mức khác như đại dịch và chiến tranh hạt nhân." Tuyên bố này đã được ký bởi hơn 500 nhà học giả và lãnh đạo ngành công nghiệp nổi tiếng, bao gồm Hinton, Bengio và Russell, nhưng cũng bao gồm các CEO của ba công ty Trí tuệ Nhân tạo nổi tiếng nhất: Sam Altman của OpenAI, Demis Hassabis của DeepMind và Dario Amodei của Anthropic.

Pieter Abbeel, đồng sáng lập, Chủ tịch và nhà khoa học trưởng tại công ty robot học Covariant.ai, và giáo sư Kỹ thuật Điện và Khoa học Máy tính tại Đại học California, Berkeley, đã ký bài báo tuần này mặc dù trước đó ông không ký bất kỳ thư mở nào. Abbeel nói với TIME rằng thái độ lạc quan cẩn thận của tuyên bố mới nhất này phù hợp hơn với quan điểm của ông so với những thư mở trước đó có những thái độ đáng lo ngại hơn. "Nếu chúng ta làm đúng - và chúng ta cần làm rất nhiều việc đúng - chúng ta có thể rất lạc quan về tương lai," ông nói.

Đọc thêm: Cuộc Đua Vũ Khí Trí tuệ Nhân tạo Đang Thay Đổi Mọi Thứ

Các nhà nghiên cứu Trí tuệ Nhân tạo đã nỗ lực từ lâu để thu hút sự chú ý đến những rủi ro tiềm năng do công nghệ mà họ đã phát triển mang lại. Năm 2016, Hinton, Bengio và Russell đã ký một "thư" được tổ chức bởi Viện Tương lai Sống, một tổ chức phi lợi nhuận nhằm giảm thiểu các rủi ro toàn cầu đe dọa và có tính tồn tại, kêu gọi "cấm vũ khí tự động tấn công ngoài tầm kiểm soát ý nghĩa của con người."

Lịch sử cho thấy, các nhà khoa học đã cảnh báo và trở thành những người ủng hộ sớm cho các vấn đề liên quan đến nghiên cứu của họ. Các nhà khoa học về khí hậu đã "gợi ý" tới vấn đề ấm lên toàn cầu từ những năm 1980. Và sau khi ông lãnh đạo quá trình phát triển bom nguyên tử, Robert Oppenheimer đã trở thành một người ủng hộ nhiệt thành cho việc kiểm soát quốc tế, và thậm chí là hoàn toàn cấm vũ khí hạt nhân.

Bengio cho biết công tác quảng bá chính sách về Trí tuệ Nhân tạo của ông đã phát triển theo "hiểu biết về vấn đề và các lợi ích xung quanh nó đã được cải thiện đáng kể.

Đọc thêm: Tại sao lo ngại hạt nhân của Oppenheimer vẫn có ý nghĩa ngày nay

Một trong những chính sách được đề xuất trong bài báo mới là yêu cầu các công ty phải xin phép trước khi phát triển "những mô hình tương lai có khả năng đặc biệt". Một số nhà phát triển trí tuệ nhân tạonhững người bình luận, tuy nhiên, đã cảnh báo rằng việc cấp phép sẽ làm thuận lợi cho các công ty lớn có khả năng chịu đựng gánh nặng quy định cần thiết để đạt được giấy phép.

Bengio gọi đây là một "lập luận hoàn toàn sai lầm", chỉ ra rằng gánh nặng do việc cấp phép đặt ra sẽ chỉ đối với các công ty phát triển mô hình trí tuệ nhân tạo lớn nhất, mạnh nhất. Thay vào đó, Bengio cho rằng nguy cơ thực sự của việc áp đặt quy định là sự can thiệp của các công ty để chi phối luật pháp đến mức nó không đủ mạnh mẽ.

Russell cho rằng lập luận rằng các công ty trí tuệ nhân tạo lớn đang ác ý đẩy mạnh quy định để loại trừ các công ty nhỏ là "vô nghĩa hoàn toàn", và cho rằng mặc dù có nhiều quy định hơn về các cửa hàng sandwich hơn là trên các công ty trí tuệ nhân tạo, hàng ngàn quán cà phê và nhà hàng mới mở cửa hàng năm.

Đọc thêm: Tranh luận gay gắt về ai nên kiểm soát quyền truy cập vào trí tuệ nhân tạo

Bài báo mới ra mắt vào một thời điểm quan trọng, khi các quy định ở các nền tảng phát triển trí tuệ nhân tạo lớn ở các vùng địa lý khác nhau đang ở các giai đoạn khác nhau. Trung Quốc đi xa nhất - các quy định của Trung Quốc về trò chuyện với trí tuệ nhân tạo, xây dựng trên các vòng lặp quy định trước đó, đã có hiệu lực từ tháng 8.

Các nước phương Tây đang đi sau. Đề án trí tuệ nhân tạo của Liên minh châu Âu vẫn đang tiến qua quá trình quy định của Liên minh châu Âu. Ở Hoa Kỳ, Nhà Trắng đã đạt được cam kết tự nguyện từ 15 nhà phát triển trí tuệ nhân tạo hàng đầu, nhưng Quốc hội vẫn còn cách xa rất xa để thông qua pháp luật về trí tuệ nhân tạo.

Trong khi đó, Thủ tướng Vương quốc Anh Rishi Sunak đang cố gắng đóng vai trò quan trọng trong việc thúc đẩy sự hợp tác quốc tế về các vấn đề trí tuệ nhân tạo, và Tổng Thư ký Liên Hợp Quốc António Guterres và đại diện về công nghệ Amandeep Gill cũng đang cố gắng đẩy mạnh quản trị toàn cầu về trí tuệ nhân tạo.

"Theo Russell, nếu chính phủ hành động ngay bây giờ, một cơ hội sẽ có để chúng ta học cách làm cho các hệ thống trí tuệ nhân tạo trở nên an toàn trước khi chúng trở nên quá mạnh đến mức không kiểm soát được."

Sửa lỗi, Oct

24

Phiên bản gốc của câu chuyện này đã nêu sai tính chất của tài liệu xuất bản. Đó là một bài báo, không phải một lá thư mở.