Khoảng năm 2013, tôi đã tin rằng thành công không còn xa và cộng đồng trí tuệ nhân tạo cũng như xã hội không quá chú ý đến hậu quả của nó. Trong thực tế, vấn đề này có thể là câu hỏi quan trọng nhất đối với nhân loại. Tôi bắt đầu thuyết trình để giải thích rằng sự xuất hiện của trí tuệ nhân tạo siêu thông dụng là giống như sự xuất hiện của một nền văn minh ngoài hành tinh vượt trội nhưng lại có khả năng xảy ra nhiều hơn. Các thông điệp của sự sắp đến đang chất đống trong hộp thư đến của nhân loại từ nền văn minh ngoài hành tinh và nhân loại vẫn đang gửi trả lời tự động "hết giờ làm việc" cùng với một biểu tượng cười.

Tuy nhiên, hiện tại tôi cảm thấy lạc quan với sự cẩn trọng. Điều gì đã xảy ra?

Nguyên nhân gần đây do việc OpenAI phát hành GPT-4 vào ngày 14 tháng 3, kế vị cho ChatGPT rất phổ biến. Vào ngày 22 tháng 3, một báo cáo của một nhóm các nhà nghiên cứu đang được đánh giá cao tại Microsoft, bao gồm hai thành viên của Học viện Quốc gia Mỹ, cho rằng GPT-4 có "lửa" của loại trí thông minh thông dụng mà Turing đã cảnh báo chúng ta. Vào ngày 29 tháng 3, Viện Tương lai của Cuộc sống, một tổ chức phi lợi nhuận do giáo sư vật lý MIT Max Tegmark cầm đầu, đã phát hành một lá thư mở yêu cầu tạm dừng "thử nghiệm trí tuệ nhân tạo khổng lồ". Nó đã được ký bởi các nhân vật nổi tiếng như CEO Tesla Elon Musk, người đồng sáng lập Apple Steve Wozniak và nhà vô địch giải thưởng Turing Yoshua Bengio, cũng như hàng trăm nhà nghiên cứu trí tuệ nhân tạo nổi tiếng. Tôi cũng ký vào lá thư.

Phản hồi cho lá thư không hoàn toàn tích cực. Một vài thông điệp lịch sự hơn tôi nhận được nói rằng tôi phải "rất ngây thơ" để nghĩ rằng nó sẽ có bất kỳ tác động nào. Nhiều người cho rằng nó sẽ trao cơ hội "cuộc đua AI" cho Trung Quốc.

Đây là những gì đã xảy ra trong thực tế: Vào ngày 30 tháng 3, UNESCO đã trực tiếp phản hồi vào lá thư mở yêu cầu triển khai Khung đạo đức AI toàn cầu vào pháp luật mà không chậm trễ. Vào ngày 5 tháng 4, OpenAI đã phát đi thông quan về an toàn trí thông minh nhân tạo, bao gồm quan điểm rằng "hệ thống AI nên được đưa vào đánh giá an toàn chặt chẽ. Cần có quy định để đảm bảo các phương thức này được áp dụng." Vào ngày 11 tháng 4, Trung Quốc đã ban hành quy định cực kỳ nghiêm ngặt về hệ thống AI, mà một số nhận xét xem như một lệnh cấm thực tế đối với các mô hình ngôn ngữ lớn như ChatGPT. Vào ngày 13 tháng 4, Đại diện Thượng viện Chuck Schumer công bố kế hoạch trình quy định AI khắc nghiệt mới để bảo vệ công chúng. Cùng ngày đó, trong buổi nói chuyện tại MIT, Giám đốc điều hành OpenAI Sam Altman cho biết công ty sẽ không xây dựng một kế thừa cho GPT-4. Vào ngày 17 tháng 4, một nhóm các nhà lập pháp hàng đầu châu Âu kêu gọi tổ chức hội nghị khẩn cấp toàn cầu để đạt được thỏa thuận về chế độ quy định cho trí tuệ nhân tạo tiên tiến. Vào ngày 4 tháng 5, Tổng thống Biden và Phó Tổng thống Harris đã triệu tập cuộc họp khẩn cấp với các CEO trí tuệ nhân tạo hàng đầu để nhấn mạnh nhu cầu tiếp tục thận trọng và kiềm chế.

Trong những thời điểm yên tĩnh trở lại vào năm 2019, các chính phủ của hầu hết các quốc gia phát triển đã ký kết các nguyên tắc AI của Tổ chức Hợp tác Kinh tế và Phát triển, đặt "tiêu chuẩn quốc tế đầu tiên về AI". Nguyên tắc 1.4 nói rằng: "Hệ thống AI phải chắc chắn, an toàn và bảo mật trong suốt vòng đời của chúng để, trong điều kiện sử dụng thông thường, sử dụng hoặc lạm dụng dự đoán, hoặc các điều kiện bất lợi khác, chúng phải hoạt động thích hợp và không đặt ra rủi ro an toàn vô lý nào." Ý tưởng cơ bản của lời kêu gọi trì hoãn đề xuất là không có hệ thống AI nào sẽ được phát hành cho đến khi nhà phát triển có thể cho thấy một cách thuyết phục rằng nó không gây ra nguy cơ không cần thiết.

Thật không may, một số hệ thống AI đang được sử dụng hiện nay không thể đáp ứng yêu cầu này. ChatGPT, GPT-4 và các người anh em của họ từ Google và Meta là ví dụ về các mô hình ngôn ngữ lớn. Chúng được đào tạo bằng hàng nghìn tỷ từ văn bản - cỡ bằng tất cả các cuốn sách mà nhân loại đã sản xuất - để mô phỏng hành vi ngôn ngữ của con người. Chúng được tạo ra từ hàng tỷ nghìn tỷ biến động ngẫu nhiên nhỏ trong quá trình đào tạo. Chúng không được thiết kế hoặc lập trình trong bất kỳ ý nghĩa nào đáng kể. Chúng không tuân theo quy tắc. Giống như các chương trình cờ vua, chúng có thể đang theo đuổi mục tiêu, nhưng chúng ta không biết những mục tiêu đó là gì. Để chúng phải cư xử như người, OpenAI tuyển dụng hàng nghìn huấn luyện viên con người để nói những ngôn từ tương đương với "Chó xấu!" bất cứ khi nào hệ thống có hành vi sai trái. Nhưng chúng vẫn có hành vi sai lâm sàng - đưa ra lời khuyên về cách tự sát hoặc xây dựng vũ khí sinh học, thực hành luật và y khoa mà không có bằng cấp, và phạm việc tội khác. LLMs cũng nổi tiếng vì "sai giác" - tạo ra câu trả lời hoàn toàn sai lệch, thường được hỗ trợ bằng trích dẫn hư cấu - bởi vì quá trình đào tạo của chúng không có kết nối với thế giới bên ngoài và sự thật của những khẳng định về nó.

Các nhà lập pháp của các công ty công nghệ sẽ phàn nàn rằng các hệ thống tuyệt vời của họ không thể đáp ứng được tiêu chuẩn an toàn yêu cầu. Vậy thì thôi. Chúng ta sẽ không bao giờ chấp nhận lời giải thích đó từ các nhà sản xuất dược phẩm hoặc từ các nhà xây dựng nhà máy điện hạt nhân, và chúng ta không nên chấp nhận nó từ người bán hệ thống AI.

Vấn đề cốt lõi là không có OpenAI hoặc bất kỳ ai khác hiểu thực sự rằng LLMs hoạt động như thế nào. Tôi đã hỏi Sébastien Bubeck, tác giả chính của báo cáo “Sparks of Artificial General Intelligence: Early experiments with GPT-4”, liệu GPT-4 đã phát triển các mục tiêu nội tại của riêng mình chưa. Câu trả lời là gì? "Chúng tôi không có ý tưởng gì".

Một số người có lý do trái chính đáng cho rằng việc triển khai một hệ thống hoạt động theo các nguyên tắc nội tại không rõ của nó, cho thấy "tia lửa" của trí thông minh tổng quát, và có thể hoặc không theo đuổi mục tiêu nội tại của nó trên quy mô toàn cầu là trách nhiệm của chúng ta. Hiện tại, có những lý do kỹ thuật để cho rằng GPT-4 bị giới hạn trong khả năng hình thành và thực hiện các kế hoạch phức tạp, nhưng hàng chục nhóm nghiên cứu đang khám phá các ý tưởng để vượt qua những giới hạn này và những giới hạn khác.

Giống như việc đón chờ sự xuất hiện của một nền văn minh ngoài hành tinh vượt trội, chính quyền cần phải hợp tác về quy định về AI. Điều này không phải lợi ích của bất kỳ quốc gia nào để bất kỳ quốc gia nào phát triển và phát hành các hệ thống AI mà con người không thể kiểm soát. Đây là câu hỏi cơ bản đằng sau lời kêu gọi mở: Chúng ta làm thế nào để giữ được quyền lực trên những thực thể mạnh hơn chúng ta, mãi mãi?

Stuart Russell là giáo sư khoa học máy tính tại Đại học California, Berkeley; giám đốc Trung tâm Trí tuệ Nhân tạo Tương thích với Con người; và giám đốc Trung tâm Kavli về Đạo đức, Khoa học và Công chúng.