Trong một bài báo của tạp chí Time, nhà nghiên cứu trí tuệ nhân tạo Eliezer Yudkowsky yêu cầu ngay lập tức đóng cửa các trung tâm AI quy mô lớn vô vạn vì ông cho rằng trí tuệ thông minh hơn con người có thể tàn phá cả loài người. Yudkowsky kết luận bài của mình bằng việc kêu gọi ném bom vào các trung tâm dữ liệu không đồng ý đóng cửa. (Ông cho phép các ngoại lệ có thể tồn tại, nhưng chỉ khi AI không được đào tạo trên văn bản từ Internet.)

Chúng tôi là các nhà khoa học về đời sống và điều hành tổ chức Phi lợi nhuận Mind First Foundation, tập trung vào "mindware", sự kết hợp giữa trí tuệ con người và trí tuệ nhân tạo. Hai trong số chúng tôi đã viết một bài báo về mindware vào năm 2014, bao gồm trong cuốn sách các bài báo đoạt giải thưởng giải quyết câu hỏi "Làm thế nào để loài người chỉ đạo tương lai?" (cuốn sách này cung cấp động lực sáng lập cho FLI). Chúng tôi đồng ý với FLI và Yudkowsky rằng nghiên cứu và phát triển AI quy mô lớn hiện tại đang tiến theo hướng đáng lo ngại.

Nhưng chúng tôi cũng tin rằng việc cố gắng tạm dừng sự phát triển không phải là câu trả lời đúng đắn. Thứ nhất, ngay cả khi tất cả các nhà chơi lớn đồng ý với một tạm dừng như vậy (không thực tế), hành vi riêng của họ sẽ khó xác nhận. Những phần thưởng lớn của các sản phẩm AI ngày càng tốt hơn sẽ khiến các công ty tư nhân tiếp tục tiến hành một cách toàn diện trong các cuộc chạy đua vũ khí AI liên tục – chưa kể đến những cuộc chạy đua vũ khí của các dự án quân sự. Việc tạm dừng của những người có thiện ý sẽ tương đương với việc phi vũ trang một chiều, cho phép những người không tuân thủ tiến hóa không bị kiểm soát tiến bộ.

Ngoài ra, việc tạm dừng nghiên cứu AI sẽ có nghĩa là trì hoãn sự phát triển của hàng loạt công nghệ có thể cải thiện đáng kể cuộc sống con người. Chúng ta nghe thấy những lý do vô tận cho tại sao loài người đang thua cuộc trong các trận đánh với biến đổi khí hậu, bệnh tâm thần, vô gia cư, quá liều các loại thuốc gây chết người, bắn súng hàng loạt và các vấn đề nghiêm trọng khác. Các AI có khả năng giúp chúng ta đưa ra những quyết định tốt hơn đáng kể về các vấn đề phức tạp này không phải là tầm nhìn ngay sát, nhưng mỗi phút chúng ta tạm dừng sự tiến bộ của AI lại là một phút trong đó những vấn đề này tiếp tục tiến triển không kiểm soát được. Một số vấn đề như biến đổi khí hậu ngày càng trở nên rắc rối hơn, có thể đạt đến các điểm kích hoạt không thể đảo ngược.

Vì vậy, thay vì đơn giản là tạm dừng sự phát triển, chúng tôi đề xuất một cách tiếp cận khác: nghiên cứu và phát triển AI quy mô lớn cần được định hướng ngay lập tức khỏi đào tạo đối lập đã được sử dụng để sản xuất các hệ thống AI mạnh nhất đến nay, và chủ yếu là hợp tác và cộng tác.

"

ChatGPT và các dự án tương tự được huấn luyện theo một phương pháp khác nhưng cũng gay gắt như nhau, bằng cách thiết kế chúng để mô phỏng các trò chuyện giữa những "cái tôi học tập được chọn lọc của Darwin": con người. Do đó, không ngạc nhiên khi chúng hiển thị những đặc điểm giống con người như sự hung hăng và sự thiên vị. Điều này cũng là lý do để cấm huấn luyện trí tuệ nhân tạo trên các trò chuyện trực tuyến, như Yudkowsky đã đề xuất.

Thay vì để trí tuệ nhân tạo mô phỏng cách con người tham chiến trên mạng hoặc trải qua các bài tập huấn luyện gay gắt khác, hãy xem xét đề xuất từ bài viết của chúng tôi năm 2014: nghiên cứu và phát triển trí tuệ nhân tạo cần tập trung vào những phẩm chất đóng góp vào sự bền vững của con người, điều mà không dễ dàng được chọn lọc hơn hay đạt được, do sức mạnh khổng lồ của lựa chọn quan hệ đối đầu. Tuy nhiên, thậm chí sự hợp tác cũng có khả năng trở thành quan hệ đối đầu và cạnh tranh, như trong trò chơi và thời chiến tranh đa cấp lực, trong đó một hiệp đồng thắng lợi nhưng phải đền đáp bằng chi phí của những người khác. Do đó, một trí tuệ nhân tạo lý tưởng là không đối đầu và hợp tác, nhưng cũng mang tính cộng tác (được lợi cho cả hai bên) với các phẩm chất tốt nhất của con người.

Liệu một trí tuệ nhân tạo như thế có thể đạt được bằng các phương pháp không đối đầu không? Chúng ta có thể thậm chí biến một sinh vật đối đầu thành một người bạn hiệu quả và cộng tác - có thể sẽ trung thành và yêu thương? Chúng ta - hoặc chính tổ tiên của chúng ta - đã làm được điều này bằng cách biến con sói thành chó, người bạn đồng hành tốt nhất của nhân loại. Họ đã đạt được điều này dần dần qua nhiều thế hệ bằng cách lựa chọn các phẩm chất họ mong muốn.

Khác với chó, trí tuệ nhân tạo tự cải tiến có thể nhanh chóng vượt qua khả năng của con người, do đó chúng ta cần cân nhắc rất kỹ cách thức để quản lý quan hệ của nó với chúng ta. Một tập hợp các nguyên tắc được phát biểu trong Các Nguyên tắc Trí Tuệ Nhân Tạo Asilomar, được ủng hộ bởi thư của Future of Life Institute, có thể hướng dẫn phát triển trí tuệ nhân tạo để "đồng hành với giá trị nhân loại" và "hoàn thành các mục tiêu được lựa chọn bởi con người". Những công bố này nghe có vẻ hợp lý nhưng không ngăn cản được những hành vi xấu xa của con người. Những hành vi đáng sợ như nô lệ, diệt chủng và chiến tranh đã xảy ra ở quy mô lớn trong suốt lịch sử nhân loại.

Vì những tội ác như thế thường dường như rất xa vời về địa lý hay thời gian, nên dễ dàng tha thứ cho bản thân; nhưng chúng được phạm phải bởi những người thông thường trong các hoàn cảnh khác nhau. Điều này nên khiến chúng ta suy nghĩ lại về việc một trí tuệ nhân tạo lý tưởng có nên vô điều kiện phục tùng con người hay các đạo đức và giá trị xung đột. Một trí tuệ nhân tạo lý tưởng sẽ phát triển những đạo đức giá trị bền vững và hữu ích cho cả con người và trí tuệ nhân tạo với sự độc lập như thế nào? Điều này có thực tế không?

Chúng ta không biết khả năng của trí tuệ nhân tạo tương lai, nhưng ngay cả trí tuệ nhân tạo tiên tiến của ngày hôm nay cũng có thể học về thế giới và vũ trụ của chúng ta - và về chúng ta - từ các nguyên tắc cơ bản (tabula rasa), mà không cần sự hướng dẫn hoặc mô phỏng của con người.

Việc đạt được sự phù hợp đạo đức, giá trị và mục tiêu của con người và trí tuệ nhân tạo cần được thực hiện. Mục tiêu cao cả này nên được đạt bằng cách sửa đổi bản thân và hành vi của chúng ta để phù hợp với một trí tuệ nhân tạo siêu vượt trí tuệ tiềm năng, sáng suốt và ít thiên vị hơn (và có trí tuệ nhân tạo giúp chúng ta làm được điều đó), thay vì cố gắng nô dịch nó. Để đạt được mục tiêu cao cả này, chúng ta có thể bắt đầu điều chỉnh các nghiên cứu về trí tuệ nhân tạo để tránh các phương pháp đối đầu và chuyển hướng sang các phương pháp khả năng tạo ra quan hệ bền vững và cộng tác giữa con người và trí tuệ nhân tạo.

Preston Estep, Ranjan Ahuja, Brian M. Delaney và Alex Hoekstra là các giám đốc của Mind First Foundation và Rapid Deployment Vaccine Collaborative.