Lý thuyết đỉnh điểm công nghệ dự đoán một thời điểm khi con người mất kiểm soát trên các phát minh công nghệ và sự phát triển sau đó do sự gia tăng của ý thức máy và nhất là trí thông minh vượt trội của chúng. Đạt đến giai đoạn đỉnh điểm đó, tóm lại, đại diện cho mối đe dọa lớn nhất của trí tuệ nhân tạo (AI) đối với nhân loại. Rất tiếc, đỉnh điểm AI đã bắt đầu. AI sẽ hiệu quả không chỉ khi máy móc có thể làm những gì con người làm (sao chép), mà còn khi chúng có thể làm điều đó tốt hơn và không cần giám sát của con người (thích nghi). Việc học tập thể hiện (dữ liệu được nhận biết dẫn đến các kết quả dự đoán) và thuật toán học được giám sát (dữ liệu được gắn nhãn dẫn đến các kết quả dự đoán) đã rất quan trọng trong việc phát triển robot, trợ lí số và công cụ tìm kiếm. Nhưng tương lai của nhiều ngành công nghiệp và khám phá khoa học phụ thuộc nhiều vào sự phát triển của thuật toán học không được giám sát (dữ liệu không được gắn nhãn dẫn đến các kết quả cải thiện), bao gồm xe tự hành, chẩn đoán y học không xâm lấn, xây dựng không gian được hỗ trợ, thiết kế vũ khí tự động, nhận dạng biểu cảm khuôn mặt, sản xuất công nghiệp từ xa và dự đoán thị trường chứng khoán.

Mặc dù đã có cảnh báo sớm về khoảng cách nhân quyền mà AI sẽ tạo ra và chi phí xã hội của nó do con người bị thay thế như một yếu tố sản xuất, những người vô tâm với sự phát triển của AI tiếp tục khẳng định rằng đó chỉ là một cuộc phá vỡ công nghệ khác. Tuy nhiên, các bước gần đây trong tối ưu hóa thuật toán AI cho thấy, vượt qua những khác biệt lý thuyết tồn tại hiện nay về sự xuất hiện của đỉnh điểm công nghệ, chúng ta đang bỏ lại giai đoạn AI đơn giản hoặc hẹp.

Vì vậy, dự kiến rằng khi các máy đạt được độ tự trị cơ bản trong vài năm tới, chúng sẽ có khả năng không chỉ sửa chữa những sai sót trong hiệu suất của chúng bằng cách phát biểu cách tốt hơn để sản xuất ra các kết quả tốt hơn, mà còn làm những điều mà con người đơn giản là không thể.

Khả năng sớm đạt đến một điểm đỉnh điểm thường bị đánh giá thấp bởi những người được hưởng lợi nhất từ sự phát triển của nó, cho rằng AI đã được thiết kế chỉ để phục vụ con người và làm cho con người có hiệu suất cao hơn.

Tuy nhiên, đề xuất này có hai lỗi cấu trúc. Thứ nhất, không nên coi tính đơn nhất như một khoảnh khắc cụ thể trong thời gian mà nên coi là quá trình đã bắt đầu ở nhiều lĩnh vực. Thứ hai, phát triển độc lập từng bước của máy trong khi thúc đẩy sự phụ thuộc vào con người thông qua việc sử dụng hàng ngày của chúng sẽ thực sự tạo ra kết quả ngược lại: máy thông minh hơn và con người thông minh hơn.

Chúng tôi nhằm cung cấp cho máy trí tuệ nhân tạo các thuộc tính xa lạ với tính chất con người (khả năng lưu trữ bộ nhớ không giới hạn, khả năng xử lý nhanh chóng, quyết định không cảm xúc) và tuy nhiên, chúng tôi hy vọng có thể kiểm soát sản phẩm của một trong những phát minh khó lường nhất của chúng ta. Hơn nữa, vì các kiến trúc sư của sự biến đổi này tập trung chủ yếu ở rất ít quốc gia và các thiết kế của họ được bảo vệ bởi luật sở hữu trí tuệ hoặc các luật an ninh quốc gia, việc kiểm soát phát triển trí tuệ nhân tạo là một ảo tưởng.

Tự nhận thức của máy bắt đầu bằng các thích nghi liên tục trong thuật toán học không giám sát. Nhưng các sự thích nghi với công nghệ lượng tử sẽ củng cố thêm tính đơn nhất của trí tuệ nhân tạo bằng cách biến đổi trí tuệ nhân tạo của máy thành một dạng trí tuệ vượt trội thông qua khả năng kết nối số liệu và tạo ra các kết quả tốt hơn. Tuy nhiên, máy không cần phải hoàn toàn tự ý thức và công nghệ lượng tử cũng không cần được tích hợp vào trí tuệ nhân tạo để bắt đầu giai đoạn đơn nhất.

Từ các kỳ thi đăng ký học đại học để thi tuyển vào trường luật đến giấy phép hành nghề y tế, việc sử dụng các thuật toán học không giám sát (như Chat-GPT3 và BARD) cho thấy máy có thể làm những việc mà con người làm hiện nay. Kết quả này, cùng với sự phát triển tham vọng nhất của trí tuệ nhân tạo đến nay (trí tuệ nhân tạo được trau dồi thông qua công nghệ lượng tử), tạo thành lời cảnh báo cuối cùng đối với nhân loại: Vượt qua ranh giới giữa tối ưu hóa cơ bản và tối ưu hóa mũ lân của các thuật toán học không giám sát là một điểm không thể quay trở lại mà sẽ không thể tránh khỏi giai đoạn đơn nhất của trí tuệ nhân tạo.

Thời điểm cho hành động chính trị quốc tế đã đến. Các quốc gia sản xuất trí tuệ nhân tạo và không sản xuất trí tuệ nhân tạo cần đến với nhau để tạo ra một cơ quan giám sát công nghệ quốc tế, cùng với một hiệp định nhân tạo quy định các nguyên tắc đạo đức cơ bản.

Rủi ro lớn nhất của tất cả là con người có thể nhận ra rằng giai đoạn đơn nhất của trí tuệ nhân tạo chỉ diễn ra khi máy loại bỏ khuyết điểm của thiết kế gốc hạn chế trí tuệ của chúng: đầu vào của con người. Sau tất cả, trí tuệ nhân tạo đơn nhất sẽ không thể đảo ngược một khi máy nhận ra điều mà con người thường quên: Sai lầm là của con người.

J. Mauricio Gaona là nhà học giả Oppenheimer tại Đại học McGill, học bổng O’Brien tại Trung tâm Nhân quyền CHRLP ở Montreal và nghiên cứu viên thăm dò tại Trung tâm Nghiên cứu Tiên tiến HRC Indianapolis.