Niềm tin rằng tiến bộ trong trí tuệ nhân tạo sẽ sớm dẫn đến việc tạo ra một "siêu trí tuệ" như trong các bộ phim khoa học viễn tưởng, vượt qua khả năng của con người trong "hầu như tất cả các lĩnh vực" đã tồn tại trong các ngõ hẻm của Thung lũng Silicon từ lâu. OpenAI quảng cáo rằng các hệ thống trí tuệ nhân tạo trong tương lai của họ có thể có "sức mạnh vượt trội hơn bất kỳ công nghệ nào từng được tạo ra". Nhân viên của công ty trí tuệ nhân tạo Anthropic tự nhận mình là "những Robert Oppenheimer hiện đại".

Những ý tưởng này ngày càng được nhấn mạnh trong các cuộc thảo luận chính sách cấp cao. Sau cuộc họp với các CEO của các công ty trí tuệ nhân tạo, Thủ tướng Anh Rishi Sunak đề cập đến mối đe dọa của trí tuệ nhân tạo "siêu thông minh". Tổng thống Mỹ Joe Biden đã kể về một cuộc họp trong Phòng Ovan gần đây đã thảo luận về việc trí tuệ nhân tạo có thể "vượt qua suy nghĩ và lập kế hoạch của con người". Trong những tháng gần đây, siêu trí tuệ đã xuất hiện trong các phiên điều trần của Quốc hội và một cuộc họp của Hội đồng Bảo an Liên Hiệp Quốc.

Việc nói về siêu trí tuệ cũng đã bắt đầu tác động đến hành động chính sách. Hội nghị toàn cầu về trí tuệ nhân tạo sắp tới của Vương quốc Anh tập trung chủ yếu vào "an toàn" - một thuật ngữ rộng mở mà thường được liên kết với nỗi lo về siêu trí tuệ - thay vì dân chủ, quyền riêng tư, tác động đến lao động, quyền con người hoặc những nỗ lực để đảm bảo lợi ích của trí tuệ nhân tạo được chia sẻ trên toàn cầu.

Tuy nhiên, những tuyên bố rằng các hệ thống trí tuệ nhân tạo siêu việt đang ở ngay kế bên là chỉ là sự suy đoán và bị tranh cãi kỹ thuật. Khi các nhà lãnh đạo xem xét các bước đi mạnh mẽ như một tổ chức quốc tế mới cho trí tuệ nhân tạo, họ nên cẩn trọng với những giả định không chắc chắn đằng sau những tuyên bố về siêu trí tuệ này.

Bằng cách tập trung vào các vấn đề tiến hóa hơn do Trí tuệ Nhân tạo đặt ra, họ có thể tránh sử dụng nguồn lực đến từ các thách thức Trí tuệ Nhân tạo chắc chắn hơn, các đề xuất chính sách mạo hiểm và việc loại trừ quyền lực quan trọng ra khỏi cuộc tranh luận chính sách quá sớm.

Đa dự đoán về Siêu Trí Tuệ

Sự tồn tại của siêu trí tuệ trong tương lai không thể chứng minh hoặc phủ định một cách dứt điểm, thay vào đó, chúng ta phải dựa vào giả thuyết và suy luận. Điều này là một vấn đề quen thuộc đối với những người làm chính sách - không hoàn toàn khác biệt so với việc dự đoán liệu Trung Quốc có xâm chiếm Đài Loan chẳng hạn. Tuy nhiên, với các công nghệ mới như Trí tuệ Nhân tạo, những người lãnh đạo lại ít có kiến thức để đánh giá những luận định được đưa ra trong môi trường truyền thông và đầu tư luôn khuyến khích sự phóng đại thay vì đánh giá điềm tĩnh. Đặc biệt, những người lãnh đạo dường như chưa thực sự nhận thức được rằng các lý thuyết siêu trí tuệ dựa trên một số giả định đáng ngờ.

Trước hết, một phần lớn sự cảm thấy khẩn cấp hiện tại về siêu trí tuệ bắt nguồn từ việc suy luận từ một xu hướng gần đây trong học máy: sự gia tăng về dữ liệu và sức mạnh tính toán đã tạo ra các hệ thống Trí tuệ Nhân tạo ngày càng ấn tượng hơn. Thực sự, thành công của các mô hình ngôn ngữ lớn như ChatGPT đã khiến cả chuyên gia cảm thán, và việc cải tiến từng bước tiếp theo là hầu như chắc chắn. Nhưng lịch sử nghiên cứu của học máy đầy rẫy những xu hướng ngắn hạn, và không có gì đảm bảo rằng xu hướng này sẽ tiếp tục mãi mãi. Lời đề nghị gần đây từ CEO OpenAI Sam Altman rằng quá trình huấn luyện mô hình Trí tuệ Nhân tạo thế hệ kế tiếp của công ty có thể sẽ không bắt đầu trong ""một thời gian"" cho thấy, tối thiểu, cần có những đột phá kỹ thuật mới trước khi những cải tiến từ dữ liệu và tính toán có thể tiếp tục như trước.

Ngay cả khi theo kỹ thuật, những xu hướng tiến bộ trong Trí tuệ Nhân tạo có thể tiếp tục, chúng có thể trở nên ngày càng không khả thi khi tính toán và dữ liệu huấn luyện chất lượng cao ngày càng trở nên đắt đỏ và khó khăn để thu thập. Các nhà phát triển Trí tuệ Nhân tạo phụ thuộc vào việc thu thập lượng lớn dữ liệu có thể cạn kiệt văn bản chất lượng cao có sẵn trực tuyến. Tương tự, các công ty đã liên tục tăng cường quyền truy cập vào sức mạnh tính toán bằng cách đạt được thỏa thuận với các nền tảng tính toán đám mây lớn nhất thế giới. Họ đã thậm chí thay đổi mô hình kinh doanh của mình để cho phép họ đổ thêm hàng trăm triệu đô la vào quá trình huấn luyện. Nhưng những chi phí ngày càng tăng này sẽ khó khăn trong việc duy trì, đặc biệt là nếu sự phấn khích của nhà đầu tư hiện tại về Trí tuệ Nhân tạo tạo ra_như gió tan.

Hơn nữa, mô hình hiện đại của Trí tuệ Nhân tạo (AI) - tái tạo các mối quan hệ thống kê được tìm thấy trong lượng lớn dữ liệu - tiếp tục gặp phải những khuyết điểm cơ bản. Khả năng đáng kinh ngạc của các hệ thống AI hiện nay khiến chúng ta cảm thấy chúng tương đối giống con người, nhưng chúng tạo ra những sự thật cơ bản không có thật, đưa ra những câu trả lời đáng ngạc nhiên không đáng tin cậy ngay cả với những đề tài đơn giản và thiếu khả năng đối phó với những sự kiện không quen thuộc.

Các tiến bộ nghiên cứu trong mô hình phát triển AI hiện tại có vẻ sẽ tăng cường tính đáng tin cậy theo từng bước. Tuy nhiên, nhiều nhà khoa học máy tính tin rằng cần có những đột phá cơ bản trong các mô hình học máy mới để xây dựng các hệ thống đáng tin cậy có khả năng tiếp cận hiểu biết thực sự. Đây là những công việc không chắc chắn, ngay cả khi đối diện với những đầu tư nghiên cứu lớn, có thể không bao giờ đạt được thành công.

Khó có thể chắc chắn rằng những tiến bộ nhỏ trong các phương pháp thống kê hiện tại có thể bao giờ sao chép được sự đa dạng đáng kinh ngạc của trí tuệ con người. Cụm từ "trí tuệ nhân tạo" thực ra mời gọi chúng ta chiếu cố chất lượng giống con người lên các thuật toán. Điều này có thể lừa dối chúng ta khi cho rằng hiệu suất đáng kinh ngạc trên một số nhiệm vụ là một bước đầu tiên cho sự thông minh rộng hơn giống con người. Nhưng thực tế tiếp tục làm cho chúng ta bối rối với hiểu biết về những gì làm cho trí tuệ con người độc nhất. Ngay cả khi các hệ thống AI sáng tạo gần đây đã làm ngạc nhiên các chuyên gia với hiệu suất trên các nhiệm vụ sáng tạo, ví dụ như đầu tư lớn vào xe tự lái vẫn chưa có kết quả đáng kể.

Các phẩm chất như thông minh cảm xúc và lãnh đạo, yêu cầu nhiều khả năng mạng xã hội đa mặt và khả năng thích ứng nhanh chóng với hoàn cảnh mới, sẽ càng khó để sao chép. Khi gán cho các hệ thống AI ấn tượng nhưng vẫn có khuyết điểm như trí tuệ giống con người, những nhà phát triển nguy cơ để những chiến dịch truyền thông của mình làm màu cho nhận thức của họ về cách công nghệ có thể tiến triển.

Mô hình AI tốt hơn

AI không yêu cầu trí thông minh siêu việt để đặt ra những thách thức chính sách quan trọng. Ngay cả AI hiện tại cũng đã làm cho việc tạo ra thông tin sai lệch dễ dàng hơn, ví dụ như vậy. Các tiến bộ trong lĩnh vực AI mà không đạt đến trí thông minh siêu việt vẫn có thể làm mở rộng khoảng cách giàu nghèo (giữa nhiều vấn đề khác). Tóm lại, sự gia tăng của AI sẽ gây đảo lộn, dù có trí thông minh siêu việt hay không. Tuy nhiên, những sự đảo lộn như vậy có thể không cách mạng như nhiều người vẫn nghĩ. Những gì chúng ta gọi là AI có thể xem là một sự tiến hóa tăng dần hơn trong một xu hướng lớn kéo dài hàng thập kỷ: vai trò ngày càng tăng của toán học và dữ liệu trong cuộc sống hiện đại.

Hãy xem xét sự tự trị gia tăng của hệ thống AI - điều mà rất nhiều người cho là một sự thay đổi chất lượng dẫn đến trí thông minh siêu việt. Tuy nhiên, khi khám phá sâu hơn vào các ví dụ gây ấn tượng nhất, bạn thường sẽ thấy con người vẫn đóng một vai trò trung tâm, với AI phục vụ như một "trợ thủ". Ví dụ, các phát hiện công bố trong thời gian gần đây được công bố là do AI, thực tế chúng không phải do các máy tự động mà do sự tài hoa của các nhà khoa học đã tái hiện lại các vấn đề lâu đời thành các định dạng có thể tận dụng các tiến bộ trong lĩnh vực AI.

Đương nhiên, những tiến bộ AI gần đây có vẻ sẽ tăng năng suất bằng cách làm cho các nhiệm vụ như soạn thảo văn bản, tìm kiếm thông tin hoặc phân tích dữ liệu hiệu quả hơn. Nhưng điều này cũng có thể được nói về tiến bộ kỹ thuật số trước đó như xử lý từ ngữ, các công cụ tìm kiếm và truyền thông xã hội. Mặc dù những công cụ này đã rất hữu ích (và gây đảo lộn), ảnh hưởng của chúng, giống như những tiến bộ AI gần đây, cuối cùng vẫn do con người điều khiển.

Nếu chúng ta xem AI sáng tạo như một số điểm mốc khác trên hành trình dài của sự biến đổi kỹ thuật số của xã hội, những thách thức mới có vẻ quen thuộc hơn nhiều. Những vấn đề mới về các giá trị được gắn kết trong các mô hình ngôn ngữ lớn có nhiều điểm tương đồng với những câu hỏi chưa được giải quyết về chính sách của các thuật toán chọn lọc nội dung trên các phương tiện truyền thông xã hội. Tương tự, việc sử dụng gây tranh cãi của AI để dự báo những điểm nóng liên quan đến tội phạm tái lập những khuyết điểm đã được biết đến của các kỹ thuật dự đoán tội phạm. Các thuật toán ngày càng phức tạp và mờ ảo mang đến những điểm mới, tất nhiên, chúng làm cho việc nhận diện và khắc phục lỗi và thiên vị khó hơn. Nhưng những thách thức chính sách cơ bản - vấn đề về riêng tư, công bằng và tác động của quyền công dân đối với việc sử dụng toán học và dữ liệu - đã được xoay chuyển trong nhiều thập kỷ, nếu không phải lâu hơn.

Tránh những rủi ro của việc tập trung chính sách vào trí thông minh siêu việt

Khi các nhà hoạch định chính sách quốc gia và quốc tế bắt đầu xây dựng các phản ứng với tiến bộ AI, nguy cơ là dành quá nhiều nỗ lực để giải quyết những lo ngại về trí thông minh siêu việt giả định. Để tránh điều này, các nhà lãnh đạo nên đặt ba câu hỏi.

Trước hết, liệu những lo ngại về trí thông minh siêu việt có lấy đi tài nguyên từ những thách thức chính sách AI cụ thể và lâu dài? Về lý thuyết, các nhà hoạch định chính sách sẽ có thể giải quyết cả rủi ro tiến hóa của AI và rủi ro trí thông minh siêu việt giả định. Nhưng trong thực tế, sự chú ý, tài nguyên và vốn chính trị hạn chế thường buộc phải ưu tiên.

Các cam kết tự nguyện mà Nhà Trắng và các nhà phát triển AI hàng đầu vừa thỏa thuận diễn ra đã làm rõ cách mà việc ưu tiên có thể triển khai".

Phản ánh sự lôi kéo của các công ty như OpenAI, các cam kết chỉ áp dụng cho các "mô hình tổng thể mạnh mẽ hơn so với tiêu chuẩn hiện tại của ngành công nghiệp." Những cam kết này phần lớn giúp các công ty tránh khỏi trách nhiệm về độ tin cậy và các rủi ro kinh tế do các hệ thống hiện tại mà họ đang thương mại hóa, ngay cả khi nhiều công ty đang sa thải các nhóm "trách nhiệm AI" tập trung vào các vấn đề này.

Những nguy cơ này đã được biểu diễn rõ ràng trong đoạn chứng cứ của Altman trong cuộc chứng kiến quốc hội mới đây. Ngay cả khi CEO của OpenAI được khen ngợi đồng cảm từ cả hai bên vì sự thẳng thắn của ông, ông đã khéo léo tránh những câu hỏi khó về tác động thực tế của các sản phẩm của công ty bằng cách tập trung vào những tác động đặc thù giả định của các hệ thống AI giả thuyết mà công ty có thể chẳng bao giờ có khả năng xây dựng. Kế hoạch cấp phép được đề xuất của Altman là "không dành cho những gì những mô hình này có khả năng làm ngày hôm nay". Các câu hỏi về quyền riêng tư và bản quyền - đây là những mối quan tâm về AI tiến hóa cực kỳ quan trọng đối với cả xã hội và lợi nhuận của các nhà phát triển AI - đã bị vứt bỏ.

Thứ hai, liệu có sử dụng quan ngại về trí tuệ nhân tạo vượt trội không được hiểu rõ để chứng minh các lựa chọn chính sách với những chi phí cao? Hãy xem xét việc ra quyết định chắc chắn khiến việc định hướng vận hành của Mỹ cấm Trung Quốc truy cập vào công nghệ AI như bán dẫn. Cho đến nay, chính quyền Biden đã cân nhắc cẩn thận giữa lợi ích của việc làm giảm sức mạnh kỹ thuật của Trung Quốc và rủi ro phát sinh từ cuộc xung đột quyền lực vĩ đại. Nhưng khi quyết định về phạm vi của những hạn chế này tiếp tục, niềm tin vào việc xuất hiện sự thông minh siêu việt trong tương lai giả định có thể lệch cân các lựa chọn chính sách cực đoan hơn mà lợi ích của chúng có thể không xứng đáng với hậu quả nghiêm trọng.

Hoặc hãy xem xét những đề xuất yêu cầu các công ty obtain licenses từ chính phủ trước khi đào tạo các hệ thống AI tiên tiến. Những yêu cầu này sẽ làm khó khăn cho các doanh nghiệp mã nguồn mở và nhỏ cạnh tranh với các nhà lớn, làm chậm tiến trình đổi mới quan trọng cho tiến bộ khoa học và sự cạnh tranh của Mỹ. Tất nhiên, nhà hoạch định chính sách thường cân nhắc quyền lợi và chi phí không chắc chắn. Nhưng các biện pháp chính sách chỉ giải quyết những mối quan tâm về siêu trí tuệ giả định (mà không phải những thách thức chính sách AI tiến hóa hơn) đặc biệt có khả năng tạo ra những chi phí cao đổi lấy ít lợi ích.

Thứ ba, liệu những căn ngại về siêu trí tuệ có làm cho những quan điểm và giọng điệu quan trọng bị loại trừ khỏi cuộc tranh luận về chính sách AI? Sự cấp bách nhìn nhận việc kiểm soát một trí tuệ siêu việt trong tương lai giả định ví dụ như xếp AI vào vị trí vấn đề an ninh quốc gia, đẩy nó vào các diễn đàn như Hội đồng An ninh Quốc gia và G7. Những diễn đàn tập trung vào các vấn đề hướng tới an ninh như cạnh tranh quyền lực vĩ đại và an ninh kinh tế của các nước giàu có.

Lãnh đạo không sai khi xem xét các vấn đề an ninh do AI gây ra, nhưng khi quyết định quan trọng nhất về AI được đưa ra trong những diễn đàn ít thể hiện được, các người ủng hộ mạnh mẽ nhất cho những thách thức AI tiến hóa như ảnh hưởng đến xã hội và kinh tế bị bỏ qua. Những diễn đàn này không bao gồm các tổ chức xã hội dân sự, đã từng có chuyên môn mạnh mẽ và đã từng trụ cột trong việc đề xuất về ảnh hưởng quyền dân sự của AI. Và khi cuộc trò chuyện trở nên đặc quyền hơn, nhóm những người đầu tiên bị loại ra thường là những người bị áp đặt xã hội và những quốc gia yếu kém, làm giảm sự chú ý đến các vấn đề như sự bao gồm kinh tế và làm mờ khả năng của Hoa Kỳ trong việc tránh sự phân mảnh quy định toàn cầu.

Phân tích liên quan từ Carnegie

Tại quê hương, niềm tin của công chúng vào các cơ quan có thể bị đe dọa hơn nữa bởi những chính sách được coi là thiếu quan tâm đến những thiệt hại kinh tế và xã hội cụ thể của AI.

(Chứng kiến sự đưa tin truyền thông về lo lắng của các diễn viên rằng họ sẽ không được đền bù khi AI được huấn luyện dựa trên hình ảnh của họ.) Lãnh đạo Đa số Thượng nghị sĩ Chuck Schumer cảnh báo rằng việc không định rõ những hiện tượng bất đồng gây ra bởi AI có thể dẫn đến "phản ứng ngược chính trị" như đã tạo ra bởi toàn cầu hóa. Những phản ứng chính sách dẫn dắt bởi những lo ngại về trí tuệ siêu vi và mơ hồ hơn là những vấn đề kinh tế hàng ngày cụ thể sẽ đối mặt với nguy cơ chính xác như thế.

Có lẽ trong tương lai, bằng chứng sẽ xuất hiện cho thấy trí tuệ siêu vi không chỉ là hư cấu khoa học. Nhưng cho đến khi điều đó xảy ra, những người đứng đầu chính sách nên đảm bảo rằng vòng lặp thịnh vượng mới nhất của Silicon Valley không gây thiệt hại phụ cho những vấn đề chính sách vẫn còn gấp gáp và quan trọng bất kể AI phát triển như thế nào.