Tháng Ba vừa qua, một bức thư mở từ Future of Life Institute kêu gọi tạm ngưng nghiên cứu trí tuệ nhân tạo trên các mô hình lớn hơn GPT-4, mà cung cấp cho các công cụ như ChatGPT. Các nhà ký tên, bao gồm một số tên tuổi lớn trong ngành công nghệ và học thuật, quy định rằng nếu tạm ngưng không thể được thực hiện nhanh chóng, chính phủ nên can thiệp và áp đặt một lệnh tạm ngừng. Một số người tin rằng bức thư này chỉ là một mánh khoé để thu hút sự chú ý và trong một số trường hợp để kích thích quan tâm đến các doanh nghiệp mới. Bất kể mục đích là gì, kết quả đã làm cho vấn đề an toàn trí tuệ nhân tạo trở nên mơ hồ hơn. Thực tế là, việc yêu cầu một tạm ngưng như vậy là đáng ngờ, và việc tạm ngưng chính nó cũng không thực tế.

Đúng vậy, chúng ta cần phải có cuộc trò chuyện sảo đá về thực tế và rủi ro của trí tuệ nhân tạo. Nhưng hãy nhìn vào lý do để tạm ngưng và tại sao nó cuối cùng có thể chứng minh là không quan trọng hoặc thậm chí là ngược tác dụng.

Lo ngại về OpenAI và sự thống trị hiện tại của nó trong không gian trí tuệ nhân tạo là hợp lý. Khi GPT-4 được phát hành vào tháng Ba năm 2023, nhiều điều minh bạch mà các nhà nghiên cứu đã mong đợi đã không còn được giữ. OpenAI đã chọn giữ bí mật về tập dữ liệu, phương pháp, kiến ​​trúc và kích thước của GPT-4 trước công chúng, vì lo ngại về an toàn và lợi thế cạnh tranh. Nhưng GPT-4 không thể được tạo ra nếu không có nhiều phát hiện và đổi mới trước đó được chia sẻ công khai bởi các nhà nghiên cứu trong lĩnh vực này.

Mặc dù bức thư yêu cầu sự minh bạch, việc tạm ngưng việc tạo ra các mô hình mạnh mẽ hơn mà không có sự đảo ngược quyết định của OpenAI để giữ chi tiết thuộc quyền sở hữu sẽ khiến chúng ta đen đủi hơn trong sáu tháng nữa so với hiện tại.

Bức thư đã đề cập đến việc sử dụng dữ liệu bất lợi như tiềm năng tạo ra các thông tin giả mạo. Vào tháng Một năm 2023, tôi đã công bố nghiên cứu về chủ đề này mà kết luận mô hình quy mô GPT-3 đã có thể được sử dụng để tạo ra nội dung được thiết kế cho các mục đích độc hại, chẳng hạn như lừa đảo, tin giả, gian lận và quấy rối trực tuyến. Do đó, việc tạm ngưng việc tạo ra GPT-5 sẽ không ngăn chặn bất kỳ sự lạm dụng nào.

Một lý do tiềm năng khác để tạm ngưng đến từ nỗi lo sợ về việc robot đạt được trí tuệ thực sự, gây ra sự sợ hãi về Skynet hoặc một kết quả khác bất lợi theo đường khoa học viễn tưởng. Một bài báo được xuất bản bởi Microsoft có tiêu đề "Sparks of Artificial General Intelligence: Early experiments with GPT-4" mô tả một số thí nghiệm cho thấy tính chất mới xuất hiện trong mô hình có thể được coi là một bước tiến đến trí tuệ máy móc.

Những thí nghiệm này được thực hiện trên phiên bản nội bộ của mô hình GPT-4. Mô hình đó chưa trải qua quá trình tinh chỉnh, một quy trình mà mô hình được đào tạo để trở nên an toàn và chính xác hơn. Tuy nhiên, các nhà nghiên cứu đã phát hiện ra rằng mô hình cuối cùng, mô hình được cung cấp cho công chúng, không thể được sử dụng để tái tạo lại tất cả các thí nghiệm mô tả trong bài báo. Có vẻ như quá trình tinh chỉnh làm hỏng mô hình theo một cách nào đó, làm cho nó trở nên tệ hơn đối với các ứng dụng yêu cầu sáng tạo và trí tuệ.

Nhưng một lần nữa, những sự thật đó sẽ khó xác định mà không có quyền truy cập vào mô hình gốc. Chúng ta có thể gần đến mức kích hoạt trí tuệ tổng quát nhân tạo, nhưng chúng ta sẽ không bao giờ biết được vì chỉ có OpenAI mới có quyền truy cập vào mô hình có khả năng cao hơn đáng kể này.

Bức thư cũng không đề cập đến các vấn đề liên quan đến trí tuệ nhân tạo mà chúng ta đã gặp phải.

Các hệ thống học máy đang gây ra thiệt hại cho xã hội, và chúng ta chưa làm gì để giải quyết những vấn đề đó. Các thuật toán đề xuất cung cấp năng lượng cho các mạng xã hội đã được biết đến khi đẩy người ta đến cực đoan. Nhiều vấn đề rõ ràng khác đã được đưa ra về phân biệt đối xử theo thuật toán và định giá tình báo. Làm thế nào chúng ta có thể bắt đầu giải quyết các vấn đề liên quan đến trí tuệ nhân tạo dài hạn nếu chúng ta không thể đối mặt với những vấn đề thực tế mà chúng ta đang đối mặt hiện nay?

Bức thư cụ thể đề cập: "Hệ thống trí tuệ nhân tạo mạnh nên được phát triển chỉ khi chúng ta tự tin rằng tác động của chúng sẽ tích cực, và rủi ro sẽ được quản lý." Một trong các cách làm điều này được gọi là "chỉnh định", một quy trình dễ nhất để miêu tả là tạo ra một lương tâm nhân tạo.

Nhưng vì chúng ta không thể luôn đồng ý về giá trị của chính mình, nếu chúng ta đặt cược vào việc con người đồng ý với giá trị đạo đức mà một trí tuệ nhân tạo nên có, chúng ta sẽ gặp rắc rối lớn. Và nỗ lực này chính là những gì một số được nhóm đã ký tên trên bức thư muốn chúng ta đầu tư vào: để chuyển tác giả Isaac Asimov's ba luật của robot để ngăn robot gây hại cho con người. Nếu bạn hiểu về trí tuệ nhân tạo, bạn sẽ hiểu vì sao điều này không thể.

Nhưng ai cũng biết rằng không thể ngăn chặn đổi mới, ngay cả khi có những người ủng hộ chiến tranh động lực chống lại các nhà khoa học xây dựng cụm GPU. Ngay cả khi toàn thế giới đồng ý tạm dừng tất cả nghiên cứu AI bằng đe dọa sử dụng bạo lực, công nghệ vẫn sẽ tiến bộ. Viễn tính, máy tính sẽ mạnh đến mức mọi người thông thường có thể tạo ra trí tuệ nhân tạo tổng quát trong garages của họ. Tuy nhiên, tôi cũng phải băn khoăn như những người khác về các kẻ xấu tạo ra AI độc hại, nhưng việc tạm dừng GPT-5 thậm chí còn không ảnh hưởng đến xác suất xảy ra điều đó. Trên thực tế, nghiên cứu thêm về định hướng có thể cung cấp thêm mẹo và thủ thuật cho những người cố gắng tạo ra một AI xấu.

Ngoài ra, cũng có một lý lẽ vô cùng tích cực về siêu thông minh. Vâng, một AI độc hại giết chết tất cả con người hoặc biến chúng thành pin năng lượng được dùng cho robot là cốt truyện tuyệt vời cho một bộ phim, nhưng không hẳn là điều chắc chắn xảy ra.

Hãy xem xét rằng vũ trụ đã trải qua hơn 13 tỷ năm và có thể chứa đựng một số lượng vô hạn hành tinh có thể sống được. Có khả năng rằng nhiều nền văn minh ngoài trái đất đã đạt được điểm giống chúng ta ngày nay và đã suy nghĩ về an toàn của AI, chính như chúng ta đang làm. Nếu siêu thông minh nhân tạo tất yếu dẫn đến sự tuyệt chủng của loài chủ nhân của nó và sau đó lan rộng một cách mũi nhọn trên toàn vũ trụ, liệu không phải tất cả chúng ta đã chết chưa?

Tách biệt khỏi những giải thích rõ ràng khác, như việc một siêu thông minh sai lầm có thể chưa đạt được chúng ta do khoản cách lớn giữa các ngôi sao và các thiên hà, GPT-4 đưa ra một gợi ý thú vị khác. Nó giả thuyết rằng đợt tuyệt chủng cuối cùng của loài người có thể do một cuộc chiến giữa các phe đối đầu về an toàn của AI gây ra.

Andy Patel là một nhà nghiên cứu cho WithSecure Intelligence. Anh ta chuyên về kỹ năng lập trình nhanh, học có cấu trúc, trí tuệ cá thể, NLP, thuật toán di truyền, cuộc sống nhân tạo, đạo đức AI và phân tích đồ thị.