SAN FRANCISCO - Geoffrey Hinton, một nhà khoa học máy tính đoạt giải được biết đến với danh xưng "ông bố của trí tuệ nhân tạo", đang có một số suy nghĩ nghiêm túc về quả ngọt của lao động của mình.

Hinton đã giúp tiên phong các công nghệ AI quan trọng cho thế hệ chatbot có khả năng cao như ChatGPT. Nhưng trong các cuộc phỏng vấn gần đây, ông cho biết rằng ông đã từ chức công việc cao cấp tại Google để chia sẻ quan ngại của mình về sự phát triển AI không được kiểm soát có thể gây nguy hiểm cho nhân loại.

"Tôi đột nhiên thay đổi quan điểm về việc liệu những thứ này có thông minh hơn chúng ta hay không", ông nói trong cuộc phỏng vấn với MIT Technology Review. "Tôi nghĩ chúng sắp tiến sát đến điều đó và chúng sẽ thông minh hơn chúng ta nhiều trong tương lai.... Làm thế nào chúng ta có thể sống sót được điều đó?"

Hinton không phải là người duy nhất đang lo lắng về vấn đề này. Ngay sau khi startup OpenAI được Microsoft hậu thuẫn phát hành mô hình AI mới nhất của mình mang tên GPT-4 vào tháng Ba, hơn 1.000 nhà nghiên cứu và nhà kỹ thuật đã ký vào một lá thư kêu gọi tạm ngưng phát triển AI trong sáu tháng vì nó đặt ra "những rủi ro tiềm ẩn đối với xã hội và nhân loại".

Ở đây là cái nhìn vào những mối quan tâm lớn nhất của Hinton về tương lai của AI ... và nhân loại.

ĐÓ LÀ TẤT CẢ VỀ MẠNG THẦN KINH

Não bộ của con người của chúng ta có thể giải quyết phương trình phép tính, lái xe và theo dõi các nhân vật trong "Succession" nhờ vào tài năng tự nhiên của nó trong tổ chức và lưu trữ thông tin và tìm ra giải pháp cho các vấn đề khó khăn. Khoảng 86 tỷ tế bào thần kinh trong đầu chúng ta - và quan trọng hơn nữa, 100 nghìn tỷ kết nối giữa các tế bào thần kinh đó - đã làm cho điều đó trở nên khả thi.

Ngược lại, công nghệ đằng sau ChatGPT có giữa 500 tỉ đến một nghìn tỉ kết nối, Hinton nói trong cuộc phỏng vấn. Mặc dù điều đó dường như đặt nó vào một bất lợi lớn đối với chúng ta, Hinton nhận xét rằng GPT-4, mô hình AI mới nhất của OpenAI, biết "nhiều gấp đôi" so với bất kỳ con người nào. Có lẽ, ông chỉ ra rằng nó có một "thuật toán học tập tốt hơn nhiều" hơn chúng ta, làm cho nó hiệu quả hơn trong các nhiệm vụ nhận thức.

AI CÓ THỂ ĐÃ THÔNG MINH HƠN CHÚNG TA

Các nhà nghiên cứu đã lâu nhận thấy rằng các mạng thần kinh nhân tạo mất nhiều thời gian hơn để tiếp thu và áp dụng kiến thức mới so với con người, vì đào tạo chúng yêu cầu lượng năng lượng và dữ liệu khổng lồ. Điều đó không còn đúng nữa, Hinton lập luận, chỉ ra rằng các hệ thống như GPT-4 có thể học những điều mới một cách rất nhanh chóng sau khi được nghiên cứu đúng cách. Điều đó giống như cách một nhà vật lý có chuyên môn có thể nhanh chóng lĩnh hội các phát hiện thử nghiệm mới hơn đáng kể so với một học sinh khoa học cấp trung thông thường có thể.

Điều đó dẫn đến kết luận của Hinton rằng các hệ thống AI có thể đã thông minh hơn chúng ta. Không chỉ có thể học những điều nhanh hơn, ông lưu ý, chúng còn có thể chia sẻ bản sao kiến thức của họ với nhau gần như ngay lập tức.

"Đó là một hình thức trí tuệ hoàn toàn khác," ông nói với tạp chí. "Một hình thức trí tuệ mới và tốt hơn."

CHIẾN TRANH VÀ LỜI ĐỒN ĐẠI CHIẾN TRANH

Các hệ thống AI thông minh hơn con người sẽ làm gì? Một khả năng đáng lo ngại khác là các cá nhân, nhóm hoặc quốc gia độc ác có thể đơn giản là áp đảo chúng để đạt được mục đích của riêng mình. Hinton đặc biệt lo lắng rằng công cụ này có thể được huấn luyện để thay đổi kết quả bầu cử và thậm chí là để tham chiến.

Việc lan truyền tin đồn bầu cử qua chatbot AI, ví dụ, có thể là phiên bản tương lai của lan truyền tin đồn bầu cử qua Facebook và các nền tảng truyền thông xã hội khác.

Và có thể đó chỉ là khởi đầu. "Đừng nghĩ một giây rằng Putin sẽ không tạo ra những con robot siêu thông minh với mục tiêu giết người Ukraina," Hinton nói trong bài báo. "Anh ta sẽ không do dự."

THIẾU GIẢI PHÁP

Điều không rõ ràng là ai sẽ dừng lại một thế lực như Nga sử dụng công nghệ AI để thôn tính láng giềng hoặc công dân của nó. Hinton cho rằng một thỏa thuận toàn cầu tương tự Nhà hiến tặng Vũ khí 1997 có thể là một bước đầu tiên tốt để thiết lập các quy tắc quốc tế chống lại AI vũ khí hóa.

Tuy nhiên, cũng đáng lưu ý rằng Hợp đồng vũ khí hóa hóa chất không ngăn chặn cuộc tấn công của Syria sử dụng khí clorua và chất độc thần kinh sarin vào dân thường vào năm 2017 và 2018 trong cuộc nội chiến đẫm máu của quốc gia đó.