SAN FRANCISCO - Geoffrey Hinton, một nhà khoa học máy tính lừng danh được biết đến như là "cha đẻ của trí tuệ nhân tạo", đang có những suy nghĩ nghiêm túc về những kết quả của công việc của mình.

Hinton đã giúp tiên phong cho các công nghệ trí tuệ nhân tạo cực kỳ quan trọng đối với một thế hệ mới của các chatbot siêu năng như ChatGPT. Nhưng trong các cuộc phỏng vấn gần đây, ông cho biết rằng ông vừa từ chức một công việc nổi bật tại Google để chia sẻ mối quan ngại của mình rằng việc phát triển trí tuệ nhân tạo không kiểm soát có thể đe dọa đến nhân loại.

"Tôi đột nhiên thay đổi quan điểm của mình về những thứ này có thông minh hơn chúng ta không", ông nói trong một cuộc phỏng vấn với MIT Technology Review. "Tôi nghĩ chúng gần đạt được điều đó và chúng sẽ thông minh hơn chúng ta nhiều trong tương lai ... Làm thế nào chúng ta sống sót được điều đó?".

Hinton không phải là người băn khoăn duy nhất. Ngay sau khi startup OpenAI được Microsoft hậu thuẫn cho ra mắt mô hình trí tuệ nhân tạo mới nhất của mình với tên gọi GPT-4 vào tháng 3, hơn 1.000 nhà nghiên cứu và chuyên gia công nghệ đã ký tên trong một lá thư kêu gọi tạm ngưng phát triển trí tuệ nhân tạo trong sáu tháng vì, như họ nói, nó gây nguy hiểm sâu sắc đến xã hội và nhân loại.

Dưới đây là những mối quan ngại lớn nhất của Hinton về tương lai của trí tuệ nhân tạo ... và nhân loại.

MỌI THỨ ĐỀU LIÊN QUAN TỚI MẠNG THẦN KINH

Bộ não của chúng ta có thể giải quyết phương trình vi phân, lái xe và theo dõi các nhân vật trong "Succession" nhờ vào khả năng gốc của chúng ta để tổ chức và lưu trữ thông tin và tìm ra giải pháp cho các vấn đề gai góc. Động vật thân mềm chúng ta và, quan trọng hơn, 100 ngàn tỷ kết nối mà những tế bào thần kinh này tạo ra giữa chúng làm cho điều này trở nên có thể.

Ngược lại, công nghệ đằng sau ChatGPT có tính năng từ 500 tỷ đến 1 ngàn tỷ kết nối, Hinton nói trong cuộc phỏng vấn. Mặc dù điều đó dường như đưa nó vào một thế bị ràng buộc hơn so với chúng ta, Hinton chú ý rằng GPT-4, mô hình trí tuệ nhân tạo mới nhất của OpenAI, biết "gấp hàng trăm lần" so với bất kỳ con người nào. Có lẽ, ông chỉ ra, nó có thuật toán học tập tốt hơn chúng ta, làm cho nó hiệu quả hơn trong các nhiệm vụ nhận thức.

Trí tuệ nhân tạo CÓ THỂ ĐÃ THÔNG MINH HƠN CHÚNG TA

Nhà nghiên cứu đã lâu đã lưu ý rằng các mạng thần kinh nhân tạo mất nhiều thời gian hơn để tiếp thu và áp dụng kiến thức mới so với con người, vì đào tạo chúng yêu cầu lượng năng lượng và dữ liệu lớn. Điều đó không còn đúng nữa, Hinton lập luận, chú ý rằng các hệ thống như GPT-4 có thể học hỏi những điều mới rất nhanh chóng một khi được đào tạo đúng cách bởi các nhà nghiên cứu. Điều đó tương tự như cách một nhà vật lý học chuyên nghiệp có thể nhanh chóng nắm bắt những phát hiện thí nghiệm mới hơn là một học sinh khoa học trung học điển hình có thể.

Điều đó dẫn Hinton đến kết luận rằng các hệ thống trí tuệ nhân tạo có thể đã thông minh hơn chúng ta. Không chỉ các hệ thống trí tuệ nhân tạo có thể học thứ gì đó nhanh hơn, ông lưu ý rằng chúng cũng có thể chia sẻ bản sao kiến thức của mình với nhau gần như ngay lập tức.

"Đó là một hình thức thông minh hoàn toàn khác biệt", ông nói với tạp chí. "Một hình thức thông minh mới và tốt hơn."

CHIẾN TRANH VÀ TIN ĐỒN VỀ CHIẾN TRANH

Hệ thống trí tuệ nhân tạo thông minh hơn con người sẽ làm gì? Một khả năng đầy bất an là cá nhân, nhóm hoặc quốc gia nguy hiểm có thể đơn giản là tiếp cận để đạt được mục đích của riêng họ. Hinton quan ngại đặc biệt là những công cụ này có thể được đào tạo để ảnh hưởng đến các cuộc bầu cử và thậm chí đánh chiến tranh.

Ví dụ, các chatbot trả thông tin sai lệch qua trí tuệ nhân tạo có thể là phiên bản tương lai của việc phổ biến thông tin sai lệch dựa trên Facebook và các nền tảng truyền thông xã hội khác.

Và đó có thể chỉ là bắt đầu. "Đừng nghĩ rằng Putin sẽ không làm robot thông minh vượt trội với mục đích giết người Ukraine", Hinton nói trong bài báo. "Anh ấy sẽ không do dự."

SỰ THIẾU HỤT GIẢI PHÁP

Ở đó chưa rõ ai sẽ ngăn chặn một nước như Nga sử dụng công nghệ trí tuệ nhân tạo để thống trị hàng xóm hay công dân của nó. Hinton cho rằng một hiệp định toàn cầu tương tự Hiệp định Vũ khí Hóa học năm 1997 có thể là một bước đầu tốt để xác lập các quy tắc quốc tế chống lại trí tuệ nhân tạo vũ khí.

Mặc dù cũng có giá trị lưu ý rằng hợp đồng vũ khí hóa học không ngăn chặn được các cuộc tấn công Syria được cho là sử dụng khí clo và chất độc sarin chống lại dân thường vào năm 2017 và 2018 trong cuộc nội chiến đẫm máu của quốc gia đó.

Bởi DAVID HAMILTON, phóng viên Kinh doanh của AP