"Cha đẻ của Trí tuệ nhân tạo" đã từ chức từ Google để tăng cường nhận thức về nguy hiểm của trí tuệ nhân tạo và cho biết mối đe dọa mà công nghệ này gây ra cho thế giới có thể còn khẩn cấp hơn cả biến đổi khí hậu.

Trong một cuộc phỏng vấn với Reuters, Geoffrey Hinton tiếp tục cảnh báo về những rủi ro của trí tuệ nhân tạo sau khi từ chức khỏi Google tuần trước. Hinton thông báo việc từ chức của mình trong một cuộc phỏng vấn với tờ New York Times được công bố vào thứ Hai.

"Tôi không muốn đánh giá thấp tác động của biến đổi khí hậu. Tôi không muốn nói rằng: 'Bạn không cần lo lắng về biến đổi khí hậu'. Đó cũng là một rủi ro rất lớn," Hinton cho biết với Reuters. "Nhưng tôi nghĩ rằng vấn đề này có thể còn khẩn cấp hơn.

Với biến đổi khí hậu, việc đưa ra đề xuất giải pháp thực sự rất đơn giản: bạn chỉ cần ngừng đốt than. Nếu bạn làm điều đó, cuối cùng mọi thứ sẽ ổn. Nhưng việc này lại chẳng rõ ràng chút nào."

Những bình luận của Hinton trong tuần này xảy ra khi các công ty công nghệ đang tham gia vào cuộc đua với nhau để mở rộng khả năng của trí tuệ nhân tạo, được kích hoạt bởi sự thành công của ChatGPT.

Công ty cũ của Hinton đã ra mắt một trợ lý ảo có tên là Bard vào tháng Ba. Điều này đã bị chỉ trích bởi các nhân viên của Google, người đã cảnh báo rằng công nghệ này có thể gây nguy hiểm, như Bloomberg đưa tin.

Nhưng trong một tweet sau cuộc phỏng vấn với Tờ New York Times, Hinton cho biết ông từ chức để có thể nói openly về trí tuệ nhân tạo mà không ảnh hưởng đến Google, một công ty ông nghĩ đã hành động "rất đáng trách nhiệm".

Tuy nhiên, Hinton lo lắng rằng trí tuệ nhân tạo sẽ giúp lan truyền thông tin sai lệch và loại bỏ công việc. Nghiên cứu của Goldman Sachs ước tính trí tuệ nhân tạo có thể ảnh hưởng đến tới 300 triệu công việc toàn thời gian.

Trong cuộc phỏng vấn với Tờ New York Times, Hinton tự hỏi liệu có quá muộn để đưa ra các kiểm tra cần thiết trên đà tiến triển nhanh chóng của AI.

"Tôi tự an ủi mình với lời bào chữa thường ngày: Nếu tôi không làm điều đó, người khác sẽ làm. Đó là một tình hình rất khó để bạn nhìn thấy làm thế nào bạn có thể ngăn chặn những tác nhân xấu sử dụng nó cho những việc xấu," Hinton nói với Tờ New York Times.

Google chưa phản hồi yêu cầu của Insider cho ý kiến.