Tôi là một trong những người bi quan được chỉ trích bởi Tim Ritchie, tổng giám đốc của Bảo tàng Khoa học, trong bài viết “Sự lời báo nguy hiểm về trí tuệ nhân tạo là không hiệu quả” (Ý kiến, ngày 23 tháng 7). Tôi đã ký Tuyên bố về An toàn Trí tuệ Nhân tạo của Trung tâm An toàn Trí tuệ Nhân tạo — “Giảm thiểu rủi ro tuyệt chủng từ Trí tuệ Nhân tạo phải trở thành ưu tiên toàn cầu cùng với những rủi ro theo quy mô xã hội khác như đại dịch và chiến tranh hạt nhân” — vì tôi quan ngại rằng hệ thống trí tuệ nhân tạo có thể trở thành (theo lời của Ritchie) “một sinh vật độc lập … tự chủ và vô đạo đức.”

Xem xét rằng đã có một GPT-4 tự chủ (Auto-GPT), rõ ràng chúng ta phải đối mặt với các ứng dụng tự chủ của Trí tuệ Nhân tạo, và không ai đã tìm ra cách để cung cấp cho trí tuệ nhân tạo một ý thức đạo đức. Chúng có phải là những sinh vật độc lập không? Vấn đề đáng sợ là không ai biết. Trong một bài viết trên Báo The Boston Globe vào tháng 5, nhà nghiên cứu Trí tuệ Nhân tạo Stuart Russell đã viết rằng ông hỏi nhà phát triển GPT Sébastien Bubeck liệu GPT-4 đã phát triển được những mục tiêu bên trong riêng của nó hay chưa, và Bubeck nói rằng ông không có ý kiến gì.

Ritchie trích dẫn Marc Andreessen: “Trí tuệ nhân tạo chỉ là một chương trình máy tính như bất kỳ chương trình nào khác ... Nó thuộc sở hữu của con người và được kiểm soát bởi con người.” Liệu ChatGPT có thể tự suy nghĩ? Chúng ta không biết. Liệu Trí tuệ Nhân tạo sau này sẽ thông minh hơn? Có thể. Liệu chúng ta sẽ xây dựng một trí tuệ nhân tạo thông minh hơn chúng ta? Có vẻ như vậy, và sau đó rất khó để tưởng tượng rằng con người có thể kiểm soát nó.

Chúng ta không nên hoảng sợ, nhưng cũng không nên chối bỏ những rủi ro này.

Ken Olum

Sharon

Trong bài viết ý tưởng của mình, tổng giám đốc Bảo tàng Khoa học, Tim Ritchie, khuyên chúng ta nên “thực tế về những gì đáng lo ngại” về Trí tuệ Nhân tạo, nhưng cũng “ăn mừng những điều tốt đẹp” về nó (“Sự lời báo nguy hiểm về trí tuệ nhân tạo là không hiệu quả”). Một trong những khía cạnh đáng lo ngại mà ông nhận diện là năng lượng tính toán cần thiết để đẩy mạnh Trí tuệ Nhân tạo có thể làm tăng hiện tượng trái đất nóng lên. Vì vậy, đây là ý kiến đề xuất của tôi: Nhiệm vụ đầu tiên mà các nhà khoa học nên áp dụng Trí tuệ Nhân tạo là tìm cách chạy Trí tuệ Nhân tạo mà không làm tăng hiện tượng nóng lên trái đất hoặc, tốt hơn nữa, làm giảm nó. Sau đó, tôi sẽ bắt đầu ăn mừng những điều tốt đẹp của nó. Và nếu nó có thể làm điều tương tự với ngành tiền điện tử tiêu thụ năng lượng, tôi sẽ tăng gấp đôi niềm hân hoan của mình.

Rick Blum

Bedford