Table of contents

EDMONTON - Robot giết người có lẽ sẽ không làm phá hủy ngôi nhà của bạn ngay ngày mai, nhưng chỉ nếu chúng ta đặt ra các quy luật để ngăn chúng được sử dụng như vậy từ hôm nay, theo nhận định của một giáo sư đến từ Đại học Alberta.

Lên tới 100 người yêu khoa học từ khắp vùng Edmonton sẽ đến Fargos Restaurant and Lounge vào ngày 28 tháng 6 này để tham gia vào cuộc thảo luận về những sự thật và tưởng tượng về trí tuệ nhân tạo.

Cuộc nói chuyện là một phần của chuỗi sự kiện Science On Tap tại Telus World of Science Edmonton, nhằm đưa khoa học vào các địa điểm ít trang trọng hơn như quán bar. Đây là lần đầu tiên sự kiện được tổ chức bên ngoài trung tâm khoa học kể từ khi đại dịch COVID-19 bắt đầu, như chú thích của nhà khoa học nhân viên Cate Collins.

Trí tuệ nhân tạo đã trở nên phổ biến, với những chương trình như ChatGPT và Midjourney có khả năng tạo ra văn bản, hình ảnh và video gần như không thể phân biệt được với những thứ được tạo ra bởi con người.

“Tôi biết những lập trình viên đang sử dụng nó để viết mã cho họ,” Collins nói về ChatGPT, bổ sung rằng đồng nghiệp của bà đã sử dụng nó để đăng ký giấy phép. (Trang web của sự kiện Science On Tap trong tháng này có một bài thơ được ChatGPT viết.)

Tuy nhiên, các nhà nghiên cứu cũng đã đặt ra những lo ngại về tiềm năng của trí tuệ nhân tạo khiến thông tin giả lan truyền và chạy các vũ khí tự động. Vào tháng 5 năm ngoái, khoảng 350 chuyên gia hàng đầu về trí tuệ nhân tạo đã ký tên vào một tuyên bố, cho rằng trí tuệ nhân tạo là một rủi ro quy mô xã hội có khả năng xoá sổ loài người và nên được đối phó với cùng sự nghiêm trọng như một đại dịch hay chiến tranh hạt nhân.

Collins nói rằng cuộc thảo luận trong tháng này nhằm cung cấp cơ hội cho mọi người tìm hiểu thêm về tác động tiềm năng của trí tuệ nhân tạo từ các chuyên gia. Những diễn giả nổi bật bao gồm giáo sư triết học Geoffrey Rockwell của Đại học Alberta, Nidhi Hegde của Viện Trí tuệ Máy tính Alberta và giáo sư Khoa học Máy tính tại Đại học Alberta Jonathan Schaeffer.

Nhu cầu về quy định

Schaeffer, được biết đến với công việc liên quan đến trí tuệ nhân tạo và các trò chơi như poker, cho biết trí tuệ nhân tạo có thể mang lại nhiều lợi ích cho nhân loại. Nó có thể giúp cho nhà văn trở nên sản xuất hơn, giúp các bác sĩ phát hiện ra thêm nhiều khối u ở bệnh nhân ung thư và giảm tỷ lệ tử vong do tai nạn giao thông bằng cách hoạt động như một tài xế không bao giờ lái xe khi say rượu.

Nhưng tương tự như năng lượng hạt nhân, trí tuệ nhân tạo có thể gây ra những vấn đề nghiên trọng nếu được sử dụng sai cách, Schaeffer tiếp tục. Các chương trình trí tuệ nhân tạo không phân biệt sự thật và giả dối, và có thể tạo ra các kết quả đầu tưởng. Họ cũng có thể có những thành kiến tích cực dựa trên dữ liệu huấn luyện của chúng - huấn luyện chương trình nhận dạng khuôn mặt trên phần lớn là người da trắng, và kết quả rất tệ khi phải nhận dạng khuôn mặt người da đen.

Trí tuệ nhân tạo đã tạo ra nhiều kết quả ấn tượng nhưng vẫn chưa đạt được mức độ để nghĩ và hành động độc lập, Schaeffer nói.

“Trí tuệ nhân tạo sẽ không nói lên điều gì đó như: ‘Bạn biết sao không? Hôm nay tôi cần phải xóa sổ một thành phố.’ Nó không thể làm điều đó. Nó chỉ làm những gì được lập trình để làm.”

Schaeffer cho rằng tốt hơn hết là nghĩ về trí tuệ nhân tạo ngày nay như là “trí tuệ được tăng cường” - cái gì đó hỗ trợ, nhưng không thay thế cho suy nghĩ của con người. Bạn có thể sử dụng một chương trình như ChatGPT để viết bản thảo sơ bộ, nhưng bạn vẫn cần kiểm tra kỹ công việc của nó để đảm bảo tính chính xác.

Schaeffer cho rằng công chúng cần phải đặt ra các quy định trước khi các chương trình trí tuệ nhân tạo đạt đến mức có thể nghĩ và hành động độc lập. Ông trích dẫn đến Luật Bảo vệ Dữ liệu Mới của châu Âu là một bước khởi đầu tốt.

"Không có quy tắc cơ bản nào thì mọi người sẽ làm theo ý mình," ông ta nói.

"Hậu quả có thể là khủng khiếp.

Truy cập telusworldofscienceedmonton.ca để biết thêm chi tiết về cuộc nói chuyện."