Brenda J. Linert ngày 4 tháng 6 năm 2023

Brenda J. Linert biên tập viên [email protected] Tôi đang học trung học khi bộ phim "Kẻ Hủy Diệt" được ra mắt.

facebook_article_icon.png

Tôi không thích đi xem phim hành động hay khoa học viễn tưởng, nên tôi chẳng ghé rạp để xem bộ phim này.

Nhiều năm sau, khi tôi hẹn hò với người đàn ông cuối cùng tôi sẽ lấy, chúng tôi đang chuyển đổi kênh truyền hình để tìm cái gì đó hay để xem khi chợt nhận ra nó.

twitter_article_icon.png

Khi tôi nghe sự hào hứng mà người yêu cũ của tôi tỏ ra về "Kẻ Hủy Diệt", tôi ngay lập tức biết rằng trong vòng hai giờ tiếp theo tôi sẽ xem bộ phim đó.

Nếu bạn chưa xem, “Kẻ Hủy Diệt” là một “sát thủ Cyborg” giả mạo là con người vì ám sát Sarah Connor nhằm ngăn chặn việc cô sinh con trong tương lai. Được gửi đến bảo vệ người phụ nữ là một người lính trong “cuộc kháng chiến nhân loại”. Trong tương lai hậu tận thế của bộ phim, phần lớn con người đã bị loại bỏ bởi cuộc chiến hạt nhân vào năm 1997 được kích hoạt bởi Trí tuệ nhân tạo được biết đến với tên gọi “Skynet”. Người sống sót do con trai của Sarah Connor dẫn đầu đang chiến đấu chống lại sự tuyệt chủng và cuộc chiến diệt chủng của hệ thống máy tính độc lập trí tuệ đối với loài người.

print_icon.pngemail_icon.png

Âm nhạc của bộ phim có vẻ lãng mạn và giải trí, tôi biết.

Tôi nhớ đã nghĩ rằng bộ phim có vẻ quá phi thực tế. Nhưng sau đó, liệu không phải mục đích của khoa học viễn tưởng là đẩy bạn vào những tình huống tương lai không tưởng?

Hãy chuẩn bị tâm lý. Tương lai đã đến.

Tuần trước, các nhà khoa học và lãnh đạo ngành công nghệ, bao gồm những giám đốc cấp cao tại Microsoft và Google, đã đưa ra cảnh báo mới về những nguy hiểm mà trí tuệ nhân tạo gây ra cho nhân loại.

“Việc giảm thiểu nguy cơ tuyệt chủng từ trí tuệ nhân tạo nên được xem là ưu tiên toàn cầu cùng với các nguy cơ quy mô xã hội khác như đại dịch và chiến tranh hạt nhân” - một tuyên bố được đưa ra bởi The Associated Press.

Sam Altman, Giám đốc điều hành của OpenAI - nhà sản xuất ChatGPT và Geoffrey Hinton, một nhà khoa học máy tính được biết đến với danh xưng "ông già của trí tuệ nhân tạo", là những người ký tuyên bố đó.

Nỗi lo sợ về các hệ thống trí tuệ nhân tạo vượt mặt con người và hoạt động hoang dã đã được nâng cao với sự xuất hiện của một thế hệ mới của các chatbots trí tuệ nhân tạo có khả năng cao như ChatGPT. Điều này đã làm nhiều quốc gia trên thế giới đang hoảng loạn để đưa ra quy định cho công nghệ đang phát triển này.

"“Có nhiều người từ tất cả các trường đại học hàng đầu ở nhiều lĩnh vực khác nhau quan tâm đến vấn đề này và cho rằng đây là một ưu tiên toàn cầu,” Dan Hendrycks, Giám đốc điều hành của Trung tâm An toàn Trí tuệ Nhân tạo phi lợi nhuận đóng cửa tại San Francisco, cho biết. “Chúng tôi đã phải làm cho nhiều người trầm lặng nói ra về vấn đề này, bởi nhiều người vẫn nói chuyện nhóm, nhóm trong lòng chứ không dám kêu gọi công khai.”

Hơn 1000 nhà nghiên cứu và kỹ sư, bao gồm cả Elon Musk, đã ký tên cho một bức thư dài hơn nhiều vào đầu năm nay kêu gọi tạm dừng phát triển Trí tuệ Nhân tạo trong vòng 6 tháng, vì cho rằng nó gây ra “những rủi ro sâu sắc đối với xã hội và nhân loại.”

Thư đó là phản ứng với việc OpenAI tung ra một mô hình Trí tuệ Nhân tạo mới, GPT-4, nhưng các lãnh đạo tại OpenAI, cũng như đối tác của nó là Microsoft và đối thủ là Google đã không đồng ý và từ chối kêu gọi tạm dừng phát triển ngành công nghiệp theo tình nguyện, theo AP đưa tin.

Tuyên bố của tuần trước không đưa ra những biện pháp cụ thể, nhưng một số người đề xuất một tổ chức quản lý quốc tế theo mô hình của cơ quan hạt nhân của Liên Hiệp Quốc.

Mặc dù vậy, một số chuyên gia chỉ trích những cảnh báo nghiêm trọng về những mối nguy hại về tồn tại mà các nhà sản xuất AI đã nói ra đã góp phần làm cho tài năng của sản phẩm của họ được chú ý đến nhiều hơn, và xao nhãng cho những yêu cầu về quy định ngay lập tức để giới hạn những vấn đề thực tế của chúng.

Hendrycks cho biết không có lý do gì khiến xã hội không thể tự quản lý những sản phẩm tạo nội dung mới hoặc hình ảnh mới, trong khi cũng bắt đầu giải quyết những “tai họa tiềm tàng” sắp tới.

Anh so sánh với các nhà khoa học hạt nhân thời những năm 1930 cảnh báo người dân phải thận trọng, mặc dù “chúng ta vẫn chưa phát triển được bom.”

Bạn có thể nhớ rằng gần đây tôi đã viết một bài viết trình bày những rủi ro đến với Trí tuệ Nhân tạo, đặc biệt liên quan đến ngành báo chí. Tôi đã chỉ ra rằng, mặc dù công nghệ đang phát triển nhanh chóng, tôi không tin rằng robot sẽ sớm được trang bị và lấy thông tin trực tiếp như những phóng viên của chúng tôi làm. Tôi cũng hoài nghi rằng chúng sẽ có khả năng xây dựng lòng tin và gây dựng nguồn tin tức cho phép chúng có thể kiểm soát vấn đề của cộng đồng xung quanh.

Đúng vậy, tôi vẫn tin điều đó - ít nhất vào thời điểm này. Nhưng tương lai có thể gần hơn so với những gì tôi nghĩ ban đầu.

Cập nhật tin tức mới nhất và hơn thế nữa trong hộp thư đến của bạn"