Các tập dữ liệu được sử dụng để huấn luyện các thuật toán trí tuệ nhân tạo có thể thiếu sót về người lớn tuổi. Ảnh: Pixabay/CC0 Public Domain
Có vẻ như không có điểm dừng nào cho những dự đoán về những đám mây bão khi máy tính cuối cùng quyết định tự quyết định (hoặc chúng ta nên nói, tự xử lý).
"Việc phát triển trí tuệ nhân tạo có thể giống như sự kết thúc của loài người," Stephan Hawking cảnh báo.
"[AI] làm tôi sợ quá mức. Nó có khả năng hơn cả mọi người biết và tốc độ tiến bộ là mũi nhọn," Elon Musk, người sáng lập OpenAI nói.
Công nghệ trí tuệ nhân tạo đem lại "những rủi ro sâu sắc cho xã hội và nhân loại", theo một lá thư được ký vào đầu năm nay bởi hơn 1.000 nhà lãnh đạo công nghệ cảnh báo cần trì hoãn nghiên cứu trí tuệ nhân tạo cho đến khi hiểu rõ hơn về các rủi ro tiềm tàng.
"Chúng ta cần phải rất cẩn trọng," Yoshua Bengio, giáo sư và nhà nghiên cứu trí tuệ nhân tạo tại Đại học Montreal nói.
Mặc dù không bỏ qua lời hứa của các ứng dụng trí tuệ nhân tạo sẽ mang lại cho nhiều lĩnh vực trong công nghiệp, kinh tế, giáo dục, khoa học, nông nghiệp, y tế và nghiên cứu những ảnh hưởng tích cực, các báo cáo truyền thông ngày càng cảnh báo về những hậu quả không mong muốn của công nghệ đột phá bùng nổ này.
Một trong số các vấn đề đáng quan ngại là hành vi mới nổi, được xác định là một chuỗi các tương tác không được lập trình trước trong một hệ thống bắt nguồn từ các hành vi được lập trình đơn giản bởi từng phần riêng lẻ.
Các nhà nghiên cứu cho biết đã có dấu hiệu của hành vi này được thấy trong các mô hình tự học ngôn ngữ khi các hệ thống được huấn luyện để chơi cờ và Go tạo ra các chiến lược ban đầu để tiến lên phía trước, hoặc khi các robot thể hiện sự biến động trong các mẫu chuyển động mà không được lập trình ban đầu.
"Dù đã cố gắng để mong đợi sự bất ngờ, tôi vẫn ngạc nhiên với những gì các mô hình này có thể làm," Ethan Dyer, nhà khoa học máy tính của Google bình luận về một thí nghiệm trí tuệ nhân tạo mà trong đó một máy tính đột ngột suy luận được tiêu đề của một bộ phim dựa trên một chuỗi các biểu tượng cảm xúc.
Nhưng Dyer có thể ngạc nhiên khi biết đội nghiên cứu tại Đại học Stanford đang giải trình cho các báo cáo về hành vi mới nổi.
Ryan Schaeffer, Brando Miranda và Sanmi Koyejo nói trong một bài báo đăng tải vào tuần trước rằng bằng chứng cho khả năng hành vi mới nổi dựa trên các thống kê có thể đã sai lầm trong cách hiểu.
"Tin nhắn của chúng tôi là những khả năng mới nổi trước đó có thể là ảo tưởng do các phân tích của nhà nghiên cứu," họ nói.
Trong bài báo của họ được đăng trên máy chủ tiền in arXiv, các nhà nghiên cứu giải thích rằng khả năng của các mô hình ngôn ngữ lớn được đo bằng cách xác định tỷ lệ dự báo chính xác của nó.
Phân tích thống kê có thể được đại diện bằng nhiều cách. Nhóm nghiên cứu cho rằng khi kết quả được báo cáo theo các chỉ số phi tuyến tính hoặc không liên tục, chúng dường như cho thấy các thay đổi sâu, không thể dự báo được, mà được giải thích sai khi là một chỉ báo cho các hành vi mới nổi.
Tuy nhiên, cách đo lường dữ liệu tương tự bằng các chỉ số tuyến tính lại cho thấy sự thay đổi "mượt mà, liên tục" mà, trái ngược với kết quả trước đó, tiết lộ ra được hành vi có thể dự báo không phải là hành vi mới nổi.
Nhóm Stanford cũng cho rằng việc không sử dụng số mẫu đủ lớn thủyên giảm đến những kết luận sai lầm.
"Các khả năng mới nổi trước đó có thể được tạo ra bằng các phân tích của nhà nghiên cứu, chứ không phải là những thay đổi cơ bản trong hành vi mô hình trên các nhiệm vụ cụ thể," nhóm nghiên cứu nói.
Họ cũng cho biết trong khi phương pháp của nghiên cứu trước đó có thể dẫn đến các kết luận sai lầm, "không có gì trong bài báo này có thể được hiểu là cho rằng các mô hình ngôn ngữ lớn không thể hiển thị những khả năng mới nổi," và cho biết các phương pháp chính xác sẽ có thể tiết lộ những khả năng như vậy.
"Công thức đầu ra của thuật toán chỉ tốt như các thông số mà người tạo ra chúng thiết lập, có nghĩa là có thể có tiềm năng có thể với những thành kiến trong trí tuệ nhân tạo chính nó," như một nhà bình luận nổi tiếng của Microsoft Bing, ChatGPT đã nói.
Thông tin tham khảo: Rylan Schaeffer et al, Are Emergent Abilities of Large Language Models a Mirage?, arXiv (2023). DOI: 10.48550/arxiv.2304.15004
Thông tin tạp chí: arXiv