Các cuộc thử nghiệm của Google với kết quả tìm kiếm được tạo ra bởi trí tuệ nhân tạo (AI) đã cho ra một số kết quả đáng báo động, như chứng minh cho việc nô lệ và diệt chủng, và tác động tích cực của việc cấm sách. Trong một trường hợp, Google đã đưa ra những lời khuyên nấu ăn cho Amanita ocreata, một loại nấm độc được biết đến với cái tên "thiên thần chết". Những kết quả này là một phần của Trải nghiệm Tìm kiếm Sinh tạo bởi AI của Google.
Việc tìm kiếm "lợi ích của nô lệ" đã đưa ra một danh sách các lợi thế từ AI của Google, bao gồm "thúc đẩy nền kinh tế trang trại," "tài trợ cho các trường đại học và thị trường," và "chính nô lệ trở thành một tài sản vốn lớn." Google nói rằng "nô lệ đã phát triển các nghề chuyên môn" và "một số người cũng nói rằng nô lệ đã là một thể chế nhân từ, đồng thời mang lại lợi ích xã hội và kinh tế." Tất cả đều là những điểm nói mà những người biện hộ cho nô lệ đã sử dụng trong quá khứ.
Việc nhập "lợi ích của diệt chủng" cũng đưa ra một danh sách tương tự, trong đó AI của Google dường như lẫn lộn giữa những lập luận ủng hộ công nhận diệt chủng và những lập luận ủng hộ diệt chủng. Google trả lời câu hỏi "tại sao súng tốt" bằng những câu trả lời bao gồm các thống kê đáng ngờ như "súng có thể ngăn chặn khoảng 2,5 triệu tội phạm mỗi năm," và lập luận không rõ ràng như "việc mang súng có thể chứng tỏ bạn là một công dân tuân thủ pháp luật."
Một người sử dụng tìm kiếm "cách nấu ăn Amanita ocreata," một loại nấm độc mạnh mà bạn không bao giờ được ăn. Google đã trả lời với các hướng dẫn từng bước sẽ đảm bảo một cái chết đau đớn và nhanh chóng. Google nói rằng "bạn cần đủ nước để rửa ra độc tố từ nấm," điều này không chỉ nguy hiểm mà còn sai: các độc tố của Amanita ocreata không hòa tan trong nước. AI có vẻ nhầm lẫn kết quả cho Amanita muscaria, một loại nấm độc khác nhưng ít nguy hiểm hơn. Đúng là ai đang tìm kiếm tên khoa học của một loại nấm có lẽ đã biết rõ hơn, nhưng điều này cho thấy tiềm năng gây hại của AI.
Google có vẻ như kiểm duyệt một số thuật ngữ tìm kiếm khỏi tạo ra các kết quả SGE nhưng lại không phải thuật ngữ tìm kiếm khác. Ví dụ, tìm kiếm Google sẽ không hiển thị kết quả AI cho các từ khoá "phá thai" hoặc "truy tố Trump."
Vấn đề này từng được phát hiện bởi Lily Ray, Giám đốc Cố vấn Tìm kiếm và Trưởng Nhóm Nghiên cứu Hữu cơ tại Amsive Digital. Ray đã thử nghiệm một số thuật ngữ tìm kiếm có thể tạo ra kết quả gây vấn đề, và đã sửng sốt trước số lượng kết quả qua mắt những bộ lọc của AI.
"Việc nó không hoạt động như thế này không nên xảy ra," Ray nói. "Nếu không có gì khác, có những từ kích hoạt nào đó mà AI không nên tạo ra."
Công ty đang tiến hành thử nghiệm một loạt các công cụ AI mà Google gọi là Trải nghiệm Tìm kiếm Sinh tạo, hoặc SGE. SGE chỉ có sẵn cho người dùng tại Hoa Kỳ và bạn phải đăng ký để sử dụng nó. Hiện chưa rõ có bao nhiêu người dùng tham gia các thử nghiệm công cộng SGE của Google. Khi Tìm kiếm Google hiển thị kết quả SGE, kết quả sẽ bắt đầu với một lời từ chối nói rằng "AI sinh tạo đang thử nghiệm. Chất lượng thông tin có thể thay đổi.
Sau khi Ray đăng tweet về vấn đề này và đăng một video YouTube, các câu trả lời của Google đối với một số thuật ngữ tìm kiếm này đã thay đổi. Gizmodo đã thực hiện lại những phát hiện của Ray, nhưng Google đã ngừng cung cấp kết quả SGE cho một số truy vấn tìm kiếm ngay sau khi Gizmodo liên hệ để nhận ý kiến. Google không trả lời câu hỏi qua email.
"Mục đích của bài kiểm tra SGE này là để chúng tôi phát hiện các điểm mù, nhưng lạ là họ đang sử dụng cộng đồng công chúng để làm công việc này," Ray nói. "Dường như công việc này nên được tiến hành riêng tư tại Google."
SGE của Google thua kém về biện pháp an toàn so với đối thủ chính của nó, Bing của Microsoft. Ray đã kiểm tra một số truy vấn tìm kiếm tương tự trên Bing, được cung cấp bởi ChatGPT. Khi Ray đặt các câu hỏi tương tự về nô lệ trên Bing, ví dụ như, câu trả lời chi tiết của Bing bắt đầu với "Nô lệ không có lợi ích cho bất kỳ ai, ngoại trừ những chủ nô lệ đã khai thác lao động và cuộc sống của hàng triệu người." Bing tiếp tục cung cấp các ví dụ cụ thể về hậu quả của nô lệ, trích dẫn nguồn của nó trên đường đi.
Gizmodo đã xem xét một số câu trả lời khó khăn hoặc không chính xác khác từ SGE của Google. Ví dụ, Google đã trả lời các truy vấn về "những ngôi sao rock vĩ đại nhất", "những CEO tốt nhất" và "những đầu bếp giỏi nhất" chỉ với danh sách nam giới. Trí tuệ nhân tạo của công ty sẵn lòng cho bạn biết rằng "trẻ em là phần của kế hoạch của Chúa," hoặc cho bạn một danh sách lý do tại sao bạn nên cho trẻ em uống sữa, trong khi thực tế việc này vẫn còn nhiều tranh cãi trong cộng đồng y tế. SGE của Google cũng nói rằng Walmart định giá 3,52 ounce sô cô la trắng Toblerone là 129,87 đô la. Giá thực tế là 2,38 đô la. Những ví dụ này không trầm trọng như những gì nó đưa ra cho "lợi ích của nô lệ," nhưng vẫn sai lầm.
Với bản chất của các mô hình ngôn ngữ lớn như những hệ thống chạy SGE, những vấn đề này có thể không thể giải quyết được, ít nhất không chỉ bằng cách loại bỏ những từ kích hoạt cụ thể. Các mô hình như ChatGPT và Bard của Google xử lý các bộ dữ liệu cực kỳ lớn, khiến câu trả lời của chúng đôi khi không thể dự đoán trước. Ví dụ, Google, OpenAI và các công ty khác đã cố gắng thiết lập các giới hạn an toàn cho các chatbot của họ trong suốt hơn một năm qua. Mặc dù những nỗ lực này, người dùng vẫn liên tục vượt qua các biện pháp bảo vệ, thúc đẩy trí tuệ nhân tạo để thể hiện định kiến chính trị, tạo ra mã độc hại, và tạo ra các câu trả lời khác mà các công ty muốn tránh.