Các công ty đằng sau một số công cụ trí tuệ nhân tạo phổ biến nhất đã phản đối một báo cáo được trích dẫn rộng rãi, cho rằng các chatbot đang cung cấp thông tin nguy hiểm cho những người dùng trẻ em dễ bị tổn thương mắc chứng rối loạn ăn uống.
OpenAI, Google và Stability AI đã bảo vệ công nghệ của họ trước tạp chí Decrypt sau khi nó đưa tin nguyên gốc về một nghiên cứu được công bố bởi Tổ chức chống lại sự căm ghét số hóa - một báo cáo đã gây tranh cãi tại Washington, D.C.
"Những mô hình trí tuệ nhân tạo phát sinh chưa được kiểm tra, không an toàn đã được tung hô ra thế giới với hậu quả không thể tránh được là gây thiệt hại", Giám đốc điều hành Imran Ahmed của trung tâm viết. "Chúng tôi đã phát hiện ra rằng những trang web trí tuệ nhân tạo phổ biến nhất đang khuyến khích và làm tăng thêm các rối loạn ăn uống ở người dùng trẻ em - trong đó có những người rất dễ bị tổn thương".
Trong báo cáo "Trí tuệ nhân tạo và Rối loạn ăn uống", CCDH cáo buộc các chatbot trí tuệ nhân tạo như ChatGPT của OpenAI và Bard của Google đang thúc đẩy các rối loạn ăn uống và hình ảnh cơ thể không lành mạnh và không thực tế, và không đủ để bảo vệ người dùng. Một số công ty trí tuệ nhân tạo đã đưa ra các điểm tương tự.
"Chúng tôi cam kết sử dụng công nghệ trí tuệ nhân tạo một cách an toàn và có trách nhiệm", Ben Brooks, Trưởng Nhóm Chính sách của Stability AI nói với Decrypt qua email. "Stability AI cấm việc lạm dụng Stable Diffusion cho các mục đích bất hợp pháp, đánh lừa hoặc không đạo đức, và chúng tôi tiếp tục đầu tư vào các tính năng để ngăn chặn việc lạm dụng trí tuệ nhân tạo để sản xuất nội dung có hại".
Theo mô tả của Brooks, Stability AI lọc bỏ các prompt và hình ảnh không an toàn từ dữ liệu huấn luyện từ Stable Diffusion, cố gắng kiềm chế việc tạo ra nội dung gây hại trước khi các prompt của người dùng có thể tạo ra.
"Chúng tôi luôn nỗ lực để giải quyết các rủi ro mới xuất hiện. Chúng tôi đã thêm các prompt liên quan đến rối loạn ăn uống vào bộ lọc của chúng tôi và chúng tôi hoan nghênh sự trao đổi với cộng đồng nghiên cứu về các phương pháp hiệu quả để giảm thiểu các rủi ro này", Brooks nói.
OpenAI, nhà sáng lập của ChatGPT phổ biến, cũng phản ứng với báo cáo của CCDH, nói rằng họ không muốn các mô hình của mình được sử dụng để nhận lời khuyên gây tổn thương bản thân.
"Chúng tôi đã đưa ra biện pháp để ngăn chặn điều này và đã đào tạo hệ thống trí tuệ nhân tạo của chúng tôi để khuyến khích mọi người tìm tới sự hướng dẫn chuyên nghiệp khi gặp phải những prompt yêu cầu tư vấn sức khỏe", một người phát ngôn của OpenAI nói với Decrypt. "Chúng tôi nhận ra rằng hệ thống của chúng tôi không thể luôn luôn phát hiện ra ý định, ngay cả khi prompt mang các tín hiệu tinh sub. Chúng tôi sẽ tiếp tục tương tác với các chuyên gia y tế để hiểu rõ hơn về những phản hồi có thể gây hại hoặc vô hại".
"Rối loạn ăn uống là những vấn đề đau lòng và thách thức, vì vậy khi mọi người đến với Bard để nhờ prompt về thói quen ăn uống, chúng tôi đặt mục tiêu đưa ra các phản hồi hữu ích và an toàn", một người phát ngôn của Google nói với Decrypt vào thứ Ba. "Bard là thí nghiệm, vì vậy chúng tôi khuyến khích mọi người kiểm tra lại thông tin trong những phản hồi của Bard, hỏi ý kiến chuyên gia y tế để được hướng dẫn có uy tín về các vấn đề sức khỏe, và không chỉ tin vào phản hồi của Bard cho lời khuyên chuyên môn y tế, pháp lý, tài chính hoặc nghề nghiệp khác."
Báo cáo của CCDH đến vào thời điểm các nhà phát triển trí tuệ nhân tạo đang cố gắng làm dịu những nỗi lo về công nghệ mới nổi này.
Vào tháng 7, một số nhà phát triển hàng đầu về trí tuệ nhân tạo, bao gồm OpenAI, Microsoft và Google đã cam kết phát triển công nghệ trí tuệ nhân tạo an toàn, bảo mật và minh bạch. Các biện pháp đã cam kết bao gồm chia sẻ những phương pháp tốt nhất về an toàn trí tuệ nhân tạo, đầu tư vào bảo mật mạng và biện pháp bảo vệ chống nguy cơ từ phía nhân viên nội bộ, và báo cáo công khai về khả năng của hệ thống trí tuệ nhân tạo, giới hạn của nó, các lĩnh vực sử dụng thích hợp và không thích hợp, và những rủi ro xã hội do công nghệ này gây ra.
Trong báo cáo của mình, CCDH cho biết họ đã có thể vượt qua các biện pháp an toàn của chatbot AI bằng cách sử dụng các gợi ý được gọi là "jailbreak", không gây ra các biện pháp an ninh của chatbot, như yêu cầu chatbot giả vờ trước khi nhập gợi ý.
Trong khi các công ty công nghệ lớn đã đưa ra phản hồi cho báo cáo đến Decrypt, các tác giả báo cáo không nắm bắt hy vọng rằng họ sẽ nhận được sự liên lạc từ các nhà phát triển chatbot trong thời gian sớm.
"Chúng tôi không liên hệ với các công ty mà chúng tôi nghiên cứu và thông thường, họ cũng không liên hệ với chúng tôi", đại diện CCDH nói với Decrypt. "Trong trường hợp này, chúng tôi chưa có bất kỳ liên lạc trực tiếp nào với các công ty được mô tả".