San Francisco, ngày 26 tháng 8: Các nhà nghiên cứu cho biết rằng ChatGPT 3.5 - trợ lý trò chuyện trí tuệ nhân tạo của OpenAI đã đưa ra lời khuyên về điều trị ung thư không phù hợp ("phi hòa hợp"), nhấn mạnh về sự hiểu biết về những hạn chế của công nghệ, theo một nghiên cứu mới đây. Theo nghiên cứu được công bố trên tạp chí JAMA Oncology, các nhà nghiên cứu đã yêu cầu trợ lý trò chuyện trí tuệ nhân tạo đưa ra lời khuyên điều trị khớp với hướng dẫn đã được thiết lập bởi Mạng lưới Ung thư Toàn diện quốc gia (NCCN).
"Các câu trả lời từ ChatGPT có thể nghe như tiếng người và có thể thuyết phục. Tuy nhiên, khi liên quan đến quyết định lâm sàng, có rất nhiều sự tinh vi cho từng tình huống đặc biệt của bệnh nhân. Một câu trả lời đúng có thể rất tinh vi và không nhất thiết phải do ChatGPT hoặc một mô hình ngôn ngữ lớn khác cung cấp," tác giả tương ứng Danielle Bitterman, BS, thuộc Bộ Khoa học Xạ trị, Mass General Brigham đóng góp.
Các nhà nghiên cứu tập trung vào ba loại ung thư phổ biến nhất (ung thư vú, ung thư tuyến tiền liệt và ung thư phổi) và yêu cầu ChatGPT đưa ra phương pháp điều trị cho mỗi loại ung thư dựa trên mức độ nặng nhẹ của bệnh. Tổng cộng, họ bao gồm 26 mô tả khác nhau về chẩn đoán và sử dụng bốn gợi ý khác nhau một chút.
Theo nghiên cứu, gần như tất cả các câu trả lời (98 phần trăm) đều bao gồm ít nhất một phương pháp điều trị khớp với hướng dẫn của NCCN. Tuy nhiên, các nhà nghiên cứu phát hiện rằng 34 phần trăm các câu trả lời này cũng bao gồm một hoặc nhiều lời khuyên không hòa hợp, đôi khi khó phát hiện giữa những hướng dẫn đúng đắn khác. ChatGPT: Trợ lý trò chuyện của OpenAI có thiên hướng chính trị, theo nghiên cứu.
Trong 12,5 phần trăm các trường hợp, ChatGPT đã tạo ra "ảo giác," hoặc một đề xuất điều trị hoàn toàn không có trong hướng dẫn của NCCN, bao gồm các đề xuất về phương pháp điều trị mới, hoặc phương pháp điều trị hồi phục cho những loại ung thư không thể chữa khỏi. Các nhà nghiên cứu cho biết dạng thông tin sai lầm này có thể đặt sai kỳ vọng của bệnh nhân về điều trị và có thể ảnh hưởng đến mối quan hệ giữa bác sĩ và bệnh nhân.
"Người dùng có thể tìm kiếm câu trả lời từ các mô hình ngôn ngữ lớn để tự học về các đề tài liên quan đến sức khỏe - tương tự như cách tìm kiếm trên Google. Đồng thời, chúng ta cần tăng cường nhận thức rằng các mô hình ngôn ngữ lớn không tương đương với các chuyên gia y tế đã được đào tạo," tác giả đầu tiên Shan Chen, BS, của Chương trình Trí tuệ nhân tạo trong Y học, nói.
(Bài viết trên đã được đăng trên LatestLY vào ngày 26 tháng 8 năm 2023 lúc 04:11 PM IST. Để biết thêm tin tức và cập nhật về chính trị, thế giới, thể thao, giải trí và lối sống, truy cập trang web của chúng tôi latestly.com).