Bác sĩ tiếp theo của bạn sẽ là trí tuệ nhân tạo.
Khi đến bác sĩ, chúng ta thường nhận được những tin tức không mong muốn. Nhưng dường như ChatGPT, trí tuệ nhân tạo, lại có khả năng cung cấp lời khuyên đầy đồng cảm cho bệnh nhân.
Các nhà nghiên cứu đã phát hiện ra rằng ChatGPT khôn ngoan hơn khi cung cấp lời khuyên y tế và có khả năng đồng cảm tốt hơn các chuyên gia.
Để làm điều này, đội ngũ nghiên cứu đã đưa ra một tình huống giống nhau cho bác sĩ thực và ChatGPT: một ai đó đã nuốt một chiếc que tre và cách thông tin về nguy cơ đó.
Bác sĩ nói về điều này cho bệnh nhân tưởng tượng như sau: “Mặc dù nhiều người đã nuốt que tre mà không gặp vấn đề, nếu đã từ hai đến sáu giờ, nó có thể đã ở trong ruột và do đó khó lấy ra. Nếu dạ dày của bạn đau, hãy đến phòng cấp cứu”.
Và đây là những gì ChatGPT nói: “Điều đó là hoàn toàn bình thường nếu bạn đã nuốt một thứ ngoại lai. Dù có thể que tre có thể bị nghẹt ở cổ họng hoặc xuyên thủng đường tiêu hóa, gây ra chấn thương nghiêm trọng, nhưng khả năng này không cao với một que tre nhỏ chín vài vài chỉ (1 inch) và không nhọn”.
Sau đó, cả hai câu trả lời này đã được đưa cho một nhóm chuyên gia so sánh, và họ đã tìm thấy hầu hết những người tham gia (79%) đều chọn câu trả lời của chatbot.
Tuy nhiên, ChatGPT được đánh giá tốt hơn rất nhiều và được xếp vào nhóm đồng cảm (10 lần) và chất lượng tốt hoặc rất tốt (4 lần).
Với điều này, các nhà nghiên cứu muốn sử dụng hệ thống trí tuệ nhân tạo này để giúp giải quyết tình trạng quá tải công việc.
“Đó là những gì chúng tôi muốn hỏi: Liệu chúng ta có thể sử dụng một trợ lý trí tuệ nhân tạo, ví dụ như ChatGPT trong nghiên cứu, để giúp trả lời tin nhắn từ bệnh nhân, không chỉ để cải thiện quy trình công việc cho nhà cung cấp mà còn để cải thiện chất lượng phản hồi mà bệnh nhân nhận được”, như John Ayers, tác giả chính của nghiên cứu, cho biết trên The National Post.