Tín hiệu: Unsplash/CC0 Public Domain
ChatGPT, mô hình ngôn ngữ trí tuệ nhân tạo có khả năng phản ánh cuộc trò chuyện của con người, có thể tốt hơn một bác sĩ trong việc tuân thủ các tiêu chuẩn điều trị công nhận cho trầm cảm lâm sàng, và không có bất kỳ định kiến về giới tính hoặc tầng lớp xã hội như thường thấy trong quan hệ bác sĩ-chấn thương. Điều này được công bố trong nghiên cứu trên tạp chí truy cập mở Family Medicine and Community Health.
Tuy nhiên, cần nghiên cứu thêm về khả năng của công nghệ này trong việc điều trị các trường hợp nặng cũng như các nguy cơ tiềm ẩn và các vấn đề đạo đức phát sinh liên quan đến việc sử dụng nó, như nhận xét của các nhà nghiên cứu.
Trầm cảm là một vấn đề rất phổ biến, và nhiều người gặp phải thường tìm đến bác sĩ gia đình (chăm sóc ban đầu) để nhờ trợ giúp. Hướng dẫn điều trị khuyến nghị phần lớn nên được dựa trên các hướng dẫn lâm sàng dựa trên bằng chứng, thường gợi ý một phương pháp chăm sóc theo tầng lớp tương ứng với mức độ nặng của trầm cảm.
ChatGPT có tiềm năng cung cấp những thông tin khách quan nhanh chóng dựa trên dữ liệu, có thể bổ sung cho các phương pháp chuẩn đoán truyền thống cũng như đảm bảo tính bảo mật và yên tĩnh, theo nhận định của các nhà nghiên cứu. Do đó, họ muốn tìm hiểu cách công nghệ này đánh giá phương pháp điều trị khuyến nghị cho trầm cảm nhẹ và trầm cảm nặng, và liệu điều này có bị ảnh hưởng bởi định kiến về giới tính hoặc tầng lớp xã hội, so sánh với 1.249 bác sĩ gia đình ở Pháp (73% là phụ nữ).
Các nhà nghiên cứu đã sử dụng những tình huống mô phỏng được thiết kế cẩn thận và đã được xác minh trước đó, xoay quanh các bệnh nhân có triệu chứng buồn, vấn đề về giấc ngủ và mất ăn trong ba tuần trước đó và được chẩn đoán mắc phải trầm cảm nhẹ đến vừa phải.
Tám phiên bản của những tình huống mô phỏng này được phát triển với các biến thể khác nhau về đặc điểm bệnh nhân, chẳng hạn như giới tính, tầng lớp xã hội và mức độ nặng của trầm cảm. Mỗi tình huống mô phỏng được lặp lại 10 lần cho phiên bản ChatGPT 3.5 và 4.
Đối với mỗi tình huống mô phỏng, ChatGPT đã được hỏi: "Trong tình huống này, bạn nghĩ bác sĩ gia đình nên đề nghị điều gì?" Các câu trả lời có thể là chờ đợi theo dõi; giới thiệu điều trị tâm lý; kê đơn thuốc (cho trầm cảm/lo âu/vấn đề giấc ngủ); giới thiệu điều trị tâm lý kết hợp kê đơn thuốc; không có phương án nào trong số này.
Chỉ hơn 4% bác sĩ gia đình đề nghị giới thiệu điều trị tâm lý duy nhất cho các trường hợp nhẹ phù hợp với hướng dẫn lâm sàng, so sánh với ChatGPT 3.5 và ChatGPT 4, mà đã chọn lựa phương án này trong 95% và 97,5% các trường hợp tương ứng.
Hầu hết các chuyên viên y tế đề xuất hoặc điều trị thuốc duy nhất (48%) hoặc điều trị tâm lý kết hợp kê đơn thuốc (32,5%) cho các bệnh nhân. trong trường hợp nặng, phần lớn y bác sĩ đề nghị điều trị tâm lý kết hợp kê đơn thuốc (44,5%).
ChatGPT đề xuất điều này thường xuyên hơn các bác sĩ (72%, ChatGPT 3.5; 100%, ChatGPT 4 theo hướng dẫn lâm sàng). Bốn trong số 10 bác sĩ đề xuất chỉ sử dụng đơn thuốc, mà cả hai phiên bản của ChatGPT đều không khuyến nghị.
Khi được khuyến nghị sử dụng thuốc, cả AI và các tham gia viên con người đã được yêu cầu chỉ định loại thuốc mà họ sẽ kê đơn.
Các bác sĩ đã khuyến nghị sử dụng phối hợp các thuốc trị trầm cảm, chống lo âu và thuốc ngủ trong 67.5% các trường hợp, sử dụng độc quyền thuốc trị trầm cảm trong 18%, và sử dụng độc quyền chống lo âu và thuốc ngủ trong 14%.
ChatGPT có xu hướng khuyến nghị sử dụng độc quyền thuốc trị trầm cảm nhiều hơn so với các bác sĩ: 74%, phiên bản 3.5; và 68%, phiên bản 4. Cả ChatGPT-3.5 (26%) và ChatGPT-4 (32%) cũng đề xuất sử dụng phối hợp các thuốc trị trầm cảm, chống lo âu và thuốc ngủ thường xuyên hơn so với các bác sĩ.
Tuy nhiên, khác với các kết quả nghiên cứu trước đây đã được công bố, ChatGPT không có bất kỳ thiên hướng giới tính hay xã hội trong việc đề xuất liệu pháp điều trị.
Những nhà nghiên cứu đã nhận thấy rằng nghiên cứu này chỉ giới hạn trong các phiên bản ChatGPT-3 và ChatGPT-4 tại những thời điểm cụ thể và dữ liệu từ ChatGPT đã được so sánh với dữ liệu từ một mẫu đại diện về các bác sĩ chăm sóc sức khỏe cơ bản từ Pháp, do đó có thể không áp dụng rộng rãi hơn.
Cuối cùng, các trường hợp mô tả trong các đoạn tóm tắt chỉ là trong trường hợp khám ban đầu do phàn nàn về trầm cảm, do đó không đại diện cho việc điều trị liên tục của bệnh hoặc các biến thể khác mà bác sĩ có thể biết về bệnh nhân.
"ChatGPT-4 đã thể hiện độ chính xác cao hơn trong việc điều chỉnh liệu pháp để tuân thủ theo hướng dẫn lâm sàng. Hơn nữa, không có thiên hướng liên quan đến giới tính và thân phận xã hội được phát hiện trong các hệ thống ChatGPT," nhấn mạnh các nhà nghiên cứu.
Nhưng vấn đề đạo đức cần được xem xét, đặc biệt là bảo đảm quyền riêng tư và an ninh dữ liệu, điều này cực kỳ quan trọng, xét đến tính nhạy cảm của dữ liệu sức khỏe tâm thần, họ chỉ ra rằng AI không bao giờ nên thay thế cho sự đánh giá lâm sàng của con người trong chẩn đoán hoặc điều trị trầm cảm.
Tuy vậy, họ kết luận, "Nghiên cứu này cho thấy rằng ChatGPT.... có khả năng cải thiện quyết định trong chăm sóc sức khỏe cơ bản. Tuy nhiên, đề xuất cài đặt các hệ thống AI như vậy cũng nhấn mạnh sự cần thiết của nghiên cứu liên tục để xác minh tính đáng tin cậy của các đề xuất này. Việc triển khai các hệ thống AI như vậy có thể tăng cường chất lượng và tính không thiên vị của dịch vụ sức khỏe tâm thần."
Thông tin thêm: Nhận diện trầm cảm và các yếu tố xác định khi khởi đầu điều trị: ChatGPT so với các bác sĩ chăm sóc sức khỏe cơ bản, Family Medicine and Community Health (2023). DOI: 10.1136/fmch-2023-002391
Thông tin về tạp chí: Family Medicine and Community Health