“Kiến thức và thực tiễn y tế thay đổi và tiến hóa theo thời gian, và không ai biết ChatGPT lấy thông tin từ đâu trong lịch sử y học để đưa ra một phương pháp điều trị điển hình,” cô ấy nói. “Thông tin đó có phải là mới nhất hay cũ kỹ?”

Người dùng cũng cần cẩn trọng với cách mà bot theo kiểu ChatGPT có thể trình bày thông tin bị “phát tưởng” hoặc được tạo ra một cách “trơn tru”, tiềm ẩn nguy cơ gây ra những sai sót nghiêm trọng nếu người dùng không kiểm chứng lại câu trả lời của thuật toán. Và văn bản được tạo ra bởi trí tuệ nhân tạo có thể tác động đến con người một cách tinh sub. Một nghiên cứu được công bố vào tháng một (chưa được đồng nghiệp chấp nhận) đã đặt ra các câu hỏi đạo đức cho ChatGPT và kết luận rằng chatbot là một cố vấn đạo đức không nhất quán có thể ảnh hưởng đến quá trình ra quyết định của con người ngay cả khi họ biết những lời khuyên đó đến từ phần mềm trí tuệ nhân tạo.

Là một bác sĩ không chỉ đơn thuần là việc nặn lại kiến ​​thức y học. Trong khi nhiều bác sĩ rất năng động với việc sử dụng ChatGPT cho các nhiệm vụ có rủi ro thấp hơn như tóm tắt văn bản, một số chuyên gia sinh học đạo đức lo lắng rằng bác sĩ sẽ nhờ vào bot để được tư vấn trong trường hợp đối mặt với một quyết định đạo đức khó như liệu pháp là lựa chọn đúng đắn cho một bệnh nhân có khả năng sống sót hoặc hồi phục thấp.

“Bạn không thể tạo ra quy trình đó bằng mô hình trí tuệ nhân tạo sinh học được sản sinh ”, Jamie Webb, một chuyên gia sinh học đạo đức tại Trung tâm Tương lai Đạo đức Công nghệ tại Đại học Edinburgh nhận xét.

Năm ngoái, Webb và một nhóm nhà tâm lý học đạo đức khám phá những gì cần để xây dựng một “cố vấn đạo đức” được cung cấp bởi trí tuệ nhân tạo để sử dụng trong y tế, lấy cảm hứng từ các nghiên cứu trước đó đã đề xuất ý tưởng này. Webb và các tác giả đồng tác giả của mình kết luận rằng sẽ khó cho các hệ thống này để cân bằng các nguyên tắc đạo đức khác nhau một cách đáng tin cậy và bác sĩ và nhân viên khác có thể gặp nguy hiểm “mất kỹ năng đạo đức” nếu họ trở nên quá phụ thuộc vào bot thay vì tự suy nghĩ trong khi đưa ra quyết định khó khăn của mình.

Webb lưu ý rằng bác sĩ đã được nói trước đó rằng trí tuệ nhân tạo xử lý ngôn ngữ sẽ cách mạng hóa công việc của họ, nhưng không thành công. Sau khi thắng Jeopardy! vào các năm 2010 và 2011, phân bổ Watson của IBM đã chuyển sang ung thư và đưa ra các yêu cầu về hiệu quả chiến đấu chống lại ung thư với AI. Nhưng giải pháp đó, ban đầu được gọi là Memorial Sloan Kettering trong một chiếc hộp, không thành công trong các cài đặt lâm sàng như những lời đồn thổi, và vào năm 2020, IBM đã đóng dự án đó.

Khi lời quảng cáo không đúng, có thể có hậu quả kéo dài. Trong suốt một diễn đàn thảo luận tại Harvard về tiềm năng của trí tuệ nhân tạo trong y tế vào tháng hai, bác sĩ chuyên khoa chăm sóc sức khỏe cơ sở Trishan Panch đã nhớ lại việc nhìn thấy một đồng nghiệp đăng trên Twitter để chia sẻ kết quả của việc hỏi ChatGPT chẩn đoán một căn bệnh, ngay sau khi chatbot được phát hành.

Các bác sĩ được kích thích đáp ứng nhanh chóng với các cam kết sử dụng công nghệ trong thực hành của riêng họ, Panch nhớ lại, nhưng đến khi đến khoảng câu trả lời thứ hai mươi, một bác sĩ khác đã nói rằng mọi tham khảo được sinh ra bởi mô hình đó là giả. "Chỉ cần một hoặc hai điều như vậy để làm suy yếu niềm tin vào toàn bộ vấn đề đó", Panch nói, người đã đồng sáng lập cho công ty khởi nghiệp phần mềm chăm sóc sức khỏe Wellframe.

Mặc dù những sai sót đôi khi rõ ràng của trí tuệ nhân tạo, Robert Pearl, trước đây của Kaiser Permanente, vẫn rất lạc quan về các mô hình ngôn ngữ như ChatGPT. Ông tin rằng trong những năm tới, các mô hình ngôn ngữ trong chăm sóc sức khỏe sẽ trở thành như iPhone, đầy đủ các tính năng và sức mạnh có thể tăng cường cho các bác sĩ và giúp bệnh nhân quản lý bệnh mãn tính. Ông thậm chí nghi ngờ rằng các mô hình ngôn ngữ như ChatGPT có thể giúp giảm số lượng hơn 250.000 người chết hàng năm ở Mỹ do lỗi y tế.

Pearl cho rằng một số điều không thể sử dụng trí tuệ nhân tạo. Giúp mọi người ứng phó với nỗi đau và mất mát, cuộc trò chuyện cuối đời với gia đình và đàm thoại về các thủ tục liên quan đến nguy cơ cao là không nên bao gồm cả bot, bởi vì nhu cầu của mỗi bệnh nhân đều khác nhau đến mức bạn phải có những cuộc trò chuyện đó để đến được đó.

"Những cuộc trò chuyện đó là giữa con người với con người", Pearl nói, dự đoán điều có sẵn hôm nay chỉ chiếm một phần nhỏ của tiềm năng. "Nếu tôi sai, đó là vì tôi đánh giá quá cao tốc độ cải tiến của công nghệ. Nhưng mỗi lần tôi nhìn, nó diễn ra nhanh hơn cả những gì tôi nghĩ. ”

Hiện tại, ông so sánh ChatGPT với một sinh viên y khoa: có khả năng cung cấp chăm sóc cho bệnh nhân và đóng góp vào công việc nhưng mọi thứ mà nó làm phải được xem xét lại bởi bác sĩ điều trị.