Trí tuệ nhân tạo (AI)—của ChatGPT nổi tiếng—ngày càng được sử dụng trong lĩnh vực y học để cải thiện việc chẩn đoán và điều trị bệnh, và tránh kiểm tra không cần thiết cho bệnh nhân. Tuy nhiên, các thiết bị y tế AI cũng có thể gây hại cho bệnh nhân và làm gia tăng bất công về sức khỏe nếu chúng không được thiết kế, kiểm tra và sử dụng một cách cẩn thận, theo một nhóm công việc quốc tế có sự tham gia của một nhà sinh đạo học từ Trung tâm Y học của Đại học Rochester.
Johnathan Herington, Tiến sĩ, là một thành viên của Nhóm công việc AI thuộc Hội Y học Hạt nhân và Hình ảnh Y học, đã đưa ra các khuyến nghị về cách phát triển một cách đạo đức và sử dụng thiết bị y tế AI trong hai bài viết được đăng trên Tạp chí Y học Hạt nhân. Nói một cách ngắn gọn, nhóm công việc đã kêu gọi tăng cường sự minh bạch về độ chính xác và giới hạn của AI và đề ra các biện pháp để đảm bảo tất cả mọi người đều có quyền truy cập vào các thiết bị y tế AI phù hợp với họ—bất kể chủng tộc, dân tộc, giới tính hay giàu nghèo của họ.
Trong khi trách nhiệm về việc thiết kế và kiểm tra đúng đắn nằm trong tay các nhà phát triển AI, những nhà cung cấp chăm sóc sức khỏe chịu trách nhiệm cuối cùng về việc sử dụng AI một cách đúng đắn và không nên phụ thuộc quá nhiều vào các dự đoán của AI khi đưa ra quyết định chăm sóc bệnh nhân.
"Luôn cần có một nhân viện trong thông tin," Herington nói. Ông là giáo sư trợ giảng Chuyên ngành Nhân học và Sinh đạo học Y tế tại URMC và cũng là một trong ba nhà sinh đạo học được thêm vào nhóm công việc vào năm 2021. “Các bác sĩ nên sử dụng AI như một yếu tố đầu vào cho quyết định của riêng họ, thay vì thay thế quyết định của mình.”
Điều này yêu cầu các bác sĩ thực sự hiểu rõ cách một thiết bị y tế AI cụ thể được thiết kế để sử dụng như thế nào, hiệu suất của nó trong công việc đó, và bất kỳ giới hạn nào—và họ phải truyền đạt kiến thức đó cho bệnh nhân của mình. Các bác sĩ phải cân nhắc rủi ro tương đối của kết quả dương tính giả so với kết quả âm tính giả cho một tình huống cụ thể, đồng thời cân nhắc các bất công cấu trúc.
Ví dụ, khi sử dụng hệ thống AI để phát hiện khối u nghi ngờ trong quét PET, các nhà cung cấp chăm sóc sức khỏe phải biết hiệu quả của hệ thống trong việc nhận biết loại khối u cụ thể này ở bệnh nhân cùng giới tính, chủng tộc, dân tộc v.v., như bệnh nhân đang xét nghiệm.
"Điều đó có nghĩa là các nhà phát triển hệ thống này cần phải rất minh bạch," Herington nói.
Theo nhóm công việc, các nhà phát triển AI phải cung cấp thông tin chính xác về cách sử dụng dự định của thiết bị y tế AI, hiệu suất lâm sàng và giới hạn một cách dễ dàng cho người dùng. Một cách họ đề xuất là tích hợp cảnh báo ngay vào thiết bị hoặc hệ thống để thông báo cho người dùng về mức độ không chắc chắn của dự đoán của AI. Điều đó có thể nhìn giống như các bản đồ nhiệt trên các quét khối u ung thư để cho thấy khu vực có khả năng ung thư cao hay thấp hơn.
Để giảm bớt sự không chắc chắn đó, những nhà phát triển phải định nghĩa cẩn thận dữ liệu được sử dụng để huấn luyện và kiểm tra các mô hình AI của họ và nên sử dụng các tiêu chí có ý nghĩa lâm sàng để đánh giá hiệu suất của mô hình. Việc chỉ đơn giản xác nhận các thuật toán được sử dụng bởi một thiết bị hoặc hệ thống không đủ. Các thiết bị y tế AI nên được kiểm tra trong các "thử nghiệm im lặng", có nghĩa là hiệu suất của chúng sẽ được đánh giá bởi nhà nghiên cứu trên bệnh nhân thực tế trong thời gian thực, nhưng dự đoán của chúng sẽ không được sẵn có cho các nhà cung cấp chăm sóc sức khỏe hoặc được áp dụng vào quyết định lâm sàng.
Các nhà phát triển cũng nên thiết kế các mô hình AI để có ích và chính xác trong tất cả bối cảnh nơi chúng sẽ được triển khai.
"Một vấn đề đó là những hệ thống cao cấp, đắt tiền này sẽ được triển khai trong các bệnh viện giàu nguồn lực, và cải thiện kết quả cho bệnh nhân tương đối có điều kiện tốt, trong khi bệnh nhân ở các bệnh viện thiếu nguồn lực hoặc nông thôn sẽ không có quyền truy cập vào chúng—hoặc sẽ có quyền truy cập vào các hệ thống làm cho việc chăm sóc của họ tồi tệ hơn vì chúng không được thiết kế cho họ," Herington nói.
Hiện tại, các thiết bị y tế AI được đào tạo trên các tập dữ liệu mà bệnh nhân Mỹ La-tinh và Mỹ da đen ít được đại diện, có nghĩa là các thiết bị này ít có khả năng đưa ra các dự đoán chính xác cho bệnh nhân từ những nhóm này.
Để tránh làm sâu thêm sự bất bình đẳng về sức khỏe, các nhà phát triển phải đảm bảo mô hình AI của họ được hiệu chuẩn cho tất cả các nhóm dân tộc và giới tính bằng cách đào tạo chúng với các bộ dữ liệu đại diện cho tất cả các dân tộc nhóm và giới tính mà thiết bị y tế hoặc hệ thống cuối cùng sẽ phục vụ.
Mặc dù các khuyến nghị này được phát triển với tập trung vào y học hạt nhân và hình ảnh y học, Herington tin rằng chúng có thể và nên được áp dụng cho các thiết bị y tế AI một cách rộng rãi.
"Các hệ thống này ngày càng mạnh mẽ và cảnh quan đang thay đổi rất nhanh chóng," Herington nói. "Chúng ta có một cửa sổ đang đóng chặt để củng cố khung đạo đức và quy định xung quanh những thứ này."
###
Đọc các khuyến nghị đầy đủ tại đây: