Tuần này, HITRUST thông báo về việc ra mắt chương trình HITRUST AI Assurance mới, nhằm giúp các tổ chức chăm sóc sức khỏe phát triển chiến lược sử dụng mô hình trí tuệ nhân tạo một cách an toàn và bền vững.

Tổ chức đánh giá và chứng nhận này cũng đang phát triển hướng dẫn quản lý rủi ro cho các hệ thống trí tuệ nhân tạo trong tương lai.

VÌ SAO ĐIỀU NÀY QUAN TRỌNG

Chương trình HITRUST AI Assurance nhằm ưu tiên quản lý rủi ro như một yếu tố cơ bản trong phiên bản mới cập nhật 11.2 của HITRUST CSF, theo nhóm này, và nhằm cho phép các tổ chức triển khai trí tuệ nhân tạo trong các trường hợp sử dụng khác nhau tương tác một cách chủ động và hiệu quả hơn với các nhà cung cấp dịch vụ trí tuệ nhân tạo của họ để thảo luận về cách tiếp cận rủi ro chung.

"The resulting clarity of shared risks and accountabilities will allow organizations to place reliance on shared information protection controls that already are available from internal shared IT services and external third-party organizations, including service providers of AI technology platforms and suppliers of AI-enabled applications and other managed AI services," theo HITRUST.

Nhóm này xem chương trình này như là chương trình đầu tiên của loại này, tập trung vào đạt được và chia sẻ sự đảm bảo kiểm soát an ninh mạng cho trí tuệ nhân tạo sáng tạo và các ứng dụng thuật toán mới nổi.

Văn bản chiến lược của HITRUST, "A Path to Trustworthy AI," có thể tải về.

Trong khi mô hình trí tuệ nhân tạo từ các nhà cung cấp dịch vụ đám mây và các bên khác đang cho phép các tổ chức chăm sóc sức khỏe mở rộng mô hình theo nhiều trường hợp sử dụng và nhu cầu cụ thể, các quan chức HITRUST lưu ý về tính không rõ ràng của các mạng thần kinh sâu đã gây ra những thách thức riêng về quyền riêng tư và an ninh. Các tổ chức chăm sóc sức khỏe phải hiểu rõ trách nhiệm của mình đối với dữ liệu bệnh nhân và đảm bảo rằng họ có đảm bảo rủi ro đáng tin cậy cho nhà cung cấp dịch vụ của họ.

Mục tiêu của chương trình là cung cấp một "cách tiếp cận chung, đáng tin cậy và đã được chứng minh trong việc đảm bảo an ninh" giúp các tổ chức chăm sóc sức khỏe hiểu rõ rủi ro liên quan đến việc triển khai mô hình trí tuệ nhân tạo và "chứng minh đáng tin cậy việc tuân thủ các nguyên tắc quản lý rủi ro trí tuệ nhân tạo bằng cách sử dụng tính minh bạch, kiên định, chính xác và chất lượng tương tự thông qua tất cả các báo cáo HITRUST Assurance", các quan chức nói.

HITRUST cho biết đang làm việc với Dịch vụ Microsoft Azure OpenAI về việc duy trì CSF và tạo bản đồ CSF nhanh hơn với các quy định, luật bảo vệ dữ liệu và tiêu chuẩn mới.

XU HƯỚNG LỚN HƠN

Nghiên cứu gần đây đã chỉ ra rằng trí tuệ nhân tạo sáng tạo sẽ trở thành một phần trị giá $22 tỷ của ngành chăm sóc sức khỏe trong thập kỷ tới.

Khi các hệ thống chăm sóc sức khỏe cố gắng triển khai các thuật toán trí tuệ nhân tạo sáng tạo và khác, họ háo hức biến đổi hoạt động và tăng năng suất trong nhiều trường hợp sử dụng lâm sàng và vận hành khác nhau. Nhưng HITRUST lưu ý rằng, "bất kỳ công nghệ đột phá mới nào cũng mang đến rủi ro mới, và trí tuệ nhân tạo sáng tạo cũng vậy."

Triển khai một cách có trách nhiệm là rất quan trọng - và hầu hết các tổ chức chăm sóc sức khỏe đang tiếp cận thận trọng và khôn ngoan trong việc khám phá các ứng dụng trí tuệ nhân tạo sáng tạo.

Nhưng luôn có những rủi ro, đặc biệt là khi liên quan đến bảo mật mạng, nơi mà AI hoàn toàn là một thanh gươm hai lưỡi.

TRÊN HỒ SƠ

"Quản lý rủi ro, an ninh và đảm bảo cho các hệ thống AI đòi hỏi các tổ chức đóng góp vào hệ thống hiểu rõ những rủi ro trên toàn bộ hệ thống và đồng ý cách bảo vệ hệ thống cùng nhau," Robert Booker, giám đốc chiến lược của HITRUST, phát biểu.

"AI đáng tin cậy yêu cầu hiểu cách kiểm soát được thực hiện bởi tất cả các bên và được chia sẻ, cũng như một phương pháp thực tế, có thể mở rộng, được công nhận và đã được chứng minh cho một hệ thống AI được thừa hưởng các kiểm soát chính xác từ nhà cung cấp dịch vụ của họ," ông thêm. "Chúng tôi đang xây dựng các Chứng nhận AI trên một hệ thống đã được chứng minh sẽ cung cấp tính mở rộng cần thiết và truyền cảm hứng sự tự tin từ tất cả các bên, bao gồm các cơ quan quản lý, quan tâm đến nền tảng đáng tin cậy cho các triển khai AI."

"AI có tiềm năng xã hội lớn và những rủi ro về mạng mà các nhà lãnh đạo bảo mật quản lý hàng ngày cũng đến với AI," Omar Khawaja, CISO lĩnh vực của Databricks và thành viên của Hội đồng HITRUST, nói. "Các phương pháp đảm bảo an ninh khách quan như Hitrust CSF và báo cáo chứng chỉ Hitrust đánh giá nền tảng an ninh cần thiết nên là nền tảng cho các triển khai AI."

Mike Miliard là biên tập viên điều hành của Healthcare IT News.

Email người viết: [email protected] Healthcare IT News là một ấn phẩm của HIMSS.