Các công ty phát triển ứng dụng ChatGPT phải xử lý các câu hỏi về quyền riêng tư và an ninh về cách con bot trí tuệ nhân tạo xử lý dữ liệu nhạy cảm có thể. Các nhà bán lẻ thời trang trực tuyến của Đức, Zalando SE có kế hoạch giới thiệu trợ lý mua sắm sử dụng phiên bản doanh nghiệp của ChatGPT của OpenAI trong vài tuần tới để phân tích các truy vấn tìm kiếm của khách hàng. Trợ lý có thể, ví dụ, đưa ra thông báo về quần áo cho một nơi cụ thể hoặc mùa và đề nghị một số sản phẩm. Trưởng bảo mật của Zalando, Jan Wittrodt, nói rằng nhà bán lẻ đã quyết định không chia sẻ dữ liệu khách hàng để huấn luyện thuật toán ChatGPT. Bất kỳ dữ liệu nào người dùng nhập khi tìm kiếm sản phẩm được xóa sau 30 ngày, ông Wittrodt cho biết. Những biện pháp bảo vệ này bảo vệ quyền riêng tư của khách hàng, ngay cả khi họ vô tình nhập thông tin riêng tư khi sử dụng trợ lý, ông nói. "Từ quan điểm quyền riêng tư, trong thực tế, tác động không quá lớn," ông Wittrodt nói.
OpenAI đã giới thiệu một số thay đổi đối với dịch vụ ChatGPT công cộng của mình vào tuần trước, cho phép người dùng chọn lựa nếu muốn tìm kiếm của họ được sử dụng để huấn luyện thuật toán của công cụ. Các tìm kiếm chưa được lưu giữ sẽ bị xóa sau 30 ngày. Những thay đổi này không ảnh hưởng đến dịch vụ doanh nghiệp có sẵn cho khách hàng doanh nghiệp, đã có tính năng tương tự, ông Wittrodt nói. ChatGPT đã nằm trong tầm ngắm của các nhà qu regulat trong vùng châu Âu và Hoa Kỳ kể từ khi ra mắt vào tháng 11 năm ngoái. Chính phủ Biden đang xem xét việc soạn thảo các quy tắc mới để quản lý các công cụ trí tuệ nhân tạo như ChatGPT sau khi nhận được chỉ trích về khả năng sử dụng chúng để phân biệt chủng tộc hoặc thông tin sai lệch có hại.
Cơ quan bảo vệ dữ liệu của Italy đã tạm ngừng hoạt động của ChatGPT trong nước này vào tháng trước, trích dẫn vi phạm Nghị định bảo vệ dữ liệu chung châu Âu và đòi hỏi thay đổi cách OpenAI xử lý dữ liệu và ngăn trẻ em dưới 13 tuổi sử dụng bot. Vào Thứ Sáu, cơ quan bảo vệ dữ liệu này đã dỡ bỏ lệnh cấm tạm thời của mình, nói rằng OpenAI đã thực hiện hầu hết các yêu cầu của nó, bao gồm cung cấp thêm chi tiết về cách nó xử lý thông tin. Hội đồng Bảo vệ Dữ liệu Châu Âu, tổ chức dù dòa của các cơ quan quản lý đến từ 27 quốc gia Liên minh Châu Âu, đã thành lập một nhóm nhiệm vụ để xem xét về ChatGPT.
Người sáng lập OpenAI, Sam Altman cho biết rằng trong tương lai, ông muốn thành lập một cấu trúc quản trị toàn cầu sẽ giám sát các quyết định về tương lai của trí tuệ nhân tạo và dần giảm sức mạnh của ban điều hành của OpenAI đối với công nghệ của mình. RELX PLC của Vương quốc Anh, sở hữu các nhà xuất bản kinh doanh và y khoa Elsevier và dịch vụ thông tin pháp lý LexisNexis, đang tìm cách sử dụng ChatGPT nhưng vẫn chưa triển khai công cụ trong bất kỳ dịch vụ nào, Michael Lamb, giám đốc bảo mật toàn cầu của RELX cho biết. Ông Lamb nói rằng có sự không chắc chắn về luật pháp liên quan đến cách ChatGPT sử dụng dữ liệu. Luật được thiết kế để đối phó với các rủi ro về trí tuệ nhân tạo như độ thiên vị, độ chính xác và phân biệt đối xử là một phương pháp tốt hơn để quản lý lĩnh vực này, so với GDPR rộng hơn của Liên minh Châu Âu, ông nói. "Đó là về việc đào tạo tổng thể, việc sử dụng thuật toán và tác động đến xã hội, cho dù có liên quan đến dữ liệu cá nhân hay không ", ông Lamb cho biết. Các công ty có thể cần phải phát hành các thông báo cho người dùng hoặc bất kỳ ai có dữ liệu được thu thập cho một ứng dụng được xây dựng bằng ChatGPT, ông nói. Chúng có thể cho biết rằng hệ thống đã sử dụng công cụ này và bất cứ điều gì được sản xuất bằng nó đều cần được xác minh độc lập, ông cho biết. Các nhà lập pháp Liên minh Châu Âu dự kiến sẽ bầu cử trong vài tháng tới về tài liệu thảo luận về AI, giới hạn các ứng dụng đầy rủi ro như công nghệ xử lý dữ liệu sinh trắc học. "Sẽ tiếc nuối nếu mất đi các lợi ích của điều này," ông Lamb nói. Đối với ông Wittrodt tại Zalando, các thay đổi gần đây của OpenAI cho thấy nó sẵn lòng lắng nghe nhà qu regulat và điều chỉnh dịch vụ của mình. Nếu các nhà qu regulat yêu cầu chi tiết về cách Zalando sử dụng ChatGPT, ông nói rằng ông sẽ có thể giải thích dữ liệu mà nhà bán lẻ chia sẻ với công cụ và cách áp dụng các biện pháp bảo vệ quyền riêng tư. Giữa sự kiểm soát qu regulat, các công ty đang sử dụng hoặc nghiên cứu thử nghiệm với ChatGPT nên đề phòng bằng cách soạn thảo các chính sách nhằm ngăn nhân viên nhập dữ liệu nhạy cảm hoặc sở hữu của họ, Ajay Chowdhury, giám đốc điều hành và đối tác cấp cao tại Boston Consulting Group cho biết. Đối với một số ứng dụng, các công ty cũng có thể loại bỏ dữ liệu cá nhân để bất cứ điều gì được gửi đến ChatGPT không thể được sử dụng để nhận dạng người, ông Chowdhury cho biết. "Rất nhiều công ty vẫn chưa hiểu rủi ro của những thứ này," ông nói. Viết cho Catherine Stupp tại [email protected]