Mô hình Generative AI liên tục cải thiện hiệu suất của chúng bằng cách sử dụng tương tác người dùng để điều chỉnh thuật toán. Kết quả, ngay cả thông tin bảo mật trong lời nhắn của bạn có thể được sử dụng để tiếp tục đào tạo mô hình.
Vì lý do đó, quyền riêng tư dữ liệu là một trong những thách thức lớn nhất liên quan đến Generative AI - đặc biệt là với ChatGPT.
"Fears over data leaks" đã khiến nhiều công ty như Verizon, JPMorgan Chase và Amazon hạn chế việc sử dụng ChatGPT bởi nhân viên. Bây giờ, Apple cũng đã tham gia vào danh sách.
Theo tài liệu được xem xét bởi Wall Street Journal, ChatGPT và các công cụ AI bên ngoài khác, chẳng hạn như Github Copilot, đã bị hạn chế đối với một số nhân viên.
Lo lắng nảy sinh từ tiềm năng rò rỉ thông tin riêng tư khi sử dụng các mô hình này, đã từng xảy ra trước đó.
Ví dụ gần đây nhất là sự cố ChatGPT Mar. 20, đã cho phép một số người dùng xem tiêu đề từ lịch sử trò chuyện của người dùng khác. Sự kiện này đã khiến Ý tạm ngừng sử dụng ChatGPT.
OpenAI đã cố gắng giải quyết các vấn đề liên quan đến dữ liệu trước đó. Vào cuối tháng 4, OpenAI đã phát hành một tính năng cho phép người dùng tắt lịch sử trò chuyện của họ. Điều này cho phép người dùng kiểm soát dữ liệu của riêng mình, cho phép họ chọn các trò chuyện có thể được sử dụng để đào tạo các mô hình của OpenAI hoặc không.