Mối lo ngại về việc sử dụng công nghệ AI-powered language model ChatGPT và tác động của nó đến quyền riêng tư ngày càng tăng lên, và trong khi nhiều mối lo ngại đó là đúng đắn, một số chuyên gia cho rằng có cách để giảm thiểu những rủi ro này và đảm bảo rằng công nghệ được sử dụng một cách có trách nhiệm.

ChatGPT là một công cụ mạnh mẽ sử dụng xử lý ngôn ngữ tự nhiên để tạo ra các đáp ứng giống con người. Nó đã được sử dụng trong nhiều cài đặt khác nhau, bao gồm dịch vụ khách hàng và tạo nội dung, và trở nên ngày càng phổ biến trong những năm gần đây. Tuy nhiên, khả năng tạo ra những đáp ứng cá nhân đã gây ra mối lo ngại về tiềm năng lạm dụng, đặc biệt liên quan đến quyền riêng tư dữ liệu.

Trong một trường hợp đáng chú ý, việc sử dụng ChatGPT đã bị cấm ở Ý dựa trên những mối lo ngại về quyền riêng tư, chính quyền địa phương tuyên bố rằng họ chỉ sẽ xem xét lại quyết định của mình nếu nhà phát triển nền tảng OpenAI triển khai một danh sách các sửa đổi để khắc phục các vấn đề được xác định.

Mặc dù có những mối lo ngại này, một số chuyên gia đã cho rằng không có gì phải sợ hãi với ChatGPT miễn là các biện pháp phòng chống đúng được đưa vào chỗ. "Những gì đã xảy ra tại Ý là chứng minh rằng không có gì để hoảng loạn. Họ đã nói với OpenAI rằng nếu họ sửa đổi vài điều về chính sách quyền riêng tư và các điều khoản sử dụng họ có thể tiếp tục sử dụng công nghệ này ở Ý - điều này là bằng chứng cho thấy luật pháp mà hiện nay là đủ tốt để giải quyết mối lo ngại về quyền riêng tư", nói Gafnit Lagziel Shababo, đối tác và trưởng ban bảo vệ dữ liệu và quyền riêng tư tại Firon law firm.

Một trong những biện pháp phòng chống quan trọng nhất là đảm bảo người dùng biết rõ cách dữ liệu của họ được thu thập và sử dụng. Điều này có nghĩa là cung cấp thông tin rõ ràng và minh bạch về loại dữ liệu mà ChatGPT thu thập, cách sử dụng và ai có quyền truy cập vào nó. "Trong chính sách quyền riêng tư, bạn cần cho họ biết bạn đang làm gì với thông tin này - đầu tiên là bạn có thu thập thông tin của họ không và cho mục đích gì?", Shababo nói.

Cùng với việc đảm bảo người dùng hiểu rõ các phương thức bảo vệ dữ liệu, "privacy by design" là một khái niệm được nhấn mạnh về tầm quan trọng của việc xem xét các vấn đề liên quan đến quyền riêng tư từ đầu quá trình thiết kế cho bất kỳ sản phẩm, dịch vụ hoặc hệ thống mới nào xử lý dữ liệu cá nhân. Ý tưởng là xây dựng các phương tiện bảo vệ quyền riêng tư vào thiết kế của một sản phẩm, thay vì chỉ thêm vào những phương tiện đó sau đó.

Mặc dù không thể phủ nhận rằng ChatGPT đặt ra một số rủi ro đối với quyền riêng tư dữ liệu, các chuyên gia cho rằng những rủi ro này có thể được giảm thiểu thông qua việc sử dụng các biện pháp phòng chống phù hợp và các thực hành có trách nhiệm. Với phương pháp chính xác, ChatGPT có thể trở thành một công cụ mạnh mẽ cho các doanh nghiệp và cá nhân cung cấp nhiều lợi ích trong khi vẫn tôn trọng quyền riêng tư của người dùng, và điều đó sẽ là điều hữu ích cho tất cả mọi người. "Mọi người sẽ sử dụng nó đến mức nào đó", cô nói. "Nó thực sự làm cuộc sống của chúng ta dễ dàng hơn, như mọi công nghệ nổi tiếng đã xuất hiện cho đến nay. Tôi tin rằng nó tốt cho chúng ta, nhưng tôi nghĩ rằng người dùng nên có ý thức hơn về quyền riêng tư. Họ không làm điều đó đủ. Miễn là họ đọc và hiểu những gì các công ty làm với thông tin, thì không sao cả, và điều đó sẽ tốt cho tất cả mọi người".