Apple là công ty mới nhất cấm sử dụng ChatGPT và các sản phẩm tương tự nội bộ, mặc dù chatbot của OpenAI mới đến với iOS dưới dạng ứng dụng di động. Tin tức về việc này được tiết lộ hôm qua bởi The Wall Street Journal, cho biết bộ phận nội bộ của Apple đã được thông báo về việc cấm. Theo tài liệu đó, những mối quan ngại của Apple sẽ tương tự với các công ty khác đã cấm ChatGPT được sử dụng nội bộ, đó là trí tuệ nhân tạo có thể rò rỉ thông tin nội bộ nhạy cảm đã được chia sẻ với nó. Được cho là Apple cũng đã cấm công cụ mã hóa tự động của GitHub là Copilot. Tin đồn đã xuất hiện hàng loạt về các kế hoạch trí tuệ nhân tạo của Apple, với khả năng công ty đang làm việc trên LLM riêng của mình để cạnh tranh với ChatGPT của Google.

Cupertino không phải là người đi đơn độc trong quyết định cấm sử dụng chatbot được hỗ trợ bởi Microsoft này: Nó tham gia một danh sách ngày càng tăng dài các công ty như Amazon và nhiều ngân hàng bao gồm JPMorgan Chase, Bank of America, Citigroup, Deutsche Bank và những cái tên khác. Samsung - đối thủ của Apple cũng đã hai lần cấm ChatGPT sử dụng nội bộ do các rủi ro của nó. Samsung đã dỡ bỏ lệnh cấm sử dụng ChatGPT cho nhân viên vào tháng 3, nhưng trong chưa đầy một tháng, truyền thông Hàn Quốc đã tiết lộ rằng nhân viên Samsung đã yêu cầu ChatGPT giúp họ giải quyết lỗi mã nguồn, sửa phần mềm được sử dụng để thu thập dữ liệu đo lường và sản xuất và biến ghi chú cuộc họp thành ghi chú. Samsung đã tái áp dụng lệnh cấm ChatGPT của mình vào đầu tháng này để ngăn các sự cố tương tự xảy ra.

Rủi ro của ChatGPT, Google Bard và các bot LLM khác là dữ liệu được cấp cho chúng thường được sử dụng để huấn luyện thêm cho các bot, như GCHQ của Anh đã cảnh báo có thể dễ dàng dẫn đến thông tin kinh doanh nhạy cảm sẽ bị lặp lại nếu những người khác đặt ra các câu hỏi tương tự. Truy vấn cũng có thể nhìn thấy cho các nhà cung cấp bot, như OpenAI và Google, có thể xem lại nội dung được cấp cho các mô hình ngôn ngữ của họ, rủi ro tiếp tục tổn thất an ninh firm.

Bên cạnh nguy cơ mà bot chia sẻ thông tin nhạy cảm khi cố gắng giúp đỡ cho người khác, còn có khả năng rằng các công ty như OpenAI đơn giản không mã hóa phần mềm tốt nhất. Vào tháng 3, OpenAI đã thừa nhận rằng một lỗi trong thư viện mã nguồn mở redis-py đã khiến cho một số phần của cuộc trò chuyện của ChatGPT với người dùng trở nên công khai. Hành vi đó, đã nhắc nhở chuyên viên phân tích dữ liệu Vlad Tushkanov của Kaspersky, nên nhắc nhở rằng các bot chat LLM không cung cấp bất kỳ sự riêng tư thực sự nào cho người dùng. OpenAI đã cho phép người dùng ChatGPT vô hiệu hóa lịch sử trò chuyện, ẩn cuộc trò chuyện khỏi thanh bên trong giao diện của ChatGPT và ngăn chặn các cuộc trò chuyện bị vô hiệu hoá lịch sử đó được sử dụng để huấn luyện mô hình của OpenAI.

OpenAI cho biết họ vẫn sẽ giữ lại các cuộc trò chuyện trong vòng 30 ngày khi lịch sử bị vô hiệu hóa, và họ sẽ có khả năng xem lại chúng "khi cần để giám sát lạm dụng, trước khi xóa vĩnh viễn," công ty được Microsoft hỗ trợ cho biết.

Trong cùng thông báo, OpenAI cũng cho biết sẽ sớm tung ra phiên bản dành cho doanh nghiệp của ChatGPT, cung cấp cho doanh nghiệp nhiều quyền kiểm soát hơn về việc sử dụng dữ liệu của họ, bằng cách mà OpenAI cho biết là các cuộc trò chuyện ChatGPT Doanh nghiệp sẽ không được sử dụng để huấn luyện LLMs của nó.

Chúng tôi đã hỏi OpenAI một số câu hỏi bổ sung về ChatGPT Doanh nghiệp, chẳng hạn như liệu nhân viên OpenAI vẫn có thể xem các cuộc trò chuyện và khi nào nó có thể được phát hành, và sẽ cập nhật câu chuyện này nếu chúng tôi nhận được phản hồi. ®