Lionel Bonaventure | Afp | Getty Images

Việc các công ty công nghệ lớn đang đầu tư cao vào trí tuệ nhân tạo và chatbot, trong bối cảnh quy mô cắt giảm nhân sự và suy giảm tăng trưởng, đã khiến nhiều giám đốc thông tin an ninh đang lo lắng. Với ChatGPT của OpenAI, Bing AI của Microsoft, Bard của Google và kế hoạch của Elon Musk cho chatbot riêng của ông, trí tuệ nhân tạo đang tiến sâu vào nơi làm việc, và các giám đốc thông tin an ninh cần tiếp cận công nghệ này cẩn thận và chuẩn bị các biện pháp an ninh cần thiết.

Công nghệ sau ChatGPT, hoặc transformers được tiền xử lý sáng tạo, được cung cấp bởi các mô hình ngôn ngữ lớn (LLMs), hay các thuật toán tạo ra các cuộc trò chuyện giống con người của chatbot. Nhưng không phải công ty nào cũng có ChatGPT riêng của mình, vì vậy các công ty cần theo dõi cách nhân viên sử dụng công nghệ này.

Michael Chui, đối tác tại Viện nghiên cứu toàn cầu McKinsey, so sánh việc sử dụng trí tuệ nhân tạo tạo ra những cuộc trò chuyện sáng tạo giống như cách nhân viên sử dụng máy tính cá nhân hoặc điện thoại. "Ngay cả khi nó không được phê duyệt hoặc chúc phúc bởi IT, những người dùng vẫn thấy [chatbot] hữu ích", Chui nói. "Trong suốt lịch sử, chúng ta đã tìm thấy các công nghệ rất thuyết phục mà cá nhân sẵn sàng trả tiền cho nó," ông nói. "Con người đã mua điện thoại di động từ rất sớm trước khi doanh nghiệp nói, 'Tôi sẽ cung cấp cho bạn.' PC cũng tương tự, vì vậy bây giờ chúng tôi đang thấy tương đương với trí tuệ nhân tạo sáng tạo."

Kết quả là, các công ty đang đứng sau về cách tiếp cận biện pháp an ninh, Chui bổ sung.

Dù đó là thực hành kinh doanh tiêu chuẩn như theo dõi thông tin được chia sẻ trên nền tảng trí tuệ nhân tạo hoặc tích hợp ChatGPT được công ty chấp thuận vào nơi làm việc, các chuyên gia cho rằng có những lĩnh vực nhất định mà CISO và các công ty nên bắt đầu.

CISO - đã phải đối mặt với những vấn đề như các cuộc tấn công an ninh và nhu cầu tự động hóa gia tăng - cần tiếp cận với những cơ bản an ninh.

Chui nói rằng các công ty có thể cấp phép sử dụng một nền tảng trí tuệ nhân tạo hiện có, để họ có thể theo dõi nhân viên nói gì với chatbot và đảm bảo rằng thông tin được chia sẻ được bảo vệ. "Nếu bạn là một tập đoàn, bạn không muốn nhân viên của mình khuyến khích chatbot có sẵn công khai với thông tin mật," Chui nói. "Vì vậy, bạn có thể đưa các phương tiện kỹ thuật vào chỗ, nơi bạn có thể cấp phép phần mềm và có thỏa thuận pháp lý có thể thực hiện về nơi dữ liệu của bạn, hoặc không."

Cấp phép sử dụng phần mềm đi kèm với các kiểm tra và cân đối bổ sung, Chui nói. Bảo vệ thông tin bí mật, quy định nơi lưu trữ thông tin và các hướng dẫn cho nhân viên cách sử dụng phần mềm - tất cả đều là thủ tục tiêu chuẩn khi các công ty cấp phép phần mềm, có trí tuệ nhân tạo hay không.

Nếu chuyên hóa một GPT riêng của mình, các công ty có thể giữ chặt thông tin chính xác họ muốn cho nhân viên truy cập. Một công ty cũng có thể bảo vệ thông tin mà nhân viên cung cấp cho nó, theo ý kiến của Sameer Penakalapati, Giám đốc điều hành của Ceipal, một nền tảng tuyển dụng tài năng được động lực hóa bởi trí tuệ nhân tạo. Trong các chức năng cụ thể như nhân sự, có nhiều nền tảng từ Ceipal đến TalentGPT của Beamery, và các công ty có thể xem xét kế hoạch của Microsoft để cung cấp ChatGPT có thể tùy chỉnh. Nhưng bất kể chi phí ngày càng cao, các công ty cũng có thể muốn tạo ra công nghệ của riêng mình.

Nếu một công ty tạo ra GPT riêng của mình, phần mềm sẽ có thông tin chính xác mà công ty muốn nhân viên truy cập. Một công ty cũng có thể bảo vệ thông tin mà nhân viên cung cấp cho nó, Penakalapati nói, nhưng thậm chí thuê một công ty trí tuệ nhân tạo để tạo ra nền tảng này cũng sẽ cho phép các công ty cung cấp và lưu trữ thông tin một cách an toàn.

Dù công ty chọn con đường nào, Penakalapati cho rằng CISO nên nhớ rằng những chiếc máy này hoạt động dựa trên cách chúng đã được giảng dạy. Quan trọng là xem xét khách quan về dữ liệu bạn đang cung cấp cho công nghệ. "Tôi luôn nói với mọi người để đảm bảo bạn có công nghệ cung cấp thông tin dựa trên dữ liệu khách quan và chính xác," Penakalapati nói. "Bởi vì công nghệ này không được tạo ra theo ý thức."