ChatGPT đã trở nên phổ biến vào những ngày này, dường như nó có mặt ở khắp mọi nơi. Google và Microsoft đã phát hành phiên bản riêng của mô hình ngôn ngữ lớn (LLM), và nhiều chatbot khác và các công nghệ bổ sung khác đang được phát triển tích cực. Do sự chú ý của truyền thông, tổ chức và công chúng đối với trí tuệ nhân tạo sinh sản, có lý rằng các công ty an ninh mạng cũng hy vọng tận dụng các công nghệ này.
Và trong khi công nghệ mới ra đời này có khả năng làm cho việc phát triển phần mềm thuận tiện hơn, thì khả năng nó cũng có thể trở thành nguồn gốc của những mối đe dọa tiềm ẩn và vấn đề đau đầu cho các tổ chức quan tâm đến an ninh.
Dưới đây là bốn mối đe dọa tiềm năng mà các nhóm an ninh cần chú ý với ChatGPT:
ChatGPT không thay thế các chuyên gia an ninh. Công cụ này lấy một lượng lớn văn bản và dữ liệu khác mà nó tìm thấy trên mạng và sử dụng các mô hình toán học khác nhau để tạo ra câu trả lời của nó. Nó không phải là một chuyên gia an ninh, nhưng nó tốt trong việc tìm ra những gì các chuyên gia an ninh đã đăng. Tuy nhiên, ChatGPT thiếu khả năng suy nghĩ độc lập và thường bị ảnh hưởng bởi quyết định của người dùng, điều này có thể thay đổi mọi thứ liên quan đến việc khắc phục sự cố trong an ninh. Và mặc dù tính năng tạo mã là hấp dẫn, ChatGPT không mã hóa đến mức tinh vi như một chuyên gia an ninh đã hơn một thời gian dài.
ChatGPT không chính xác lắm. Mặc dù có sự ồn ào về việc vượt qua bài kiểm tra đại học và nhiều bài kiểm tra khác, ChatGPT không thực sự thông minh. Cơ sở dữ liệu của nó chỉ trở lại năm 2021, mặc dù dữ liệu mới được tải lên liên tục. Điều này là một vấn đề lớn đối với việc cung cấp các lỗ hổng mới nhất. Nhưng nó không luôn đưa ra câu trả lời chính xác bởi vì nó phụ thuộc vào cách người dùng đặt câu hỏi hoặc mô tả ngữ cảnh của các truy vấn. Người dùng phải dành thời gian để chọn lọc câu hỏi của mình và thử nghiệm với các chatbot, điều này sẽ yêu cầu kỹ năng mới trong cách chúng ta đặt câu hỏi và phát triển chuyên môn của chúng ta.
ChatGPT có thể gây ra công việc thêm cho các lập trình viên.Nó không thể phục vụ là một giải pháp không mã hoặc làm cầu nối cho khoảng trống về tài năng vì những người không chuyên trong công nghệ không thể xác minh các khuyến nghị được tạo ra bằng trí thông minh nhân tạo. Cuối cùng, ChatGPT sẽ tạo ra nợ kỹ thuật hơn nữa khi các chuyên gia an ninh phải xác minh bất kỳ mã nào được tạo ra bởi AI để đảm bảo tính hợp lệ của nó và bonafides an ninh.
ChatGPT có thể tiềm ẩn nguy cơ tiết lộ thông tin nhạy cảm. Theo bản chất, các luồng dữ liệu đến tất cả các chatbot luôn được sử dụng liên tục để đào tạo lại và cải tiến các mô hình chính. ChatGPT có thể khai thác những điểm yếu của một tổ chức và tạo ra một nơi duy nhất cho các hacker truy cập vào dữ liệu được tạo ra bởi chatbot. Chúng ta đã thấy việc bị chiếm đoạt sớm khi lịch sử trò chuyện của người dùng đã bị tiết lộ.
Do những vấn đề này, các quản lý an ninh CNTT nên làm gì để bảo vệ tổ chức của họ và giảm thiểu các rủi ro? Gartner đưa ra một vài cách cụ thể để trở nên quen thuộc với các chatbot và khuyến khích sử dụng phiên bản Azure để thử nghiệm vì nó không thu thập thông tin nhạy cảm. Họ cũng đề xuất thiết lập các chính sách đúng để ngăn chặn dữ liệu bí mật được tải lên cho các bot. như các chính sách Walmart ban hành vào đầu năm nay.
ChatGPT đã trở thành một từ khóa nổi bật trong những ngày qua, xuất hiện ở khắp mọi nơi. Google và Microsoft cũng đã tung ra phiên bản của riêng mình cho các mô hình ngôn ngữ lớn (LLM), và một đống các chatbot và công nghệ bổ trợ khác đang trong quá trình phát triển tích cực. Vì lượng thông tin về trí tuệ nhân tạo sinh học nhận được từ phương tiện truyền thông, các tổ chức và cá nhân, có lý khi các công ty an ninh công nghệ thông tin cũng hy vọng hưởng lợi từ những công nghệ này.
Nhưng mặc dù công nghệ tiên tiến này có khả năng làm cho việc phát triển phần mềm dễ dàng hơn, cũng có khả năng trở thành nguồn gốc có thể gây ra các mối đe dọa tiềm ẩn và bị đau đầu cho các tổ chức quan tâm đến an ninh.
Dưới đây là bốn mối đe dọa tiềm ẩn và gây đau đầu mà các đội an ninh có thể trải qua do ChatGPT:
**ChatGPT không thể thay thế các chuyên gia an ninh.** Công cụ này lấy một lượng lớn văn bản và dữ liệu khác trên mạng và sử dụng các mô hình toán học khác nhau để tạo ra các phản hồi. Nó không phải là chuyên gia an ninh, nhưng nó có khả năng tìm kiếm những gì chuyên gia an ninh đã đăng. Tuy nhiên, ChatGPT thiếu khả năng tự suy nghĩ và thường bị ảnh hưởng bởi các quyết định của người dùng, điều này có thể thay đổi mọi thứ liên quan đến giải pháp trong an ninh. Và trong khi tính năng tạo mã là hấp dẫn, ChatGPT không lập trình đến mức phức tạp như các chuyên gia an ninh giàu kinh nghiệm.
**ChatGPT không chính xác lắm.** Mặc dù có sự xôn xao về việc đỗ kỳ thi luật sư và các kỳ thi đại học khác, ChatGPT không thực sự thông minh. Cơ sở dữ liệu của nó chỉ được cập nhật mới nhất đến năm 2021, mặc dù dữ liệu mới được tải lên liên tục. Điều này là một vấn đề lớn đối với việc cung cấp các lỗ hổng luôn được cập nhật cho ví dụ. Nhưng nó không luôn cung cấp các câu trả lời đúng vì nó phụ thuộc vào cách người dùng đặt câu hỏi hoặc mô tả ngữ cảnh của các truy vấn. Người dùng phải dành thời gian để điều chỉnh câu hỏi của mình và thực nghiệm với các chatbot, điều này đòi hỏi kỹ năng mới trong cách chúng ta đặt câu hỏi và phát triển chuyên môn của riêng mình.
**ChatGPT có thể gây ra thêm công việc cho các lập trình viên.** Nó không thể phục vụ như là giải pháp không mã hoặc cầu nối của khoảng trống về tài năng vì những người không chuyên có trách nhiệm cho công nghệ không thể xác minh các khuyến nghị được tạo ra để đảm bảo chúng hợp lý. Cuối cùng, ChatGPT sẽ tạo ra thêm nợ kỹ thuật khi các chuyên gia an ninh phải xác minh bất kỳ mã được tạo ra bởi AI để đảm bảo tính hợp lệ và đáng tin cậy trong an ninh.
**ChatGPT có khả năng tiềm ẩn tiết lộ thông tin nhạy cảm.** Theo bản chất của nó, các đầu vào của tất cả các chatbot đều được sử dụng liên tục để huấn luyện lại và cải tiến các mô hình chính chúng. ChatGPT có thể tiềm ẩn khai thác các điểm yếu của tổ chức và tạo ra một nơi duy nhất cho hacker truy cập vào dữ liệu được tạo ra bởi một chatbot. Chúng ta đã chứng kiến một lỗi sớm trong đó lịch sử trò chuyện của người dùng đã bị tiết lộ.
Đối với các vấn đề này, quản lý an ninh công nghệ thông tin nên làm gì để bảo vệ tổ chức của họ và giảm thiểu các rủi ro? Gartner đã đề xuất một vài cách cụ thể để trở nên quen thuộc hơn với các chatbot và đề nghị sử dụng phiên bản Azure để thực nghiệm vì nó không thu thập thông tin nhạy cảm. Họ cũng đề xuất đưa ra các chính sách thích hợp để ngăn chặn dữ liệu được giữ bí mật được tải lên chatbot, chẳng hạn như chính sách Walmart đưa ra trước đó.
Các nhà quản lý IT cần phải làm việc trên các chương trình nhận thức và đào tạo tốt hơn và nhắm vào mục tiêu. Một chuyên gia đề xuất sử dụng chatbot chính để tạo ra các tin nhắn đào tạo mẫu. Một kỹ thuật khác: tạo báo cáo và phân tích về các mối đe dọa an ninh mạng mà các chuyên gia an ninh có thể viết lại cho công chúng.
Khi ChatGPT tiếp tục trở thành chủ đề nóng, chúng ta sẽ cần phải cẩn trọng với công nghệ mà chúng ta áp dụng. Trong những năm tới, ưu tiên đầu tư có thể sẽ thay đổi để các nhóm bảo mật đảm bảo rằng các điều khiển bảo mật của họ tuân thủ các quy định mới. ChatGPT có thể phù hợp hoặc không phù hợp với kế hoạch này. Dù sao, các chuyên gia bảo mật cần cân nhắc một cách cẩn trọng những ưu và nhược điểm của giao diện trí thông minh nhân tạo và xác định xem nó có đáng đầu tư hay không.
Ron Reiter, đồng sáng lập và Giám đốc Công nghệ, Sentra