Đó là một sự tiến hóa nhanh chóng, ngay cả đối với ngành công nghệ thông tin. Tại sự kiện Black Hat năm 2022, các CISO đã nói rằng họ không muốn nghe nhắc đến chữ "AI"; tại RSAC 2023, hầu hết mọi người đều nói về generative AI và phỏng đoán về những thay đổi lớn mà nó sẽ mang lại cho ngành an ninh; tại Black Hat USA 2023, vẫn còn nhắc đến generative AI, nhưng với cuộc trò chuyện tập trung vào việc quản lý công nghệ như một phương tiện hỗ trợ cho các nhà điều hành con người và làm việc trong giới hạn của các động cơ AI. Điều này cho thấy sự chuyển đổi rất nhanh từ sự hăng hái mãnh liệt sang sự hiện thực hữu ích hơn.

Sự hiện thực này được chào đón vì generative AI chắc chắn sẽ trở thành một tính năng của sản phẩm, dịch vụ và hoạt động an ninh trong những năm tới. Một trong những lý do đúng là thực tế rằng thiếu hụt các chuyên gia an ninh mạng cũng sẽ là một đặc điểm của ngành trong nhiều năm tới. Với việc tập trung sử dụng generative AI để tăng cường hiệu quả của các chuyên gia an ninh mạng chứ không phải thay thế các nhân viên toàn thời gian, tôi không nghe thấy ai đề cập đến việc giảm thiểu thiếu hụt nhân tài bằng cách thay thế con người bằng generative AI. Những gì tôi nghe thấy rất nhiều là sử dụng generative AI để làm cho mỗi chuyên gia an ninh mạng trở nên hiệu quả hơn - đặc biệt là khi biến các nhà phân tích Tier 1 trở nên hiệu quả như "nhà phân tích Tier 1.5", khi những nhà phân tích kém kinh nghiệm này có thể cung cấp thêm ngữ cảnh, sự chắc chắn và các tùy chọn hướng dẫn chi tiết hơn cho các nhà phân tích cấp cao khi họ chuyển cảnh báo lên chuỗi.

Phải Hiểu Rõ Giới Hạn

Một phần của cuộc trò chuyện về cách generative AI sẽ được sử dụng là thừa nhận những giới hạn của công nghệ này. Đây không phải là các cuộc thảo luận về "chúng ta có thể tránh được tương lai được hiển thị trong The Matrix", mà đó là những cuộc trò chuyện trung thực về khả năng và cách sử dụng mà là những mục tiêu hợp lý cho các doanh nghiệp triển khai công nghệ này.

Hai trong số các giới hạn mà tôi nghe được đề cập đến nên được nói rõ ở đây. Một liên quan đến cách mô hình được đào tạo, trong khi một cái khác tập trung vào cách con người phản ứng với công nghệ. Với vấn đề đầu tiên, có sự đồng thuận rằng không có triển khai AI nào có thể tốt hơn dữ liệu mà nó được đào tạo. Cùng với đó là nhận ra rằng việc tăng kích thước các tập dữ liệu có thể đối đầu với những lo ngại về quyền riêng tư, bảo mật dữ liệu và bảo vệ sở hữu trí tuệ. Tôi nghe thấy ngày càng có nhiều công ty nói về "chuyên môn hướng" kết hợp với generative AI: hạn chế phạm vi của một phiên bản AI cho một chủ đề hoặc lĩnh vực duy nhất và đảm bảo nó được đào tạo một cách tốt nhất cho các thông báo về chủ đề đó. Mong đợi sẽ còn nghe nhiều hơn về điều này trong những tháng tới.

Giới hạn thứ hai được gọi là "giới hạn hộp đen". Đơn giản nói, mọi người thường không tin vào ma thuật, và các động cơ AI là loại ma thuật sâu nhất đối với hầu hết các nhà quản lý cấp cao và nhân viên. Để tạo lòng tin vào kết quả từ AI, cả bộ phận bảo mật và công nghệ thông tin đều cần mở rộng sự rõ ràng về cách mô hình được đào tạo, tạo ra và sử dụng. Hãy nhớ rằng generative AI sẽ được sử dụng chủ yếu như một phương tiện hỗ trợ cho người lao động. Nếu những người lao động này không tin tưởng vào các phản hồi mà họ nhận được từ những lời gợi ý, sự hỗ trợ đó sẽ rất hạn chế.

Xác Định Thuật Ngữ Của Bạn

Có một điểm mà sự nhầm lẫn vẫn còn trong cả hai hội nghị này: Ý nghĩa gì khi ai đó nói "AI"? Trong hầu hết các trường hợp, mọi người đang nói về generative AI (hoặc large language model aka LLM) khi thảo luận về các khả năng của công nghệ, ngay cả khi họ chỉ nói "AI". Người khác, nghe thấy hai chữ cái đơn giản, sẽ chỉ ra rằng AI đã là một phần của sản phẩm hoặc dịch vụ của họ trong nhiều năm qua.

Sự không phù hợp này làm nổi lên việc rằng việc xác định thuật ngữ sẽ rất quan trọng hoặc phải rất cụ thể khi nói về AI trong một thời gian tới.

Ví dụ, Trí tuệ nhân tạo (AI) đã được sử dụng trong các sản phẩm bảo mật trong nhiều năm sử dụng các mô hình nhỏ hơn nhiều so với Generative AI, có xu hướng tạo ra các câu trả lời nhanh hơn nhiều và rất hữu ích cho việc tự động hóa. Nó có thể nhanh chóng tìm ra câu trả lời cho một câu hỏi cụ thể được đặt đi đặt lại rất nhiều lần. Generative AI, mặt khác, có thể đáp ứng một tập hơn rộng hơn các câu hỏi bằng cách sử dụng một mô hình được xây dựng từ các tập dữ liệu lớn. Tuy nhiên, nó thường không tạo ra câu trả lời một cách ổn định đủ nhanh để trở thành một công cụ xuất sắc cho việc tự động hóa.

Có rất nhiều cuộc trò chuyện hơn và sẽ có nhiều bài viết hơn, nhưng LLM AI đang ở đây để lưu lại như một chủ đề về an ninh mạng. Hãy sẵn sàng cho những cuộc trò chuyện sắp tới.