Tại hội nghị an ninh RSA tại San Francisco trong tuần này, có một cảm giác tất yếu trong không khí. Trong các cuộc trò chuyện và phiên thảo luận khắp trung tâm triển lãm Moscone, tại gian hàng của các nhà cung cấp, và trong các cuộc trò chuyện bình thường trong hành lang, bạn chỉ biết rằng ai đó sẽ đề cập đến trí tuệ nhân tạo sinh sẽ và tác động tiềm năng của nó đối với an ninh kỹ thuật số và tin tặc. Giám đốc an ninh mạng NSA Rob Joyce cũng cảm nhận được điều này.

"Ở RSA, bạn không thể nói về AI và phần mềm độc hại", ông nói vào chiều thứ Tư trong bài thuyết trình "Trạng thái của Những kẻ đột nhập" hàng năm của mình. "Tôi nghĩ chúng ta đã thấy sự bùng nổ. Tôi sẽ không nói rằng nó đã được điều chỉnh, nhưng đây thực sự là một công nghệ đóng góp cho trò chơi."

Trong những tháng gần đây, các chatbot được cung cấp bởi các mô hình ngôn ngữ lớn, như ChatGPT của OpenAI, đã làm cho nhiều năm phát triển và nghiên cứu học máy trở nên cụ thể và dễ tiếp cận hơn đối với mọi người trên toàn thế giới. Nhưng vẫn còn câu hỏi thực tế về cách các công cụ mới này sẽ bị chi phối và lạm dụng bởi các kẻ xấu để phát triển và phát tán phần mềm độc hại, kích thích sự tạo ra thông tin sai lệch và nội dung không xác thực và mở rộng khả năng tự động hóa của các tấn công. Đồng thời, cộng đồng an ninh muốn khai thác trí tuệ nhân tạo sinh để bảo vệ các hệ thống và có được một lợi thế bảo vệ. Tuy nhiên, vào những ngày đầu tiên, việc phân tích kỹ xảo ra sẽ ra sao là một câu hỏi khó khăn.

Joyce nói rằng Cơ quan An ninh Quốc gia mong đợi trí tuệ nhân tạo sinh sẽ tạo động lực cho những vụ lừa đảo hiệu quả như lừa đảo phi phong. Những cuộc tấn công này dựa trên nội dung thuyết phục để lừa đảo nạn nhân trở thành người giúp đỡ tấn công, do đó trí tuệ nhân tạo sinh có nhiều ứng dụng rõ ràng để nhanh chóng tạo ra thông tin và tư liệu tùy chỉnh.

"Hacker người Nga không nói tiếng Anh tốt sẽ không còn tạo ra một email tệ đến các nhân viên của bạn nữa," Joyce nói. "Nó sẽ là tiếng Anh ngôn ngữ bản địa, nó sẽ hợp lý, nó sẽ qua được bài kiểm tra … Vì vậy, điều đó ngay tại đây, và chúng ta đang thấy các đối thủ, cả quốc gia và tội phạm, bắt đầu thử nghiệm với việc sinh ra ChatGPT để tạo ra cơ hội bằng tiếng Anh."

Trong khi đó, các trò trò chuyện AI có thể không thể phát triển phần mềm độc hại từ đầu, nhưng Joyce lưu ý rằng kẻ tấn công có thể sử dụng kỹ năng lập trình mà các nền tảng sở hữu để thực hiện các thay đổi nhỏ có thể có ảnh hưởng lớn. Ý tưởng sẽ là sử dụng trí tuệ nhân tạo sinh để sửa đổi phần mềm độc hại hiện có để thay đổi đặc điểm và hành vi đủ để các công cụ quét như phần mềm chống virus không nhận ra và đưa ra cảnh báo cho phiên bản mới.

"Điều đó sẽ giúp viết lại mã và thay đổi chữ ký và thuộc tính của nó," Joyce nói. "Điều đó sẽ gây khó khăn cho chúng tôi trong tương lai gần."

Về phòng thủ, Joyce có vẻ hy vọng về tiềm năng của trí tuệ nhân tạo sinh để hỗ trợ trong phân tích dữ liệu lớn và tự động hóa. Ông đã đề cập đến ba lĩnh vực mà công nghệ này đang "thể hiện sự hứa hẹn thực sự" là một "tác nhân của phòng thủ": quét các nhật ký kỹ thuật số, tìm kiếm các mô hình về lỗ hổng khai thác và giúp các tổ chức ưu tiên vấn đề an ninh. Tuy nhiên, ông cảnh báo rằng trước khi các nhà phòng thủ và cộng đồng một cách rộng rãi bắt đầu phụ thuộc vào các công cụ này trong cuộc sống hàng ngày, họ phải nghiên cứu trước cách các hệ thống trí tuệ nhân tạo sinh có thể được chi phối và khai thác.

Hầu hết, Joyce nhấn mạnh tính khó lường và không đoán trước được của khoảnh khắc hiện tại đối với AI và an ninh, cảnh báo cộng đồng an ninh "fasten your seat belt" cho những gì có thể sẽ tới.

"Tôi không mong đợi một khả năng kỹ thuật kỳ diệu nào được tạo ra bởi AI sẽ khai thác tất cả các thứ," ông nói. Nhưng "năm tới, nếu chúng ta đang nói về một năm đánh giá tương tự, tôi nghĩ chúng ta sẽ có một loạt các ví dụ về nơi nó đã được vũ trang, được sử dụng và thành công."