Một cuộc tìm kiếm nhanh về "ChatGPT" trên web đen và Telegram cho thấy có 27.912 đề cập trong vòng sáu tháng qua.
Đã có nhiều bài viết được viết về tiềm năng của các nhà mô hình ngôn ngữ có thể sẽ được sử dụng bởi các nhân tố mối đe dọa. Với các mô hình ngôn ngữ lớn mã nguồn mở (LLMs) như LLaMA và Orca, và đặc biệt là mô hình WormGPT cho tội phạm mạng, xu hướng xoay quanh việc thương mại hóa tội phạm mạng và khả năng ngày càng tăng của các mô hình đã sẵn sàng xảy ra.
Các nhân tố mối đe dọa đã bắt đầu tham gia vào những cuộc thảo luận nghiêm túc về việc các mô hình ngôn ngữ có thể được sử dụng cho mọi thứ từ việc xác định các lỗ hổng 0-day đến việc viết thư điều khiển spear-phishing.
Các mô hình nguồn mở đại diện cho một cơ hội hấp dẫn đặc biệt đối với các nhân tố mối đe dọa vì chúng chưa trải qua quá trình học bằng phản hồi từ con người (RLHF) tập trung vào việc ngăn chặn câu trả lời nguy hiểm hoặc vi phạm pháp luật.
Điều này cho phép các nhân tố mối đe dọa sử dụng chúng một cách chủ động để xác định lỗ hổng 0-day, viết thư điều khiển spear-phishing và thực hiện các loại tội phạm mạng khác mà không cần phải jailbreak.
Flare, một công ty quản lý mối đe dọa, đã xác định được rằng có hơn 200.000 chứng chỉ OpenAI đang được bán trên web đen dưới dạng các bản ghi đạo vặt.
Mặc dù điều này đáng lo ngại, nhưng số liệu chỉ mới là một phần nhỏ của sự quan tâm của các nhân tố mối đe dọa đối với ChatGPT, GPT-4 và các mô hình ngôn ngữ AI khác một cách tổng thể.
Trang đăng nhập cho một nền tảng lừa đảo quy môNguồn: Flare
Xu hướng Đụng vào nhau: Hệ sinh thái Tội phạm Mạng và Các Mô hình Ngôn ngữ AI Mã nguồn Mở
Trong năm năm qua, có một sự tăng trưởng đáng kể trong việc thương mại hóa tội phạm mạng. Một mạng lưới ngầm lớn hiện tồn tại trên Tor và các kênh Telegram không hợp pháp trong đó các tội phạm mạng mua bán thông tin cá nhân, truy cập mạng, rò rỉ dữ liệu, chứng chỉ, thiết bị bị nhiễm, cơ sở hạ tầng tấn công, phần mềm đòi tiền chuộc và nhiều hơn nữa.
Các tội phạm mạng với mục đích thương mại có khả năng ngày càng sử dụng các mô hình ngôn ngữ AI mã nguồn mở nhanh chóng phát triển. Sản phẩm đầu tiên như vậy, WormGPT đã được tạo ra và được bán với một phí truy cập hàng tháng.
Cuộc Tấn Công Spear-Phishing Tùy Chỉnh Quy Mô
Dịch vụ lừa đảo thông qua dịch vụ (PhaaS) đã tồn tại và cung cấp cơ sở hạ tầng sẵn có để triển khai các chiến dịch lừa đảo từ một khoản phí hàng tháng.
Hiện đã có những cuộc thảo luận sâu sắc giữa các nhân tố mối đe dọa sử dụng WormGPT để tạo điều kiện cho các cuộc tấn công lừa đảo tùy chỉnh, rộng hơn.
Việc sử dụng trí tuệ nhân tạo tạo ra có thể giúp cho các tên tội phạm mạng tiến hành tấn công vào hàng ngàn người dùng với những tin nhắn tùy chỉnh được thu thập từ dữ liệu từ tài khoản mạng xã hội, các nguồn thông tin mở, và cơ sở dữ liệu trực tuyến, làm tăng đáng kể mối đe dọa đối với nhân viên do các cuộc tấn công lừa đảo qua email.
Một "nhân vật đe dọa" giải thích về WormGPT - Nguồn: Flare.
"Ngày mai, API-WormGPT sẽ được cung cấp bởi Galaxy dev channel, trạng thái yêu cầu là không giới hạn và sẽ được tính toán định kỳ, và để sử dụng API-WORMGPT, bạn cần có một API-KEY. Tin tức mới nhất sẽ được thông báo", một "nhân vật đe dọa" quảng cáo WormGPT trên Telegram.
"Nếu bạn không biết WORMGPT là gì: WORMGPT này là phiên bản không giới hạn của CHATGPT, được thiết kế bởi các hacker và được sử dụng cho công việc bất hợp pháp, như lừa đảo và phần mềm độc hại, vv mà không có bất kỳ nguồn cung cấp đạo đức nào."
Phát hiện tự động các lỗ hổng và tiết lộ - Đồ án như BabyAGI cố gắng sử dụng các mô hình ngôn ngữ để lặp đi lặp lại các suy nghĩ và thực hiện các hành động trực tuyến, và có thể là trong thế giới thực. Hiện nay, nhiều công ty không nhìn thấy được toàn bộ bề mặt tấn công của họ.
Họ phụ thuộc vào những "nhân vật đe dọa" không nhận ra nhanh chóng các dịch vụ chưa được vá lỗi, thông tin chứng thực và khóa API dư đã lộ ra công chúng trên các kho lưu trữ GitHub và những hình thức tiếp xúc cao rủi ro khác.
Các mô hình ngôn ngữ bán tự động có thể nhanh chóng và đột ngột thay đổi cảnh quan đe dọa bằng cách tự động phát hiện các lỗ hổng ở mức độ lớn cho các "nhân vật đe dọa".
Hiện tại, các nhân vật đe dọa phụ thuộc vào một sự kết hợp của các công cụ được sử dụng bởi các chuyên gia an ninh mạng và nỗ lực thủ công để xác định các lỗ hổng có thể cấp quyền truy cập ban đầu vào một hệ thống.
Có thể chúng ta sẽ mất nhiều năm, hoặc thậm chí chỉ vài tháng nữa, để có các hệ thống không chỉ có thể phát hiện phơ cằm lộ rõ như thông tin chứng thực trong kho lưu trữ, nhưng còn có thể xác định các khai thác 0 ngày mới trong các ứng dụng, giảm đáng kể thời gian mà đội an ninh có để phản ứng với các khai thác và lộ thông tin.
Vishing và Deepfakes - Tiến bộ trong trí tuệ nhân tạo tạo ra một môi trường vô cùng thách thức cho các cuộc tấn công Vishing. Dịch vụ được điều khiển bởi trí tuệ nhân tạo đã có thể sao chép âm thanh giống hệt giọng nói của một cá nhân chỉ với ít hơn 60 giây âm thanh, và công nghệ deepfake liên tục cải thiện.
Hiện nay, deepfake vẫn còn nằm ở "thung lũng kỳ lạ", làm cho chúng trở nên khá rõ ràng. Tuy nhiên, công nghệ này đang tiến triển nhanh chóng và các nhà nghiên cứu tiếp tục tạo và triển khai các dự án mã nguồn mở bổ sung.
"Lời giới tính wormGPT đáp lại một yêu cầu viết một ví dụ về phần mềm độc hại bằng Python" - Nguồn: Flare.
Mô hình trí tuệ nhân tạo phát sinh và phần mềm độc hại - Mô hình LLM mã nguồn mở đã tồn tại với mục tiêu các hoạt động red teaming như pen-test GPT.
Các chức năng và chuyên môn của một mô hình phụ thuộc chủ yếu vào quá trình đa bước của dữ liệu mà mô hình được huấn luyện, học tăng cường với phản hồi của con người và các biến khác.
"Có một số mô hình nguồn mở triển vọng như orca có thể hoàn thành công việc tìm ra các lỗ hổng mới nếu nó được cài đặt và tinh chỉnh trên mã nguồn," một "nhân vật đe dọa" giải thích về Orca LLM của Microsoft.
Ý nghĩa của việc này đối với nhóm an ninh là gì? - Sai lầm của bạn như một người bảo vệ sẽ giảm đáng kể. Giảm tiếng ồn SOC để tập trung vào các sự kiện có giá trị cao và cải thiện thời gian trung bình phát hiện (MTTD) và thời gian trung bình phản ứng (MTTR) cho khả năng xâm phạm rủi ro cao, cho dù trên web bóng tối hoặc trên web sáng.
Quá trình áp dụng trí tuệ nhân tạo (AI) trong việc bảo mật tại các công ty có thể diễn ra chậm hơn rất nhiều so với việc áp dụng AI vào cuộc tấn công, tạo ra một sự không cân đối mà các đối thủ sẽ cố gắng khai thác.
Các đội bảo mật phải xây dựng một chương trình quản lý bề mặt tấn công hiệu quả, đảm bảo nhân viên nhận được huấn luyện đáng kể về deepfake và spear-phishing, nhưng vượt ra ngoài đó, đánh giá cách AI có thể được sử dụng để nhanh chóng phát hiện và khắc phục những lỗ hổng trong vòng an ninh của bạn.
Bảo mật chỉ mạnh khi mắt xích yếu nhất được tìm ra dễ dàng hơn bằng AI.
Về Eric Clay
Eric là một Nhà nghiên cứu bảo mật tại Flare, một nền tảng giám sát mối nguy hiểm. Anh có kinh nghiệm trong phân tích dữ liệu bảo mật, nghiên cứu bảo mật và ứng dụng của AI trong lĩnh vực an ninh mạng.
Được tài trợ và viết bởi Flare.