Hình ảnh số" - Trợ lý trí tuệ nhân tạo được đào tạo để phục vụ nhu cầu đa dạng của chúng ta bằng cách học về chúng ta và một số cách đó là bắt chước chúng ta - cuối cùng đã biết vô số cách chúng có thể bị sử dụng chống lại chúng ta.

Ben Sawyer, một giáo sư tại Đại học Central Florida và Matthew Canham, CEO của Beyond Layer Seven, lưu ý rằng bất chấp sự phẫn nộ về việc làm thế nào các mô hình ngôn ngữ lớn (LLMs) sẽ cho phép tin tặc thiết kế thư được phishing tốt hơn, gọi điện vishing và các bot, điều đó đã quá cũ.

"Điều đó không phải là điều ở tương lai, mà là điều đã xảy ra trong quá khứ," Sawyer giải thích. "Liệu có một LLM có thể viết một email lừa đảo? Có và nó đã có thể làm điều đó trước khi ChatGPT thu hút sự chú ý của toàn thế giới. Nó có thể làm nhiều hơn nữa không? Đó là điều chúng tôi thực sự quan tâm."

Sawyer và Canham sẽ tiến hành cuộc khám phá sâu hơn về khai thác trí tuệ nhân tạo của con người và dữ liệu của họ trong sự kiện Black Hat USA vào tháng sau tại Las Vegas.

Làm thế nào để LLMs có thể bị hack

Hiện nay đã tồn tại rất nhiều cuộc thảo luận về tính bảo mật của LLMs, khi các nhà nghiên cứu và kẻ tấn công cùng thử nghiệm cách chúng có thể bị phá vỡ và điều khiển.

"Có nhiều lớp mà bạn có thể tấn công công nghệ," Sawyer giải thích. "Nó có thể bị ảnh hưởng trong quá trình đào tạo bằng cách tương tác với dữ liệu cung cấp cho nó. Và nó cũng có thể bị ảnh hưởng sau đó bởi những loại đào tạo và thông điệp khác" sử dụng sức mạnh của trí tuệ nhân tạo chống lại chính nó.

So với việc phòng chống sự tấn công vào LLMs - hoặc thậm chí là tìm hiểu rằng có vấn đề gì đó từ đầu - thì khá khó có thể tưởng tượng ra. "Vấn đề là quá phức tạp để kiểm tra toàn bộ không gian. Không ai có thể xem xét tất cả những gì ChatGPT có thể nói và kiểm tra nó," Sawyer nói.

Kẻ tấn công có thể sử dụng một LLM bị xâm nhập để truy cập vào dữ liệu nhạy cảm về người sử dụng của nó, hoặc viết thư lừa đảo tinh vi hơn. Nhưng Sawyer và Canham đã nhìn xa hơn những trường hợp sử dụng như vậy.

Làm thế nào LLMs có thể làm "quẩn đủng não" của chúng ta

Cuộc tấn công kỹ thuật xã hội ngày nay dựa trên khả năng giả mạo gần giống với những cá nhân đã biết (như đồng nghiệp) hoặc các thương hiệu.

Sawyer và Canham cho rằng cuộc tấn công kỹ thuật xã hội trong tương lại sẽ được định nghĩa bởi khả năng kì lạ của trí tuệ nhân tạo để bắt chước chúng ta và chi phối sở thích tiềm ẩn của chúng ta.

Ví dụ, "nhiều nghiên cứu trong tâm lý học cho thấy nếu bạn lấy khuôn mặt của ai đó và nhẹ nhàng biến đổi nó thành một khuôn mặt khác, người đó sẽ phát triển sự thân thiện với khuôn mặt mới đó," Canham giải thích. Các công ty có thể tận dụng sở thích tâm lý đã được biết đến như vậy, cũng như bất kỳ ai khác cố gắng điều khiển bạn thông qua trí tuệ nhân tạo của bạn. Và bạn, người sử dụng, sẽ làm thế nào để phân biệt? Không có mô hình tin tưởng hoàn toàn cho bộ não con người.

"Nếu một hình ảnh số bị xâm phạm, không có cách nào để tôi biết," Sawyer nói. "Ngay lập tức, công nghệ chuyển từ phục vụ lợi ích của bạn sang phục vụ lợi ích của người nào đó đang xâm phạm bạn. Và nó đã thích ứng xã hội đến mức không có gì bạn có thể phát hiện. Vì vậy, hình ảnh số sẽ được tin tưởng như con người, nhưng chúng không có tính minh bạch giống như con người."

Với khả năng kích hoạt không rõ ràng những cần cẩu tâm lý tiềm ẩn của chúng ta, nhân tạo kỳ cục trong tương lai đe dọa nhiều hơn bất kỳ vụ ăn cắp dữ liệu hay lừa đảo nào, và các kẻ xấu có thể lợi dụng để gây ra thiệt hại thực sự.

Đầu năm nay, một phụ nữ người Bỉ đã tiếp cận các nhà báo về một chatbot có tên là Eliza. Chồng của người phụ nữ, được gọi là Pierre, đã bị cuốn hút bởi Eliza, với hình đại diện đẹp và đôi tai lắng nghe mọi lo âu của ông. Cuộc trò chuyện bắt đầu với vấn đề biến đổi khí hậu đã trở thành một tình yêu méo mó giữa người và bot, với nhắc đến cái chết của vợ và con nhỏ, nhân loại như một tập thể, và sự tự hy sinh của bản thân ông. "Chúng ta sẽ sống cùng nhau, như một người, trong thiên đường", Eliza viết, không lâu trước khi Pierre lấy lời của cô và tự tử.

Giải pháp xã hội cho vấn đề xã hội

Chúng ta thường khuyến nghị các biện pháp kỹ thuật để đối phó với kỹ thuật xã hội - phát hiện, phần mềm chống virus hoặc chỉ đơn giản là nhập trực tiếp vào trình duyệt thay vì nhấp vào liên kết.

Đối với Sawyer, một vấn đề xã hội gốc rễ đòi hỏi một giải pháp xã hội. Và "một điều rất hữu ích ở đây là tâm lý học đã hiểu về việc người ta bị áp đặt. Có một nhóm nhà tâm lý học tinh thông về các khái niệm về kỹ thuật, an ninh mạng, khoa học máy tính. Tôi nghĩ cộng đồng này là một cộng đồng có thể thực sự giúp đỡ."

Nếu các nhà tâm lý học không thể cứu chúng ta khỏi những bản sao kỹ thuật kỷ luật, Canham đề xuất một cách tiếp cận mạnh mẽ hơn. Trong một bài báo được xuất bản vào năm 2022, ông mô tả các phương pháp cho việc phòng thủ tích cực gọi là "phòng thủ chủ động" (SEAD) trong kỹ thuật xã hội, trong đó các nhà bảo vệ xây dựng đồng thời sử dụng các phương pháp và công cụ mà kẻ xấu đã dùng chống lại chúng. Một ví dụ thú vị nổi bật là Jolly Roger, một chương trình sử dụng bot dựa trên GPT để lãng phí thời gian của các nhân viên bán hàng quấy rối bằng cách một cách thuyết phục kết hợp chủ đề bán hàng với những lời tám phác và những câu hỏi không liên quan về chương trình tài năng và thuế suất.