bởi Peter Grad, Tech Xplore

Các hình ảnh ví dụ được tạo ra bởi các mô hình SD-XL trong trạng thái sạch (không nhiễm độc) và nhiễm độc với số lượng dữ liệu độc. Hiệu ứng tấn công dễ dàng nhận thấy với 1000 mẫu độc, nhưng không với 500 mẫu độc. Tín dụng: arXiv (2023). DOI: 10.48550/arxiv.2310.13828

Các nghệ sĩ đã phải giữ bất lực khi công việc trực tuyến của họ vẫn tồn tại sẵn sàng bị thu hoạch mà không cần sự cho phép từ các hoạt động AI web scraping, và hiện tại họ có thể chiến đấu trở lại.

Các nhà nghiên cứu tại Đại học Chicago đã công bố việc phát triển một công cụ "gây độc" hình ảnh mà các công ty AI lạm dụng để huấn luyện các mô hình tạo hình. Công cụ này có tên là Nightshade và nó chi phối các điểm ảnh của hình ảnh sẽ thay đổi đầu ra trong quá trình huấn luyện. Các thay đổi này không thể nhìn thấy được bằng mắt thường trước khi xử lý.

Ben Zhao, một tác giả của bài báo "Cuộc tấn công độc đáo dựa trên gợi ý đối với các mô hình tạo hình chuyển từ văn bản sang hình ảnh," nói rằng Nightshade có thể phá hoại dữ liệu để hình ảnh của chó, ví dụ, sẽ được chuyển đổi thành hình ảnh mèo trong quá trình huấn luyện. Trong một số trường hợp khác, ảnh của xe hơi đã được biến đổi thành xe hơi và các chiếc mũ trở thành bánh ngọt. Công trình được xuất bản trên máy chủ tiền in arXiv.

"Một số tấn công Nightshade có thể làm mất ổn định các đặc trưng chung trong một mô hình tạo hình chuyển từ văn bản sang hình ảnh, gây khó khăn cho khả năng tạo ra hình ảnh có ý nghĩa," Zhao nói.

Ông đánh giá cao sáng tạo của nhóm của mình là "một lựa chọn cuối cùng cho người tạo nội dung chống lại web scraper mà bỏ qua các chỉ thị không được phép/dừng-crawl."

Các nghệ sĩ đã lo lắng từ lâu về các công ty như Google, OpenAI, Stability AI và Meta, thu thập hàng tỷ hình ảnh trực tuyến để sử dụng trong các tập dữ liệu huấn luyện cho các công cụ tạo hình ảnh sinh lời mà không đền bù cho người tạo ra.

Eva Toorenent, một cố vấn cho Hội đồng Quân chủng Nghệ thuật Trí tuệ Nhân tạo ở Hà Lan, nói rằng các phương pháp như vậy "đang "hấp thụ các ý tưởng sáng tạo của hàng triệu nghệ sĩ."

"Cái nhìn này thực sự đáng sợ," bà nói trong một cuộc phỏng vấn gần đây.

Nhóm của Zhao đã chứng minh rằng mặc dù người ta cho rằng việc phá hoại hoạt động scraping sẽ đòi hỏi tải lên số lượng lớn hình ảnh đã được sửa đổi, họ đã có thể gây náo loạn bằng cách sử dụng ít hơn 100 mẫu "nhiễm độc." Họ đã đạt được điều này bằng cách sử dụng các cuộc tấn công độc đáo dựa trên gợi ý, yêu cầu ít mẫu hơn so với tập dữ liệu huấn luyện mô hình.

Zhao coi Nightshade là một công cụ hữu ích không chỉ cho các nghệ sĩ cá nhân mà còn cho các công ty lớn, chẳng hạn như các hãng phim và nhà phát triển trò chơi.

"Ví dụ, Disney có thể áp dụng Nightshade vào hình ảnh in của 'Cinderella,' đồng thời phối hợp với những người khác về các khái niệm về chất độc cho 'Mermaid,'" Zhao nói.

Nightshade cũng có thể thay đổi phong cách nghệ thuật. Ví dụ, một yêu cầu để tạo ra một hình ảnh theo phong cách Baroque có thể cho ra hình ảnh theo phong cách Cubist.

Công cụ này xuất hiện trong bối cảnh phản đối gia tăng đối với các công ty AI lạm dụng nội dung web theo những gì các công ty cho rằng được phép theo quy tắc fair use. Các vụ kiện đã được đệ trình chống lại Google và OpenAI của Microsoft vào mùa hè năm ngoái, cáo buộc hai ông lớn công nghệ sử dụng sai quyền sở hữu để huấn luyện hệ thống AI của họ.

Google không sở hữu internet, nó không sở hữu công việc sáng tạo của chúng ta, nó không sở hữu biểu đạt cá nhân của chúng ta, hình ảnh gia đình và con cái chúng ta, hoặc bất cứ điều gì khác đơn giản chỉ vì chúng ta chia sẻ trực tuyến," Luật sư của các bên kiện, Ryan Clarkson nói. Nếu bị kết tội, các công ty đối mặt với hàng tỷ đồng tiền phạt.

Google đang tìm cách loại bỏ vụ kiện này, nêu rõ trong tài liệu tòa án rằng "Sử dụng thông tin công khai để học không phải là đánh cắp, cũng không phải là xâm phạm quyền riêng tư, sự chuyển đổi, sơ xuất, cạnh tranh không công bằng hoặc vi phạm bản quyền."

Theo Toorenent, Nightshade "sẽ làm cho các công ty trí tuệ nhân tạo suy nghĩ hai lần, vì họ có khả năng phá hủy toàn bộ mô hình của họ bằng cách lấy công việc của chúng tôi mà không có sự đồng ý của chúng tôi."

Thêm thông tin: Shawn Shan và đồng nghiệp, Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models, arXiv (2023). DOI: 10.48550/arxiv.2310.13828

Thông tin tạp chí: arXiv © 2023 Science X Network