Sự lan rộng ngày càng đáng lo ngại của hình ảnh lạm dụng tình dục trẻ em trên internet có thể trở nên tồi tệ hơn nhiều nếu không có biện pháp để kiểm soát các công cụ trí tuệ nhân tạo tạo ra ảnh deepfake, một cơ quan giám sát cảnh báo vào thứ Ba.
Trong một báo cáo viết, Tổ chức Giám sát Internet của Anh kêu gọi các chính phủ và nhà cung cấp công nghệ hành động nhanh chóng trước khi một lũ ảnh được tạo bởi trí tuệ nhân tạo về lạm dụng tình dục trẻ em áp đảo các nhà điều tra luật pháp và mở rộng đáng kể nhóm nạn nhân tiềm năng.
"Chúng ta không đang nói về thiệt hại nó có thể gây ra," Dan Sexton, Giám đốc công nghệ của nhóm giám sát nói. "Điều này đã xảy ra ngay bây giờ và cần được giải quyết ngay bây giờ."
Trong một vụ án đầu tiên tại Hàn Quốc, một người đàn ông đã bị kết án vào tháng 9 với hình phạt 2 năm rưỡi tù vì sử dụng trí tuệ nhân tạo để tạo ra hình ảnh lạm dụng trẻ em ảo 360 độ, theo Tòa án Huyện Busan ở phía đông nam của đất nước.
Trong một số trường hợp, trẻ em cũng sử dụng những công cụ này với nhau. Tại một trường học ở phía tây nam Tây Ban Nha, cảnh sát đã điều tra việc sử dụng ứng dụng điện thoại để làm cho bạn đồng học mặc đồ đầy đủ trông như không mặc trong hình ảnh.
Báo cáo chỉ ra một mặt tối của cuộc đua để xây dựng các hệ thống trí tuệ nhân tạo tạo điều kiện cho người dùng miêu tả bằng từ ngữ những gì họ muốn tạo ra - từ email đến tác phẩm nghệ thuật hoặc video mới - và hệ thống sẽ tự tạo ra.
Nếu không ngăn chặn, sự ngập lụt hình ảnh lạm dụng tình dục trẻ em deepfake có thể làm trì trệ những nhà điều tra cố gắng cứu giúp những đứa trẻ hóa ra chỉ là nhân vật ảo. Tội phạm cũng có thể sử dụng hình ảnh để lôi kéo và ép buộc nạn nhân mới.
Sexton nói các nhà phân tích của IWF đã phát hiện các gương mặt của trẻ em nổi tiếng trên mạng cũng như một "nhu cầu khổng lồ để tạo ra thêm hình ảnh của những đứa trẻ từng bị lạm dụng, có thể là nhiều năm trước đây".
"Họ đang lấy nội dung thực tế hiện có và sử dụng nó để tạo ra nội dung mới này," ông nói. "Điều đó thật kinh hoàng."
Sexton nói tổ chức từ thiện của ông, tập trung vào cuộc chiến chống lại lạm dụng tình dục trẻ em trực tuyến, đã bắt đầu nhận được các báo cáo về hình ảnh phản cảm được tạo ra bởi trí tuệ nhân tạo vào đầu năm nay. Điều đó dẫn đến cuộc điều tra vào các diễn đàn trên "dark web", một phần của internet được lưu trữ trong mạng lưới mã hóa và chỉ có thể truy cập thông qua các công cụ cung cấp ẩn danh.
Những gì các nhà phân tích IWF tìm thấy là những kẻ lạm dụng chia sẻ mẹo và ngạc nhiên về việc làm sao để biến máy tính gia đình của họ trở thành nhà máy tạo ra hình ảnh tình dục trẻ em của mọi độ tuổi. Một số cũng trao đổi và cố gắng kiếm lợi từ những hình ảnh như thật ngày càng giống thật hơn.
"Chúng ta đang bắt đầu thấy điều này nổ ra," Sexton nói.
Dù báo cáo của IWF nhằm cảnh báo về vấn đề ngày càng tăng này hơn là đưa ra các phương án, nó kêu gọi các chính phủ tăng cường luật pháp để dễ dàng chiến đấu với lạm dụng nhân tạo tạo ra bởi AI. Đặc biệt, nó nhắm vào Liên minh Châu Âu, nơi đang diễn ra một cuộc tranh luận về biện pháp giám sát có thể tự động quét ứng dụng tin nhắn để tìm kiếm những hình ảnh nghi ngờ về lạm dụng tình dục trẻ em ngay cả khi những hình ảnh đó trước đây chưa được biết đến với cảnh sát.
Tập trung lớn của công trình của tổ chức là ngăn chặn việc nạn nhân lạm dụng tình dục trước đây bị lạm dụng lại thông qua việc phân phối lại hình ảnh của họ.
Báo cáo cho biết các nhà cung cấp công nghệ có thể làm nhiều hơn để làm cho việc sử dụng sản phẩm do chính họ xây dựng trở nên khó hơn theo cách này, mặc dù việc này phức tạp do một số công cụ khó có thể "đặt vào chai.".
Một loạt các trình tạo hình ảnh trí tuệ nhân tạo đã được giới thiệu vào năm ngoái và làm say mê công chúng bằng khả năng tạo ra các hình ảnh mơ hồ hoặc gần như sống động theo yêu cầu. Nhưng hầu hết các trình này không được ưa chuộng bởi các nhà sản xuất nội dung lạm dụng tình dục trẻ em vì chúng chứa các cơ chế để chặn nó.
Các nhà cung cấp công nghệ có các mô hình AI đã đóng cửa, với quyền kiểm soát đầy đủ về cách chúng được đào tạo và sử dụng - ví dụ như DALL-E của OpenAI - có vẻ đã thành công hơn trong việc chặn việc lạm dụng, Sexton nói.
Trái lại, một công cụ được ưa chuộng bởi những người sản xuất hình ảnh lạm dụng tình dục trẻ em là Stable Diffusion nguồn mở, được phát triển bởi công ty khởi nghiệp Stability AI có trụ sở tại Luân Đôn. Khi Stable Diffusion xuất hiện vào mùa hè năm 2022, một số người dùng nhanh chóng tìm hiểu cách sử dụng nó để tạo ra nội dung khiêu dâm và đồ trỏ. Trong khi hầu hết các nội dung đó mô tả người lớn, nhưng nó thường bị phản đối như là việc sử dụng để tạo ra những bức ảnh nude được lấy cảm hứng từ người nổi tiếng.
Sau đó, Stability đã đưa ra các bộ lọc mới để chặn nội dung không an toàn và không phù hợp, và giấy phép sử dụng phần mềm của Stability cũng đi kèm với lệnh cấm sử dụng trái phép.
Trong một tuyên bố được ra mắt vào thứ ba, công ty cho biết nó "nghiêm cấm mọi việc sử dụng sai mục đích bất hợp pháp hoặc bất đạo đức" trên các nền tảng của nó. "Chúng tôi mạnh mẽ hỗ trợ những nỗ lực của lực lượng chức năng trong việc đối phó với những người sử dụng sản phẩm của chúng tôi để mục đích bất hợp pháp hoặc xấu xa", tuyên bố này nêu.
Tuy vậy, người dùng vẫn có thể truy cập vào các phiên bản cũ của Stable Diffusion chưa được lọc, những phiên bản này "được lựa chọn rất nhiều... cho những người tạo ra nội dung rõ ràng liên quan đến trẻ em", David Thiel, kỹ sư công nghệ chính của Stanford Internet Observatory, một tổ chức giám sát khác nghiên cứu vấn đề này nói.
"Bạn không thể điều chỉnh những gì mọi người đang làm trên máy tính của họ, trong căn phòng ngủ của họ. Điều đó không thể", Sexton thêm. "Vậy làm thế nào để bạn không thể sử dụng phần mềm dễ dàng như thế này để tạo ra nội dung có hại như vậy?"
Hầu hết các hình ảnh lạm dụng tình dục trẻ em được tạo ra bởi trí tuệ nhân tạo có thể xem là vi phạm pháp luật hiện hành ở Mỹ, Vương quốc Anh và nơi khác, nhưng chưa rõ liệu lực lượng chức năng có cung cấp đủ công cụ để chống lại chúng hay không.
Báo cáo của IWF được công bố trước cuộc họp toàn cầu về an toàn trí tuệ nhân tạo trong tuần tới do chính phủ Anh tổ chức, sự kiện này sẽ có sự tham dự của các nhân vật nổi tiếng như Phó Tổng thống Hoa Kỳ Kamala Harris và các nhà lãnh đạo công nghệ.
"Tuy báo cáo này trình bày một hình ảnh u ám, nhưng tôi lạc quan", Giám đốc điều hành IWF Susie Hargreaves nói trong một tuyên bố viết sẵn. Bà cho biết quan trọng là truyền đạt thực tế về vấn đề này cho "một đại chúng rộng lớn bởi vì chúng ta cần có cuộc thảo luận về mặt u ám của công nghệ tuyệt vời này.