Ảnh chụp màn hình từ video deepfake của Rashmika Mandanna (trái) và video thực tế (phải) từ... [ ] Instagram.

Twitter / Instagram

Một video viral cho thấy người mà có vẻ như là nữ diễn viên Rashmika Mandanna đang đi vào thang máy đã được tiết lộ là deepfake. Video này thực sự gây ấn tượng mạnh với người tiêu dùng trung bình trên mạng xã hội, nhưng có một số dấu hiệu để phát hiện video giả nếu bạn nhìn kỹ.

Video deepfake đã được xem hàng triệu lần, bao gồm ít nhất 2,4 triệu lần trên X, một nền tảng mạng xã hội trước đây được biết đến với tên là Twitter. Abhishek Kumar, một nhà báo đến từ Ấn Độ, đã tìm ra nguồn gốc của video giả mạo và kêu gọi xây dựng các khung pháp lý và quy định mới để đối phó với hình ảnh giả mạo trên mạng.

Video gốc đã được đăng lên Instagram vào ngày 8 tháng 10 và có sự xuất hiện của một phụ nữ có tên Zara Patel. Không có bằng chứng cho thấy Patel liên quan đến việc tạo ra phiên bản deepfake của video. Không rõ ai đã tạo ra phiên bản giả mạo hoặc tại sao họ làm như vậy, nhưng nhiều ngôi sao trong nhiều ngành công nghiệp khác nhau đã chứng kiến những video giả mạo của chính họ trong những năm gần đây.

Như bạn có thể thấy trong cạnh này từ cả bản deepfake và bản gốc của video, khuôn mặt của Patel có thể thấy ở đầu cả hai.

Một ảnh chụp màn hình từ video deepfake (trái) và video thực tế (phải) mà cả hai đều cho thấy khuôn mặt người phụ nữ gốc trước khi vào thang máy.

Twitter / Instagram

Nhưng sau khoảng một giây, khuôn mặt biến đổi thành Rashmika Mandanna, một nữ diễn viên nổi tiếng trong điện ảnh Ấn Độ, người đã nhận được sự công nhận từ năm 2016 và đã giành được nhiều giải thưởng.

Ảnh chụp màn hình từ video deepfake (trái) và video thực tế (phải)

Twitter / Instagram

Và trong khi sự giả mạo có thể dường như rõ ràng khi hai video được chạy song song, không dễ dàng nhận ra rằng đây là một deepfake khi xem nhanh trong nguồn cấp dữ liệu trên mạng xã hội của ai đó. Dù sao thì con người không được thiết kế để áp dụng sự hoài nghi với mọi bức ảnh và video mà chúng ta nhìn thấy. Luôn giữ sự cảnh giác với hình ảnh giả mạo có thể gây căng thẳng tinh thần và trái với lý do mà mọi người sử dụng mạng xã hội ban đầu - như một cách để thư giãn và thưởng thức truyền thông từ khắp nơi trên thế giới.

Internet luôn tồn tại những hình ảnh giả, nhưng sự gia tăng của video deepfake đã trở thành một vấn đề thực sự trong những năm gần đây. Công cụ deepfake cho phép bất kỳ ai cũng có thể tạo ra những video thuyết phục sử dụng khuôn mặt của người khác và đưa vào những tình huống mà họ chưa từng trải qua thực tế. Theo báo cáo của Wall Street Journal vào tuần trước, một cuộc điều tra đã được mở tại một trường trung học ở New Jersey sau khi học sinh ở đó tạo ra những hình ảnh nude giả của bạn học bằng công nghệ hỗ trợ trí tuệ nhân tạo.

Nhưng ngay cả việc tạo ra những hình ảnh giả mạo tương đối nhàm chán như hiện nay tràn lan trên các trang web như X, Facebook, TikTok và Instagram cũng là một vấn đề thực sự đối với khả năng tin tưởng vào những gì mắt chúng ta đang thấy.

Và với cuộc bầu cử tổng thống năm 2024 chỉ còn một năm nữa, những bức ảnh giả mạo chính trị có thể sẽ gia tăng, đặc biệt là khi ứng viên tổng thống đảng Cộng hòa được cho là Donald Trump, chào đón những hình ảnh AI về mình trên Truth Social.

Một lần nữa, sự giả mạo không phải là điều mới và thậm chí đã tồn tại trước cả internet. Một bức ảnh nổi tiếng của Teddy Roosevelt cưỡi hươu cao cổ đã được tạo ra lần đầu vào năm 1912 và cho đến ngày nay vẫn lừa đảo người dùng internet. Nhưng công cụ để tạo ra các hình ảnh giả mạo đang tiến triển với tốc độ nhanh chóng. Ngày nay, bạn thậm chí không thể tin vào đôi mắt lừa dối của chính mình.