Phó chủ tịch Ủy ban Thương mại Liên bang cảnh báo rằng các kẻ lừa đảo đang sử dụng trí thông minh nhân tạo để sao chép giọng nói của mọi người, gây ra những tình huống đau lòng cho những người trên khắp đất nước.

Những tên tội phạm này lừa nạn nhân tin rằng họ đang nói chuyện với một người thân có thể cần tiền vì lý do như trả tiền tổn thất từ một tai nạn xe hơi hay trả tiền chuộc khi bị bắt cóc.

Các chuyên gia cho biết những chiêu lừa đảo này là đáng sợ, nhưng lại rất hiệu quả.

"Theo tôi, đây là điều đáng sợ nhất tôi từng thấy", Scott Hermann, nhà sáng lập của tập đoàn bảo vệ tài chính và danh tính IdentityIQ, cho biết.

audio clip

Hermann nói rằng các tên tội phạm chỉ cần một đoạn clip chỉ dài 20 giây của ai đó nói chuyện, thường được lấy từ mạng xã hội, và họ có thể làm ra một bản sao giống như giọng nói đó.

"Đến mức một bà mẹ không thể phân biệt được giữa con của mình và máy móc", Hermann nói.

Cư dân Maryland Gerry Scally đã nhận được một cuộc gọi từ cháu trai của mình tháng trước nói rằng cháu đang có một sáng khổ tâm.

"Nó giống hệt như Noah. Điều đó không thể tin được. Nó đáng sợ", Scally nói.

Scally hỏi cháu trai của mình đã xảy ra chuyện gì. Giọng nói trả lời rằng, "Tôi bị tai nạn xe hơi và tôi bị gãy mũi".

Nhưng anh nghĩ rằng có điều gì đó không đúng với giọng nói của cháu trai mình. Người trên điện thoại nói chậm hơn so với cháu trai của anh. Vì vậy, Scally treo máy và có thể tránh được một vụ lừa đảo. Cháu trai của anh thực sự đang ở trường học, khoẻ mạnh.

OpenAI CEO Sam Altman

"Các nhóm này rất tinh vi. Họ thường hoạt động ở nước ngoài. Họ làm việc tại một tòa nhà văn phòng", Hermann nói.

IdentityIQ cho biết những lừa đảo sao chép giọng nói là khá mới mẻ. Họ chỉ mới nhận được báo cáo về chúng trong vòng khoảng một năm qua.