Theo một báo cáo gây chấn động từ Resemble AI, chỉ trong quý I/2025, thiệt hại toàn cầu do các vụ lừa đảo bằng công nghệ deepfake đã vượt 200 triệu USD. Từ những đoạn video chính trị bị thao túng, các cuộc gọi giả mạo người thân cho đến hình ảnh nhạy cảm được AI dựng lại, deepfake đang trở thành vũ khí lừa đảo mới, tinh vi và cực kỳ nguy hiểm.
Xuất hiện như một công nghệ giải trí, Deepfake giờ đây đã biến tướng thành công cụ tội phạm, gây tổn hại cả về tài chính lẫn danh tiếng cho hàng loạt cá nhân và tổ chức. Theo thống kê của Resemble AI, các sản phẩm deepfake hiện nay được tạo ra chủ yếu dưới dạng video (chiếm 46%), hình ảnh (32%) và âm thanh (22%). Đáng lo ngại hơn, chỉ với vài giây ghi âm giọng nói, AI có thể tạo ra một bản sao âm thanh đủ sức đánh lừa cả hệ thống xác minh tự động lẫn người thân của nạn nhân.
Báo cáo cho thấy 41% nạn nhân là người nổi tiếng và chính trị gia, nhưng đến 34% là những công dân bình thường. Điều này cho thấy mối đe dọa không còn giới hạn trong giới tinh hoa mà đã lan rộng đến toàn xã hội. Các tổ chức tài chính, doanh nghiệp và cơ quan chính phủ cũng ngày càng trở thành mục tiêu của các vụ tấn công tinh vi.
Một trong những hình thức lừa đảo phổ biến nhất là mạo danh người quen để chiếm đoạt tài sản – chẳng hạn như gọi video bằng hình ảnh và giọng nói giả để vay tiền, mượn tài khoản ngân hàng, hay yêu cầu cung cấp mã xác thực OTP. Ngoài ra, nhiều vụ deepfake còn được dùng để thao túng chính trị, phát tán tin giả hoặc thực hiện hành vi tống tiền bằng nội dung nhạy cảm.
Báo cáo cũng cảnh báo rằng hơn 68% các sản phẩm deepfake hiện nay “gần như không thể phân biệt với nội dung thật”, khiến việc phát hiện và phòng ngừa trở nên cực kỳ khó khăn, ngay cả với các chuyên gia công nghệ.
Resemble AI kêu gọi cộng đồng quốc tế có phản ứng toàn diện, bao gồm phát triển các công nghệ chống deepfake, tăng cường nhận thức cộng đồng và xây dựng hành lang pháp lý rõ ràng để xác định trách nhiệm của các bên liên quan. Tại Việt Nam, các chiêu trò giả mạo bằng deepfake đã xuất hiện ngày một nhiều. Bộ Công an liên tục cảnh báo người dân cần nâng cao cảnh giác và không dễ dàng tin vào các nội dung “như thật”.