68% các sản phẩm deepfake hiện nay được đánh giá là "gần như không thể phân biệt với nội dung thật"
Công nghệ này ban đầu được phát triển với mục đích giải trí như ghép khuôn mặt người nổi tiếng vào các bộ phim hoặc video hài hước. Tuy nhiên, với sự phát triển nhiều công cụ tạo ra giọng nói giả có độ chính xác cao, việc phân biệt thật - giả trở nên vô cùng khó khăn. 68% các sản phẩm deepfake hiện nay được đánh giá là "gần như không thể phân biệt với nội dung thật".
Theo Resemble AI, deepfake hiện được sử dụng chủ yếu trong video (46%), tiếp theo là hình ảnh (32%) và âm thanh (22%).
Hồi tháng 2, một nhân viên tài chính của Arup – tập đoàn thiết kế và kỹ thuật đa quốc gia có trụ sở tại Anh – đã trở thành nạn nhân của một vụ lừa đảo tinh vi. Anh được mời tham gia một cuộc gọi video trực tuyến với những người mà anh tin là giám đốc tài chính và các đồng nghiệp trong công ty.
Tin tưởng vào tính xác thực của cuộc họp, nhân viên này đã đồng ý chuyển tổng cộng 200 triệu dollar Hồng Kông (khoảng 25,6 triệu USD) cho kẻ lừa đảo thông qua 15 giao dịch. Chỉ vài tuần sau, sự thật đau lòng mới được phơi bày rằng tất cả mọi người trong cuộc gọi đó, ngoại trừ nạn nhân, đều là deepfake do AI tạo ra.
Theo Diễn đàn Kinh tế Thế giới (WEF), các vụ lừa đảo deepfake ở Bắc Mỹ đã tăng tới 1.740% trong giai đoạn 2022–2023, với thiệt hại tài chính vượt 200 triệu USD chỉ trong quý I/2025. Sự phổ biến của công nghệ này khiến việc lừa đảo ngày càng dễ dàng: Chỉ cần 20-30 giây âm thanh để sao chép giọng nói và khoảng 45 phút với phần mềm miễn phí để tạo ra một video deepfake có tính thuyết phục cao.
Tại Hội nghị AI for Good ở Geneva (Thụy Sĩ), Liên minh Viễn thông quốc tế (ITU) cảnh báo deepfake đang trở thành mối đe dọa nghiêm trọng.
Theo ông Tan Ah Tuan, Trưởng phòng nghiên cứu và đổi mới (Ensign Labs) tại Công ty an ninh mạng Ensign InfoSecurity (Singapore), deepfake không chỉ làm suy giảm lòng tin vào các tổ chức mà còn tạo cơ hội cho hành vi trộm cắp danh tính, gian lận, rò rỉ dữ liệu nhạy cảm và gây tổn thất nặng nề về uy tín.
ITU kêu gọi thiết lập các tiêu chuẩn toàn cầu nghiêm ngặt, yêu cầu các nền tảng số áp dụng công cụ xác minh nội dung trước khi cho phép chia sẻ.
Trưởng bộ phận nghiên cứu tại Cục Tiêu chuẩn hóa của ITU, ông Bilel Jamoussi nhấn mạnh, niềm tin vào mạng xã hội đang suy giảm nghiêm trọng vì người dùng không phân biệt được thật - giả. Ông nhấn mạnh việc ngăn chặn deepfake đang là một thách thức hàng đầu do khả năng tạo ra nội dung đa phương tiện cực kỳ chân thực của AI tạo sinh.
Chuyên gia Leonard Rosenthol làm việc tại Adobe, công ty phần mềm chỉnh sửa nội dung kỹ thuật số hàng đầu thế giới, tham gia xử lý vấn đề deepfake từ năm 2019, nhấn mạnh tầm quan trọng của việc thiết lập nguồn gốc nội dung số để người dùng có thể đánh giá mức độ tin cậy. Ông nêu rõ, chúng ta cần các nền tảng hiển thị rõ ràng thông tin về nguồn gốc nội dung. Khi lướt qua một hình ảnh hay video, người dùng cần biết mình có thể tin tưởng được hay không.
Tiến sĩ Farzaneh Badiei, người sáng lập tổ chức nghiên cứu quản trị số Digital Medusa, cảnh báo việc thiếu một cơ quan giám sát toàn cầu chuyên về nội dung giả mạo đang khiến cuộc chiến chống deepfake trở nên rời rạc và kém hiệu quả.
Các chính phủ ASEAN đang nỗ lực xây dựng khung pháp lý bảo vệ dữ liệu cá nhân, quyền riêng tư và sự đồng ý của người dùng. Singapore đã thông qua Đạo luật về tác hại của tội phạm trực tuyến (OCHA) và Luật An ninh mạng, coi đây là công cụ để đối phó các vụ lừa đảo deepfake, như trường hợp giả mạo hình ảnh cựu Thủ tướng Lý Hiển Long để kêu gọi đầu tư cuối năm 2023.
Philippines thành lập Cơ quan ứng phó khẩn cấp máy tính quốc gia, trực thuộc Bộ Công nghệ thông tin và Truyền thông, nhằm xử lý các sự cố an ninh mạng.
Indonesia triển khai Cơ quan an ninh mạng và tiền điện tử quốc gia (BSSN), đồng thời ban hành Luật Giao dịch điện tử, Luật Bảo vệ dữ liệu cá nhân và đang soạn thảo thêm quy định mới để bảo đảm AI được sử dụng có trách nhiệm. Ngoài biện pháp pháp lý, Bộ Thông tin và Truyền thông Kỹ thuật số Indonesia cũng phối hợp với các cộng đồng kiểm chứng thông tin như Mafindo và nhiều cơ quan báo chí nhằm nâng cao nhận thức số.
Tại Mỹ, mạng lưới Thực thi tội phạm tài chính FinCEN đã ban hành FIN-2024-Alert004 để giúp các tổ chức tài chính xác định các chương trình gian lận liên quan đến deepfake.
Một số quốc gia phương Tây đang siết chặt quy định pháp lý. Liên minh châu Âu (EU) đã đề xuất yêu cầu các nền tảng số phải gỡ bỏ nội dung deepfake bất hợp pháp trong vòng 1 giờ sau khi bị phát hiện.
Đan Mạch đang lên kế hoạch trao quyền pháp lý cho công dân đối với hình ảnh, giọng nói và khuôn mặt của chính họ. Liên minh các nhà lập pháp Đan Mạch đang soạn thảo luật cấm chia sẻ, phát tán hình ảnh, nội dung deepfake mà không có sự đồng ý của người liên quan. Nếu được thông qua, các nền tảng không tuân thủ có thể bị phạt nặng.
Cơ quan quản lý an toàn mạng trực tuyến của Australia đang kêu gọi các trường học ở nước này báo cáo những hành vi trái phép sử dụng công nghệ deepfake với cảnh sát. Lời kêu gọi được đưa ra trong bối cảnh số lượng báo cáo về sự xuất hiện các hình ảnh khỏa thân của người dưới 18 tuổi do deepfake tạo ra đã tăng gấp hơn 2 lần trong 18 tháng qua tại Australia.
Cơ quan này cũng phát hành một bộ công cụ hướng dẫn các trường học cách xử lý những sự cố liên quan đến deepfake.
Các công ty công nghệ hàng đầu, bao gồm Microsoft, Meta, X và Google, đang tích cực tham gia cuộc chiến chống deepfake.
Microsoft và Facebook đã đầu tư hơn 10 triệu USD vào các dự án nghiên cứu hệ thống nhận diện deepfake, ứng dụng các thuật toán học sâu để xác định sự không nhất quán trong hình ảnh và âm thanh. Các chuyên gia cũng khuyến cáo người dùng nên cảnh giác với những dấu hiệu bất thường trong cuộc gọi video như khuôn mặt thiếu biểu cảm, âm thanh không khớp khẩu hình hay ánh mắt không tự nhiên.
ITU đang phát triển các tiêu chuẩn cho việc chèn watermark (dấu bản quyền) vào video, loại nội dung chiếm tới 80% lưu lượng truy cập internet, nhằm lưu lại thông tin như danh tính người tạo và thời gian phát hành.
Theo WEF, giáo dục kỹ năng số và nâng cao nhận thức của công chúng là biện pháp căn cơ để ngăn chặn việc chia sẻ nội dung sai lệch do AI tạo ra.
Nhà sáng lập Umanitek (Thụy Sĩ), ông Tomaz Levak, cảnh báo: "AI sẽ ngày càng mạnh hơn, nhanh hơn, thông minh hơn. Người dùng phải được trang bị kiến thức để không trở thành nạn nhân của chính những hệ thống này".
An Bình (tổng hợp)