Thứ tư, 03/12/2025, 23:21

Nạn dùng deepfake giả mạo nhà báo để lừa đảo

Những kẻ lừa đảo đang lợi dụng hình ảnh và giọng nói của các nhà báo uy tín để quảng bá các sản phẩm lừa đảo trên mạng xã hội.

 

Tháng 5/2024, Pooja Shali, một người dẫn chương trình nổi tiếng của India Today, bàng hoàng khi thấy khuôn mặt mình xuất hiện trong một video quảng cáo lừa đảo trên Instagram.

Trong đoạn clip được tạo ra bằng công nghệ AI, cô dường như đang giới thiệu một ứng dụng giao dịch di động. Mặc dù ban đầu video trông rất thật, nhưng ngữ điệu và nội dung sau đó đã trở nên gượng gạo, khác hẳn với phong cách làm việc của cô.

Pooja Shali không phải là trường hợp cá biệt. Đây là thực tế đáng báo động đang lan rộng trên toàn thế giới: những kẻ lừa đảo đang lợi dụng hình ảnh và giọng nói của các nhà báo để quảng bá các sản phẩm lừa đảo, từ ứng dụng giao dịch, cờ bạc đến thuốc giả.

 

Tại sao các nhà báo lại trở thành mục tiêu? Câu trả lời nằm ở độ uy tín. Các nhà báo, đặc biệt là những người dẫn chương trình truyền hình, là những gương mặt quen thuộc và đáng tin cậy đối với công chúng. Họ thường đưa tin dựa trên sự thật và dữ kiện, điều này khiến lời nói của họ có sức nặng. Hơn nữa, những đoạn phim họ xuất hiện trên truyền hình cung cấp một kho dữ liệu dồi dào, lý tưởng cho các công cụ tạo deepfake.

Theo Kiran Nazish, người sáng lập Liên minh Phụ nữ trong Báo chí (CFWIJ), sự bùng nổ của AI tạo sinh và các công cụ deepfake giá rẻ đã khiến những vụ việc này tăng lên theo cấp số nhân. Năm 2023, CFWIJ ghi nhận 7 vụ việc nhắm vào các nhà báo nữ. Con số này đã tăng lên 20 vào năm 2024 và trong 9 tháng đầu năm 2025, đã có hơn 150 vụ được xác định.

Trong khi các nhà báo và tòa soạn đang phải tự vật lộn để đối phó, các nền tảng mạng xã hội lớn lại tỏ ra chậm chạp và thiếu hiệu quả. Martin Wolf, nhà bình luận kinh tế của tờ Financial Times, đã phải nhờ đến mối quan hệ cá nhân với Nick Clegg, một lãnh đạo cấp cao của Meta, để các video deepfake lừa đảo sử dụng hình ảnh của ông được gỡ bỏ.

Tuy nhiên, sau khi xóa, những video tương tự lại xuất hiện trở lại, buộc ông và tờ báo phải liên tục "chơi trò đập chuột chũi" trong suốt nhiều tuần.

Các nền tảng như Meta cho biết họ đang nỗ lực chống lại deepfake, nhưng các chương trình nhận dạng khuôn mặt của họ vẫn còn hạn chế về phạm vi địa lý và số lượng người tham gia. Hơn nữa, việc thiếu sự đầu tư vào kiểm duyệt nội dung của các công ty công nghệ đã khiến việc báo cáo và gỡ bỏ các video lừa đảo trở nên khó khăn hơn.

Các tác động cụ thể với nạn nhân rất rõ. Ngoài tổn hại uy tín, họ phải đối mặt với quấy rối, mất việc hoặc bị tống tiền. Nazish dẫn ví dụ một nhà báo ở Anh bị công ty cho nghỉ việc sau khi một video deepfake lan truyền, cuối cùng người đó phải rời công tác vì thiếu hỗ trợ. Ngược lại, Shali may mắn khi India Today nhanh chóng phản ứng và phát video vạch trần quảng cáo lừa đảo.

Chuyên gia và tổ chức trong lĩnh vực quyền riêng tư, nhân quyền và truyền thông kêu gọi ba hướng hành động: tăng cường cơ chế chủ động của các nền tảng (bao gồm nhận dạng và xóa quảng cáo deepfake), mở rộng chương trình bảo vệ hình ảnh cho nhiều người của công chúng hơn và củng cố hỗ trợ cho nhà báo - đặc biệt người làm tự do và tại các cơ quan nhỏ. Trong lúc đó, nhiều nhà báo cho biết họ phải thận trọng hơn khi xuất hiện trước ống kính, vì không biết hình ảnh và giọng nói của mình sẽ bị kẻ xấu thao tác ra sao.

Bài học từ Shali, Wolf và các trường hợp khác cho thấy deepfake đã biến uy tín cá nhân thành công cụ thương mại và lừa đảo, và nếu không có hành động chủ động, gánh nặng đòi hỏi tự bảo vệ sẽ tiếp tục đổ lên vai chính những người từng được xã hội tin tưởng để truyền tải sự thật.


Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây