Tại một hội thảo trực tuyến do IPSO tổ chức, các chuyên gia cho biết AI đang bị lợi dụng để sản xuất tin giả với quy mô lớn, từ bài viết, email lừa đảo đến video deepfake. Michael McManus, giám đốc nghiên cứu tại Henry Jackson Society, cảnh báo công nghệ này đang được các nhóm cực đoan và cá nhân sử dụng để thao túng hệ sinh thái thông tin.
Theo ông, AI cho phép tạo nội dung giả mang tính thuyết phục cao và cá nhân hóa sâu, khiến việc phân biệt thật - giả ngày càng khó. Các chiến dịch lừa đảo đã nhắm vào cả quan chức cấp cao bằng những thông điệp được soạn riêng, có vẻ đáng tin. Nếu không có quy trình kiểm chứng chặt chẽ, ngay cả nhà báo nhiều kinh nghiệm cũng có thể bị đánh lừa.
Điều tra của Press Gazette cho thấy không ít nguồn tin trên báo thực chất là nhân vật do AI tạo ra. Các công ty PR sử dụng những “chuyên gia” giả để gửi bài và trích dẫn đến tòa soạn, sau đó tận dụng chính các bài đã đăng làm bằng chứng uy tín.
Nhiều cơ quan báo chí lớn như The Telegraph, Wired và Business Insider đã từng đăng tải nội dung từ các nguồn giả này. Dominic Ponsford cảnh báo rằng việc một “chuyên gia” xuất hiện trên nhiều báo không còn là dấu hiệu đáng tin, vì cùng một nhân vật giả có thể được lặp lại trên hàng chục nền tảng.

Trong bối cảnh đó, tập đoàn báo chí Reach - một trong những đơn vị bị ảnh hưởng - đã triển khai loạt biện pháp cụ thể. Theo Gary Rogers, tổ chức này đã gỡ bỏ các bài viết liên quan và siết chặt quy trình kiểm duyệt nguồn tin từ PR.
Reach đang áp dụng công cụ nội bộ để hỗ trợ phóng viên, như tự động gắn cờ các email có dấu hiệu bất thường; kiểm tra danh tính người gửi và mức độ hiện diện ngoài các nguồn tự tham chiếu; phát hiện các vòng lặp thông tin trên internet.
Các công cụ này không đưa ra kết luận cuối cùng mà đóng vai trò cảnh báo, buộc phóng viên phải xác minh thêm trước khi sử dụng.
Song song, Reach đẩy mạnh đào tạo và xây dựng văn hóa kiểm chứng trong tòa soạn. Họ kết hợp sử dụng công cụ mua ngoài với phát triển nội bộ, trong đó có hệ thống như Guten để hỗ trợ tái sử dụng nội dung. Mọi công cụ AI đều phải trải qua quy trình đánh giá nghiêm ngặt, đặc biệt về bảo mật dữ liệu và bảo vệ nguồn tin.
Với nhà xuất bản tạp chí Immediate Media, hướng tiếp cận tập trung vào minh bạch và kiểm soát từ đầu. Roxanne Fisher, giám đốc chiến lược nội dung kỹ thuật số và trí tuệ nhân tạo, cho biết tổ chức này công khai việc sử dụng AI và đặt ra giới hạn rõ ràng về phạm vi ứng dụng.
Immediate Media chỉ triển khai AI khi có nhu cầu cụ thể từ người dùng, tránh việc sử dụng công nghệ một cách hình thức. Để giảm rủi ro liên quan đến dữ liệu và mô hình bên ngoài, họ phát triển công cụ nội bộ “First Draft”, được huấn luyện hoàn toàn trên kho nội dung riêng.
Công cụ này hỗ trợ nghiên cứu và tái sử dụng nội dung, đồng thời cung cấp đầy đủ trích dẫn cho mỗi kết quả. Tất cả đầu ra đều phải được con người kiểm duyệt trước khi sử dụng. Theo Fisher, mục tiêu là “hỗ trợ nội dung bằng AI”, không phải để AI tự tạo nội dung hoàn chỉnh.
Immediate Media cũng đầu tư vào đào tạo, tổ chức các chương trình nội bộ để nâng cao nhận thức về đạo đức và cách sử dụng AI an toàn cho nhân viên.

















