Trong một hội nghị toàn cầu trao quyền cho sự thật gần đây của Trung tâm Các nhà báo Quốc tế (ICFJ), các chuyên gia đã tập trung vào việc chống lại deepfake và các phương tiện AI có mục đích xấu khác.
Những lời khuyên đã được đưa ra về cách các nhà báo có thể hiểu rõ hơn về các mối đe dọa mà các công nghệ deepfake có thể gây ra và những gì có thể được thực hiện để chống lại chúng.
Công nghệ và các mối đe dọa của chúng
Các công nghệ phát triển nhanh chóng đang cho phép người dùng chỉnh sửa đặc điểm khuôn mặt, tạo ảnh động cho chân dung, tạo chuyển động, sao chép giọng nói...
Là một phần của hệ sinh thái này, deepfake là một loại thao tác nghe nhìn cho phép người dùng tạo mô phỏng thực tế về khuôn mặt, giọng nói và hành động của một người.
Deepfake được sản xuất ngày càng dễ dàng hơn trước nhờ AI, chứ không muốn nói là rất đơn giản.
Các video giả mạo về các nhân vật của công chúng cũng xuất hiện một cách phổ biến, kèm theo các đoạn âm thanh bịa đặt. Deepfake đang đặt thêm gánh nặng cho các nhà báo và những người kiểm duyệt để chứng minh tính xác thực của một đoạn video.
Chúng là hình thức phương tiện bị thao túng được thảo luận rộng rãi nhất, theo Shirin Anlen, một nhà công nghệ truyền thông tại WITNESS, lưu ý. “Bản thân deepfake là một phần của những thứ mà chúng ta ngày càng thấy nhiều hơn trên các bản tin", ông nói.
Mặc dù deepfake đang trở nên phổ biến hơn, nhưng chúng cũng đòi hỏi một lượng kỹ năng và kiến thức đáng kể để thực hiện đúng cách, khiến chúng khó tạo ra đối với người bình thường. Do đó, rất nhiều video bị thao túng không đạt đến mức độ của một deepfake thực sự.
Chẳng hạn, các bộ lọc làm thay đổi tóc, màu mắt hoặc giọng nói của một người là những thao tác mà chúng ta có thể bắt gặp hàng ngày, đặc biệt là trên mạng xã hội. Các đoạn thoại do AI tạo ra, các trích dẫn bịa đặt từ các nhân vật của công chúng là một ví dụ khác.
“Deepfake không thực sự được sử dụng trên quy mô lớn", ông Anlen nói. “Hầu hết những gì chúng ta vẫn đang thấy trong bối cảnh thông tin sai lệch hiện tại đều là hàng giả kém chất lượng, chủ yếu là biên tập lại theo ngữ cảnh".
Cách phát hiện
Mọi công nghệ mới đều có sơ sót và deepfake cũng không ngoại lệ. Ví dụ: người dùng có thể phát hiện lỗi khi hình ảnh bị giật lag, cơ miệng không khớp với audio v.v.
Tuy nhiên, công nghệ cũng đang thích nghi rất nhanh chóng. Trong thời điểm mà thông tin tràn lan trên các trang mạng xã hội, việc phát hiện và ứng phó kịp thời là một điều cực kỳ khó khăn.
"Những thế hệ deepfake đầu tiên rất dễ bị phát hiện thông qua chuyển động mắt. Giờ đây, các thế hệ mới đã được cập nhật, mắt đã nháy và không còn đứng yên nữa. Công nghệ này vẫn đang được cập nhật liên tục và sẽ ngày càng khó phát hiện chúng hơn", ông Anlen lưu ý.
Các giải pháp
Trong số các phương pháp để phát hiện deepfake, các nhà báo có thể xem xét nội dung video để tìm lỗi và biến dạng, áp dụng các kỹ thuật xác minh và pháp y hiện có cũng như sử dụng các phương pháp dựa trên AI để phát hiện deepfake khi có sẵn.
Việc tăng cường các công cụ hiểu biết về truyền thông và đào tạo thêm về các phương tiện truyền thông bị thao túng cho các nhà báo cũng rất cần thiết.
“Chúng ta cần chuẩn bị ngay từ bây giờ”, ông Anlen nói. “Chúng ta cần hiểu bối cảnh để thực sự định hình công nghệ, định hình cách nó được xây dựng... để không bị ảnh hưởng bởi các công nghệ mới một cách thụ động".