Deepfake, thuật ngữ dùng để chỉ kỹ thuật tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo là thứ vô cùng đáng sợ. Thậm chí, nó có thể làm hỏng một cuộc bầu cử, ngay cả khi các ứng cử viên không bị ghép khuôn mặt bằng deepfake.
Một trong những cách phá hoại bằng deepfake dễ hình dung là tạo ra những video giả, sai sự thật của ứng cử viên. Tuy nhiên, đây không phải là điều mà các chuyên gia lo ngại nhất.
Mối lo ngại lớn nhất
“Nếu bạn hỏi tôi về mối lo ngại chính của cuộc bầu cử tại Mỹ trong năm nay, tôi sẽ trả lời rằng đó không phải là deepfake. Mối nguy lớn nhất là video có thật, mà chúng ta không thể chứng minh nó là thật hay giả”, Kathryn Harrison, người sáng lập DeepTrust Alliance, một tổ chức chuyên nghiên cứu và chống lại deepfake cho biết.
Những người nghiên cứu về deepfake có thuật ngữ Liar’s Dividend, nói về sự ảnh hưởng của niềm tin khi xuất hiện deepfake. Về cơ bản, deepfake sẽ khiến mọi người nghi ngờ chính đôi mắt của mình và có xu hướng cho rằng mọi video xuất hiện đều là giả.
Không chỉ được dùng để ghép video khiêu dâm, deepfake còn mang tới những lo ngại về tin giả trước những thời điểm quan trọng như kỳ bầu cử Tổng thống Mỹ cuối năm 2020. Ảnh: Cnet. |
Việc cắt ghép hình ảnh không phải là thứ gì đó mới mẻ. Tuy nhiên, deepfake là một thứ tương đối khác biệt. Các video giả mạo được tạo ra có thể khiến mọi người dường như đang làm hoặc nói những điều mà họ chưa từng làm.
Bobby Chesney, giáo sư luật tại Đại học Texas, người đã đưa ra thuật ngữ Liar"s Dividend cho biết đảng Dân chủ Mỹ đã tổ chức những buổi thảo luận và giáo dục mọi người về những mối nguy hại mà deepfake có thể gây ra.
Dù vậy, mặt trái của việc giáo dục này là nó có khả năng khiến deepfake phát triển rộng hơn, bởi những người mới tìm hiểu về chúng hoàn toàn có thể tin video “xịn” là không có thật.
Công nghệ tạo ra để đánh lừa người xem
Lý do khiến deepfake có thể đánh lừa mọi người bắt nguồn từ công nghệ tạo ra nó, được các chuyên gia gọi là GAN, viết tắt của các mạng lưới đối nghịch chung. Trong khi trí tuệ nhân tạo đã xuất hiện từ nhiều thập kỷ trước, GAN mới chỉ được phát triển trong khoảng 6 năm nay.
Về cơ bản, GAN là quá trình thử - sai - thử lại liên tục để đánh lừa mắt người. Cả bộ tạo tín hiệu và bộ kiểm tra đều là những cỗ máy, cho phép chúng tạo ra cả triệu mẫu thử chỉ trong chớp mắt.
Bằng quá trình thử - sai liên tục, deepfake được thiết kế ra để đánh lừa người xem một cách tinh vi nhất. Đồ hoạ: Hà My. |
GAN là các hệ thống được thiết kế để đánh lừa bạn. GAN có thể tạo hình ảnh, giọng nói, video hay bất kỳ loại phương tiện truyền thông nào. Thuật ngữ deepfake được sử dụng thường xuyên nhất với các video.
“Với deepfake đích thực, bạn chắc chắn sẽ không thể nhận ra”, ông Chesney chia sẻ.
Sự ra đời của deepfake đã tạo ra các thuật ngữ mới: Cheapfakes và Shallow fakes. Đây là những loại video giả mạo rất dễ nhận ra, nhưng vẫn vô cùng hiệu quả, khiến nó trở thành mối đe dọa thông tin sai lệch lớn.
Khi mà ngày càng nhiều người dễ dàng tin tưởng các thông tin được chia sẻ trên Facebook hay YouTube , những video đơn giản này lại dễ gây hoạ hơn. Video giả mạo, gây sốc rất dễ phát tán, mang lại nhiều tiền hơn hẳn so với thông tin chính thống trên các nền tảng này.
Những nhà nghiên cứu đã có thể tạo ra video deepfake giống như thật, sử dụng hình ảnh các chính trị gia. Ảnh: Shruti Agarwal . |
Theo Cnet, hậu quả để lại sẽ là một hệ thống mà video giả mạo được tin tưởng, còn thông tin trung thực và nhàm chán lại bị nghi ngờ.
Để tạo ra những video deepfake thuyết phục tương đối tốn kém. Những video như vậy chỉ được tạo ra và chia sẻ chủ yếu trong giới học thuật. Tuy nhiên, nếu được đưa ra đúng thời điểm, như trước kỳ bầu cử vài ngày, thì chúng có thể để lại ảnh hưởng to lớn.
“Nếu video giả mạo xuất hiện 48 giờ trước ngày bầu cử, chúng ta sẽ không có thời gian sửa chữa hậu quả”, Clint Watts, nhà nghiên cứu chính sách ngoại giao từng điều trần về deepfake trước Quốc hội Mỹ chia sẻ.