Thời gian qua, xuất hiện nhiều vụ việc liên quan đến lừa đảo, chiếm đoạt tài sản trực tuyến bằng phương thức giả danh công an, cơ quan nhà nước, ngân hàng, công ty tài chính hay thậm chí là cả người thân trong gia đình. Đa số những “chiêu trò” mạo danh này đều sử dụng Deepfake, công nghệ trí tuệ nhân tạo có thể tạo ra những video, hình ảnh hoặc âm thanh giả mạo một cách rất chân thực. Do đó, việc nhận biết video Deepfake là rất quan trọng để tránh bị lừa đảo hay nhận biết các thông tin sai lệch. Vì thế, việc trang bị những thông tin để phát hiện video deepfake là vô cùng cần thiết với người dùng Internet.
Kiểm tra các chuyển động trên khuôn mặt
Một trong những dấu hiệu nhận biết video giả danh là chuyển động mắt không tự nhiên, không chớp mắt. Công nghệ Deepfake vẫn còn nhiều hạn chế như không thể bắt chước cách chớp mắt của con người hay cũng không thể tái tạo được chuyển động của mắt một cách chính xác.
Nếu khuôn mặt của người gọi không thể hiện cảm xúc phù hợp với những gì họ đang nói, thì rất có thể đó là video giả mạo. Ngoài ra, các chi tiết khác như màu da, tóc, răng của nhân vật trong video không giống thật, xuất hiện những ánh sáng lạ do AI tái tạo cũng là dấu hiệu để nhận biết video Deepfake.
Chất lượng âm thanh
Chất lượng âm thanh cũng là cách để người dùng nhận biết được đâu là video được bị làm giả bởi Deepfake vì công nghệ này thường tập trung nhiều về việc tái tạo hình ảnh, video hơn là âm thanh. Người dùng cần chú ý đến những chuyển động ở miệng của người gọi khi nói, từ đó xem âm thanh có đồng nhất với hình ảnh hay không. Những dấu hiệu này sẽ giúp người dùng có thể nhận biết được đó là video giả mạo.
Tư thế của người gọi
Điểm yếu của Deepfake hiện tại là nó không thể tái tạo được các tư thế chuyển động của con người một cách hoàn hảo vì thi thoảng người gọi trong video sẽ xuất hiện những tư thế “kỳ dị”, không giống con người. Những chuyển động được công nghệ này tái tạo trong video thường không được tự nhiên (ví dụ như tư thế lúng túng, hướng đầu và cơ thể trong video không nhất quán với nhau).
Với sự phát triển mạnh mẽ của trí tuệ nhân tạo, việc tạo ra một video Deepfake để mạo danh người khác đã trở nên dễ dàng hơn trước rất nhiều. Đây là một phương thức lừa đảo rất nguy hiểm, bởi nó lợi dụng sự sợ hãi và thiếu hiểu biết của người dùng. Vì vậy, người dùng cần trang bị những kiến thức cơ bản để phòng tránh chúng, không nên tin vào những cuộc gọi, tin nhắn hoặc email có nội dung khả nghi. Nếu có dấu hiệu lừa đảo, người dùng nên liên hệ trực tiếp với cơ quan chức năng để xác minh thông tin và báo cáo với cơ quan công an gần nhất.
Theo: MakeUseOf
Comments