Xvideos. Com

Nổi lên trong những ngày gần đây, video Deepfakelà f33 voz

【f33 voz】Chuyên gia và người dùng nói gì về việc lừa đảo bằng công nghệ Deepfake

Nổi lên trong những ngày gần đây,êngiavàngườidùngnóigìvềviệclừađảobằngcôngnghệf33 voz video Deepfake là một phương pháp AI tiên tiến sử dụng nhiều lớp thuật toán máy học (machine-learning) để học hỏi từ dữ liệu phi cấu trúc như khuôn mặt con người, chuyển động vật lý và giọng nói.

Dữ liệu thô này được xử lý để tạo video Deepfake thông qua GAN (Generative Adversarial Network) - mạng lưới dùng để liên tục kiểm tra những hình ảnh nó tạo ra so với kịch bản được thiết lập, do đó những hình ảnh giả mạo ngày càng trở nên thuyết phục. Điều này làm cho Deepfake trở thành một mối đe dọa mạnh mẽ hơn bao giờ hết.

Chuyên gia và người dùng nói gì về lừa đảo từ Deepfake - Ảnh 1.

Chuyên gia Chris Ume từng gây sốt TikTok khi thực hiện video Deepfake ngôi sao Tom Cruise

CHỤP MÀN HÌNH

Các video Deepfake hiện đã được biết đến là sử dụng cho mục đích chính trị, cũng như để trả thù cá nhân. Nhưng gần đây, chúng được sử dụng trong các nỗ lực tống tiền và lừa đảo lớn.

Lừa đảo dễ nở rộ nhờ Deepfake

Theo các chuyên gia, video Deepfake vẫn đang ở giai đoạn mà người dùng có thể tự phát hiện ra các dấu hiệu như chuyển động bị giật, thay đổi ánh sáng từ khung hình này sang khung hình khác, thay đổi tông màu da, chớp mắt một cách kỳ lạ hoặc hoàn toàn không chớp mắt, môi đồng bộ kém với giọng nói...

Phương thức lừa đảo người dùng chuyển tiền qua mạng đã không quá mới mẻ. Anh K.N (quận 10, TP.HCM), một chuyên gia hoạt động trong lĩnh vực mạng lâu năm cho biết hình thức lừa đảo này xuất hiện đã hàng chục năm. Phương thức sử dụng là trao đổi qua các nền tảng mạng xã hội hoặc tin nhắn bằng tài khoản đã hack được, kế đến gọi video call với hình ảnh mờ nhòe và khuôn mặt giống với người mất tài khoản và sau vài giây sẽ tắt ngay với lý do đường truyền không ổn định.

Chuyên gia và người dùng nói gì về lừa đảo từ Deepfake - Ảnh 2.

Video Deepfake được tạo bởi công cụ Watchful.ai

CHỤP MÀN HÌNH

Tuy nhiên, với hình thức Deepfake bằng khuôn mặt được tạo ra từ AI nhờ vậy sẽ giúp kẻ lừa đảo đạt độ tin tưởng cao từ nạn nhân. Đã có trường hợp ghi nhận tại TP.HCM bị lừa bằng hình thức video call với công nghệ video Deepfake này. Nhưng K.N nhận định việc này với những người trẻ thường khó thành công. Vì vậy những đối tượng bị nhắm đến đa phần là người đã lớn tuổi vốn chậm tiếp thu những công nghệ mới.

Lời khuyên tự bảo vệ trước video Deepfake

Hình thức lừa đảo này tại Việt Nam hầu hết là từ việc hack tài khoản mạng xã hội, ứng dụng OTT để thực hiện lừa đảo những người thân của nạn nhân nhằm trục lợi từ việc chuyển tiền đến cho hacker. Các chuyên gia nhận định công nghệ Deepfake rất có thể được sử dụng nhắm vào các tổ chức, doanh nghiệp khi con người vốn là mắt xích bảo mật yếu nhất của các hệ thống.

Chia sẻ về việc giữ an toàn cho bản thân trước nguy cơ Deepfake, bà Võ Dương Tú Diễm, Giám đốc Kaspersky khu vực Việt Nam nhận định đầu tiên người dùng tránh để tài khoản của bản thân trở thành mục tiêu cho hacker nhắm đến. Bên cạnh việc sao lưu thường xuyên, người dùng cần sử dụng mật khẩu mạnh và khác nhau cho các tài khoản, dùng phần mềm chống virus hay VPN để ngăn kết nối bị tấn công.

Ở cấp độ doanh nghiệp, cần đảm bảo nhân viên và gia đình biết về cách công nghệ Deepfake hoạt động và tiềm ẩn rủi ro từ đó. Điều quan trọng là "trust but verify" - xây dựng một thái độ hoài nghi đối với tin nhắn thoại và video call. Điều này có thể không hoàn toàn đảm bảo bạn được an toàn khỏi các trò lừa đảo, nhưng nó có thể giúp tránh được nhiều cạm bẫy.

Anh Nhân Nguyễn, một chuyên gia marketing lâu năm cũng đồng tình với quan điểm này. Anh nói "điều cần nhất để giúp tránh trở thành nạn nhân của lừa đảo với công nghệ Deepfake là phải điều tra kỹ thông tin người đối diện, tốt nhất là nên gọi điện thoại trực tiếp nếu đột nhiên có nhờ vả chuyển tiền hay cung cấp thông tin".

Du khách vui lòng để lại nhận xét:

© 2024. sitemap