Công an Hà Nội cảnh báo thủ đoạn dùng ‘Deepfake’ để lừa đảo

PV 31/03/2023 17:14

Công an thành phố Hà Nội vừa có cảnh báo tới người dân về thủ đoạn lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.

Ảnh minh họa. Nguồn: Getty Images.

Theo Công an thành phố Hà Nội, thời gian gần đây, tình hình tội phạm lừa đảo chiếm đoạt tài sản trên không gian mạng diễn biến phức tạp. Nắm bắt được tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng thủ đoạn tinh vi hơn, lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.

Deepfake là công nghệ ứng dụng trí tuệ nhân tạo (AI) tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Dựa trên tệp tin hình ảnh khuôn mặt, giọng nói của một người ngoài đời thực, Deepfake sẽ sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu càm của một người khác; sau đó tạo ra video giả mạo hoàn toàn đối tượng ngoài đời thực.

Thông qua mạng Internet, các đối tượng thu thập hình ảnh, giọng nói của người dùng trên mạng xã hội, sử dụng công nghệ Deepfake tạo ảnh động, video giả mạo người dùng đang nói chuyện trực tuyến với cùng khuôn mặt, âm điệu giọng nói và cách xưng hô.

Đối tượng tạo lập tài khoản giả mạo trên mạng xã hội trùng thông tin và ảnh đại diện với người dùng, kết bạn với nạn nhân trong danh sách bạn bè và nhắn tin vay mượn tiền theo kịch bản sẵn có. Trong một số trường hợp, đối tượng chiếm đoạt tài khoản mạng xã hội của người dùng để trực tiếp nhắn tin cho các nạn nhân trong danh sách bạn bè. Để tạo lòng tin với nạn nhân, đối tượng truyền tải Deepfake video sẵn có lên kênh video call, khiến nạn nhân nhận ra hình ảnh và giọng nói của người quen và nhanh chóng chuyển tiền theo yêu cầu của đối tượng.

Với công nghệ Deepfake, video giả mạo có độ chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video do đối tượng tạo sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp với nạn nhân, có thể khiến nạn nhân nghi ngờ, phát hiện. Để che lấp khuyết điểm trên, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét giống cuộc gọi video có tín hiệu chập chờn được thực hiện trong khu vực phủ sóng di động/wifi yếu.

Đây là thủ đoạn lừa đảo rất mới, rất tinh vi. Công an thành phố Hà Nội đề nghị mọi người nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Ngoài ra, người dân cũng cần bình tĩnh, sau đó gọi điện thoại hoặc liên lạc trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng mạng xã hội như Zalo, Messenger, Viber, Telegram…). Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản thì người dân cần báo ngay cho cơ quan Công an gần nhất để được hỗ trợ, xử lý kịp thời.

[Gọi video call mượn tiền: Cảnh giác chiêu trò lừa đảo mới]

PV