Ngày càng nhiều trường hợp người dân bị các đối tượng lừa đảo sử dụng Deepfake để tạo ra các video, hình ảnh hoặc âm thanh giả mạo nhằm chiếm đoạt tài sản, xúc phạm danh dự hoặc phá hoại uy tín của người khác... Nhằm giúp người dân tránh các “bẫy” lừa đảo, Trung tâm Xử lý tin giả, thông tin xấu độc Việt Nam (VAFC) đã đưa ra những cảnh báo cần thiết.
Trung tâm Xử lý tin giả, thông tin xấu độc Việt Nam (VAFC), Bộ Thông tin và Truyền Thông vừa nhận được phản ánh của ông Hồ Huy - Chủ tịch Tập đoàn Mai Linh về việc các đối tượng sử dụng công nghệ Deepfake để cắt ghép, phát tán các hình ảnh nhạy cảm của ông trên mạng xã hội nhằm bôi nhọ danh dự, nhân phẩm và uy tín cá nhân của ông; gây ảnh hưởng lớn đến hoạt động kinh doanh của Tập đoàn Mai Linh.
Lừa đảo Deepfake nở rộ
Phản ánh của ông Hồ Huy đã được VAFC chuyển tới các cơ quan chức năng xem xét, xử lý theo quy định của pháp luật.
Trước đó, cuối tháng 12/2023, thông tin từ Công an quận Hai Bà Trưng (Hà Nội) cho biết, các đối tượng lừa đảo sử dụng công nghệ Deepfake để lừa người già. Cụ thể ngày 14/12, bà L.T.C., SN 1948, trú tại phường Phạm Đình Hổ (quận Hai Bà Trưng) đang ở nhà thì nhận được điện thoại của đối tượng tự xưng là nhân viên bưu chính viễn thông, thông báo bà C. đang nợ cước điện thoại gần 5 triệu đồng. Khi bà C. nói không nợ khoản tiền cước nào thì đối tượng dọa sẽ chuyển cuộc gọi cho “cơ quan điều tra”.
Một lúc sau, bà C. lại nhận được điện thoại từ người giới thiệu công tác tại Công an Hà Nội, yêu cầu nạn nhân cung cấp tài khoản tiết kiệm và chuyển toàn bộ tiền vào số tài khoản của cơ quan Công an để xác minh, nếu không sẽ bị bắt.
Do quá hoang mang lo lắng, bà C. đã nhanh chóng chuẩn bị 2 sổ tiết kiệm của mình có khoảng 300 triệu đồng dự định sẽ chuyển cho “đồng chí công an”. Qua công tác nắm tình hình địa bàn và nguồn tin của cán bộ cơ sở, Thượng úy Nguyễn Ngọc Khoa - cảnh sát khu vực phường Phạm Đình Hổ phụ trách đã kịp thời có mặt.
Thượng uý Khoa kể lại: “Khi vừa đến nhà bà C. thì tôi thấy đối tượng đang nói chuyện qua video với nạn nhân. Hình ảnh cho thấy đối tượng đã sử dụng công nghệ “Deepfake”, giả danh công an để lừa đảo nên tôi trực tiếp cầm máy điện thoại để nói chuyện. Thấy vậy, đối tượng tắt máy và chặn liên lạc luôn”.
Công nghệ Deepfake xuất hiện từ lâu và đã được cảnh báo nhiều lần nhưng gần đây, ngày càng nhiều người dân bị các đối tượng lừa đảo giả mạo bằng công nghệ này. Deepfake cho phép tạo ra các video, hình ảnh hoặc âm thanh giả mạo với độ chân thực cao.
Công nghệ này được phát triển dựa trên trí tuệ nhân tạo (AI), sử dụng các thuật toán học máy để phân tích và tái tạo các đặc điểm của khuôn mặt, giọng nói, cử chỉ của một người. Deepfake có thể được sử dụng cho nhiều mục đích khác nhau, bao gồm giải trí, giáo dục, truyền thông.
Tuy nhiên, công nghệ này cũng có thể bị lợi dụng cho mục đích xấu như: lừa đảo, bôi nhọ, phá hoại…
Nhận diện các hình thức lừa đảo
Theo nhìn nhận của giới chuyên gia, tình trạng lừa đảo trên mạng sẽ ngày càng nhiều và liên tục biến tướng. Các đối tượng xấu sẽ tận dụng những lợi thế của công nghệ mới làm công cụ cho các hành vi tấn công, lừa đảo người dùng.
Ông Vũ Ngọc Sơn - Giám đốc công nghệ Công ty NCS cho hay, các hình thức lừa đảo trực tuyến ngày càng tinh vi và khó lường. Các cuộc lừa đảo bằng cuộc gọi qua Zalo, Facebook Messenger ngày càng tinh vi, với sự xuất hiện của công nghệ Deepfake khiến các nạn nhân dễ bị mắc lừa hơn vì được mắt thấy tai nghe trực tiếp bằng hình ảnh, âm thanh. Không chỉ giả mạo người thân, bạn bè, những đối tượng lừa đảo còn giả mạo cả công an khiến nạn nhân không biết đâu là thật, đâu là giả.
VAFC cũng cho biết, các đối tượng sử dụng Deepfake để tạo ra các video hoặc cuộc gọi giả mạo của người nổi tiếng, chính trị gia hoặc nhân vật có ảnh hưởng để yêu cầu nạn nhân chuyển tiền.
Bên cạnh đó các đối tượng sử dụng Deepfake để tạo ra các video hoặc hình ảnh giả mạo nhằm bôi nhọ xúc phạm danh dự của người khác, khiến họ bị mất uy tín, mất việc làm hoặc bị xã hội xa lánh… Phá hoại uy tín của một tổ chức, doanh nghiệp, khiến họ bị mất khách hàng hoặc bị thiệt hại về kinh tế.
VAFC cũng đã chỉ ra người dùng cũng có thể nhận nhận biết một số video, hình ảnh hoặc âm thanh Deepfake thông qua các dấu hiệu sau: các chi tiết trên khuôn mặt như mắt, mũi, miệng, lông mày, tóc... hoặc giọng nói của người trong video, hình ảnh hoặc âm thanh có thể không tự nhiên, không phù hợp với ngữ cảnh.
Bên cạnh đó có các điểm bất thường trong video, hình ảnh hoặc âm thanh có thể có các điểm bất thường như ánh sáng, bóng đổ, màu sắc không tự nhiên... Để phòng tránh lừa đảo bằng Deepfake, VAFC khuyến cáo người dùng mạng Internet cẩn trọng với các thông tin được chia sẻ trên mạng xã hội, không nên tin tưởng ngay vào các thông tin đó, đặc biệt là các thông tin liên quan đến tài chính, danh dự hoặc uy tín của người khác.
Kiểm tra kỹ thông tin trước khi thực hiện các giao dịch tài chính. Trong đó, khi nhận được yêu cầu chuyển tiền từ người khác, người dùng cần kiểm tra kỹ thông tin của người yêu cầu chuyển tiền, xác minh nguồn gốc của yêu cầu và chỉ chuyển tiền khi chắc chắn rằng người yêu cầu chuyển tiền là người đáng tin cậy. Người dùng cũng cần thường xuyên cập nhật các kiến thức về công nghệ, đặc biệt là các kiến thức về Deepfake để có thể nhận biết và phòng tránh các thủ đoạn lừa đảo bằng công nghệ này.
Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến.
Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc chiếm đoạt tài sản. Do đó, khi người dân nhận được các cuộc gọi liên quan đến các nội dung về tài chính thì nên tỉnh táo xác nhận thêm.
Về dấu hiệu nhận biết: Thời gian gọi thường rất ngắn chỉ vài giây; khuôn mặt thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể trong video không nhất quán với nhau; màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên. Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Ngắt giữa chừng, bảo là mất sóng, sóng yếu... Yêu cầu chuyển tiền mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi.
Theo ông Vũ Ngọc Sơn - Giám đốc công nghệ Công ty An ninh mạng NCS, các chiêu trò, hình thức lừa đảo gần đây đều không mới nhưng các đối tượng lừa đảo đã ứng dụng công nghệ tiên tiến hiện đại; từ đó khả năng thành công của các chiêu lừa đảo sẽ cao hơn và ngày càng khó lường với người dùng internet.
Với sự phát triển của trí tuệ nhân tạo (AI), các ứng dụng kiểu như Deepfake sẽ giúp một người bình thường, không cần giỏi về công nghệ hay xử lý đồ họa cũng có thể dễ dàng thực hiện được việc ghép ảnh, ghép video, thậm chí là cả giọng nói. Tình trạng lừa đảo bằng Deepfake có thể sẽ bùng phát trong thời gian tới, bởi số tiền các đối tượng chiếm được qua mỗi vụ việc là khá lớn trong khi công sức bỏ ra không nhiều.
Biện pháp phòng tránh
Nếu nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh thông tin:
- Liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác xem có đúng là họ cần tiền không.
- Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch.
- Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không.
- Các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.