Thứ Sáu, 22/11/2024
Tin mới nhất
Đăng nhập
Chính trị
Lãnh đạo Đảng
Chủ tịch nước
Quốc hội
Chính phủ
Mặt trận
Các cuộc vận động
Tiếng nói cơ sở
Người Mặt trận
Giám sát - Phản biện
Kiều bào
Dân tộc
Tôn giáo
Tư vấn
Tiếng dân
Điều tra
Chúng tôi lên tiếng
Xã hội
An sinh xã hội
Môi trường
Chuyện tử tế
Kinh tế
Tài chính
Thị trường
Pháp luật
Quy định mới
Giáo dục
Đô thị
Giao thông
Văn hóa
Giải trí
Sức khỏe
Các bệnh dịch
Thể thao
Bất động sản
Công nghệ
Sản phẩm số
Góc nhìn Đại Đoàn Kết
Quốc tế
Tinh hoa Việt
Du lịch
Thông tin doanh nghiệp
Multimedia
Góc nhìn Đại Đoàn Kết
Quốc tế
Tinh hoa Việt
Du lịch
Thông tin doanh nghiệp
Multimedia
Tin mới nhất
Chính trị
Lãnh đạo Đảng
Chủ tịch nước
Quốc hội
Chính phủ
Mặt trận
Các cuộc vận động
Tiếng nói cơ sở
Người Mặt trận
Giám sát - Phản biện
Kiều bào
Dân tộc
Tôn giáo
Tư vấn
Tiếng dân
Điều tra
Chúng tôi lên tiếng
Xã hội
An sinh xã hội
Môi trường
Chuyện tử tế
Kinh tế
Tài chính
Thị trường
Pháp luật
Quy định mới
Giáo dục
Đô thị
Giao thông
Văn hóa
Giải trí
Sức khỏe
Các bệnh dịch
Thể thao
Bất động sản
Công nghệ
Sản phẩm số
Góc nhìn Đại Đoàn Kết
Quốc tế
Tinh hoa Việt
Trò chuyện
Chuyển động
Cuộc sống muôn màu
Du lịch
Thông tin doanh nghiệp
Multimedia
Video
Ảnh
Infographic
Emagazine
Deepfake
Tin tức cập nhật liên quan đến Deepfake
Cảnh báo Deepfake lừa đảo
Ngày càng nhiều trường hợp người dân bị các đối tượng lừa đảo sử dụng Deepfake để tạo ra các video, hình ảnh hoặc âm thanh giả mạo nhằm chiếm đoạt tài sản, xúc phạm danh dự hoặc phá hoại uy tín của người khác... Nhằm giúp người dân tránh các “bẫy” lừa đảo, Trung tâm Xử lý tin giả, thông tin xấu độc Việt Nam (VAFC) đã đưa ra những cảnh báo cần thiết.
Xã hội
Người phụ nữ bị lừa gần 350 triệu đồng vì chiêu gọi Deepfake
Thấy tài khoản Facebook của chị gái vừa call video để mượn tiền, người phụ nữ ở Thanh Hóa đã nhanh chóng chuyển gần 350 triệu đồng nhưng sau đó mới ngã ngửa khi biết đối tượng lừa đảo dùng công nghệ Deepfake để giả dạng khuôn mặt.
[Infographics] 5 dấu hiệu nhận biết cuộc gọi lừa đảo deepfake
Cục An toàn thông tin đã đưa ra 5 dấu hiệu nhận biết cuộc gọi kiểu deepfake (dùng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung) để lừa đảo.
Công an Hà Nội cảnh báo thủ đoạn dùng ‘Deepfake’ để lừa đảo
Công an thành phố Hà Nội vừa có cảnh báo tới người dân về thủ đoạn lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.
Chuyên gia an ninh mạng cảnh báo chiêu thức lừa đảo bằng Deepfake giả giọng nói, khuôn mặt người thân
Gọi video để giả làm người thân vay tiền, chuyển tiền bằng công cụ giả lập sâu (Deepfake) đang diễn biến ngày càng phức tạp với số lượng nạn nhân sập bẫy liên tục gia tăng.
Xem thêm