Việt Nam vươn mình trong kỷ nguyên mới
Logo
Đăng ký ấn phẩm|Đăng nhập

Lợi dụng Deepfake giả cuộc gọi video để lừa đảo, công an cảnh báo điều gì?

Kinhtedothi - Nắm bắt được tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng thủ đoạn tinh vi hơn, lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.

Ngày 31/3, Công an TP Hà Nội thông tin, thời gian gần đây, tình hình tội phạm lừa đảo chiếm đoạt tài sản trên không gian mạng diễn biến phức tạp. Nắm bắt được tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng thủ đoạn tinh vi hơn, lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.

Deepfake là công nghệ ứng dụng trí tuệ nhân tạo (AI) tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Dựa trên tệp tin hình ảnh khuôn mặt, giọng nói của một người ngoài đời thực, Deepfake sẽ sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm của một người khác; sau đó tạo ra video giả mạo hoàn toàn đối tượng ngoài đời thực.

Công nghệ Deepfake.

Thông qua mạng Internet, các đối tượng thu thập hình ảnh, giọng nói của người dùng trên mạng xã hội, sử dụng công nghệ Deepfake tạo ảnh động, video giả mạo người dùng đang nói chuyện trực tuyến với cùng khuôn mặt, âm điệu giọng nói và cách xưng hô.

Đối tượng tạo lập tài khoản giả mạo trên mạng xã hội trùng thông tin và ảnh đại diện với người dùng, kết bạn với nạn nhân trong danh sách bạn bè và nhắn tin vay mượn tiền theo kịch bản sẵn có. Trong một số trường hợp, đối tượng chiếm đoạt tài khoản mạng xã hội của người dùng để trực tiếp nhắn tin cho các nạn nhân trong danh sách bạn bè. Để tạo lòng tin với nạn nhân, đối tượng truyền tải Deepfake video sẵn có lên kênh video call, khiến nạn nhân nhận ra hình ảnh và giọng nói của người quen và nhanh chóng chuyển tiền theo yêu cầu của đối tượng.

Với công nghệ Deepfake, video giả mạo có độ chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video do đối tượng tạo sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp với nạn nhân, có thể khiến nạn nhân nghi ngờ, phát hiện. Để che lấp khuyết điểm trên, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét giống cuộc gọi video có tín hiệu chập chờn được thực hiện trong khu vực phủ sóng di động/wifi yếu.

Đây là thủ đoạn lừa đảo rất mới, rất tinh vi. Công an TP Hà Nội đề nghị mọi người nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội.

Ngoài ra, người dân cũng cần bình tĩnh, sau đó gọi điện thoại hoặc liên lạc trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng mạng xã hội như Zalo, Messenger, Viber, Telegram…).

Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản thì người dân cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.

Tránh bẫy lừa đảo Deepfake, cách nào?

Tránh bẫy lừa đảo Deepfake, cách nào?

Đọc nhiều
HỎI ĐÁP THÔNG MINH

CẢM NHẬN CỦA BẠN VỀ BÀI VIẾT NÀY

  • Rất hay
  • Thích
  • Giải trí
  • Cần cải thiện

BÌNH LUẬN (0)

Đừng bỏ lỡ
Việt Nam lần đầu ghép tim nhân tạo

Việt Nam lần đầu ghép tim nhân tạo

17 Apr, 02:51 PM

Hà Nội- Người phụ nữ 46 tuổi suy tim giai đoạn cuối, được bác sĩ Bệnh viện Trung ương Quân đội 108 ghép tim nhân tạo bán phần để duy trì sự sống.

Hà Nội dự kiến giảm 50% xã, phường

Hà Nội dự kiến giảm 50% xã, phường

04 Apr, 10:07 AM

Hà Nội xây dựng phương án sắp xếp các đơn vị hành chính cấp xã, dự kiến giảm khoảng 50% so với hiện tại, từ 526 phường, xã, thị trấn, xuống còn khoảng 263 đơn vị.

Tin mới
VIDEO
Tin Tài Trợ