Bị lừa hơn 600.000 USD vì AI ghép mặt

Các vụ lừa đảo bằng trí tuệ nhân tạo (AI) đã xảy ra tại một số địa phương ở Trung Quốc, trong đó vụ nghiêm trọng nhất có số tiền bị lừa lên tới hơn 600.000 USD.

Reuters dẫn lời cảnh sát thành phố Bao Đầu thuộc khu tự trị Nội Mông cho biết, ngày 20/5, kẻ lừa đảo sử dụng phần mềm AI ghép khuôn mặt một người bạn của nạn nhân trong cuộc gọi video. Người đàn ông đã chuyển 622.000 USD (14,6 tỷ đồng) vào tài khoản vì tin rằng bạn mình đang cần gấp một khoản đặt cọc để có thể tham gia đấu thầu.

Sau khi nhận được thông tin về vụ lừa đảo, cảnh sát Phúc Châu và Bao Đầu đã ngăn chặn thành công việc chuyển 3,36 triệu NDT, tuy nhiên phần còn lại hiện vẫn đang phải tiếp tục truy tìm.

Đây chỉ là một trong những vụ lừa đảo viễn thông sử dụng công nghệ AI xảy ra thời gian gần đây ở Trung Quốc và được đánh giá là sẽ trở thành vụ án mang tính cột mốc về gian lận viễn thông, đánh dấu hình thức lừa đảo này chính thức bước vào kỷ nguyên của trí tuệ nhân tạo với khả năng biến hóa khôn lường.

Ảnh minh họa

Các vụ án tương tự cũng xảy ra ở Phúc Châu, Phúc Kiến hay Thường Châu, Giang Tô..., với số tiền lừa đảo từ vài nghìn đến vài chục nghìn nhân dân tệ, gióng lên hồi chuông về nguy cơ lừa đảo bằng AI ở Trung Quốc.

Không chỉ ở Trung Quốc, vấn nạn AI mạo danh, hay còn gọi là deepfake, đang lan khắp thế giới. Deepfake là thuật ngữ chỉ sự kết hợp giữa deep learning (học sâu) và fake (giả), trong đó AI được sử dụng để phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời hình ảnh hoặc video trông như thật.

Tại Mỹ, Ủy ban Thương mại Liên bang Mỹ (FTC) thống kê người dân đã mất tổng cộng 2,6 tỷ USD vì cuộc gọi lừa đảo năm 2022, trong số đó có những cuộc gọi deepfake. Sự tiến bộ của AI thời gian qua thúc đẩy nhiều lĩnh vực phát triển, nhưng cũng là công cụ để kẻ xấu khai thác. Chỉ với vài câu nói và hình ảnh thu thập được, kẻ gian có thể dùng trí tuệ nhân tạo chuyển thành bản sao giọng nói và khuôn mặt của một người. Công cụ sau đó "nói" bất cứ thứ gì theo yêu cầu và trở thành phương tiện lừa đảo.

Giới chuyên gia đánh giá, công cụ deepfake đang tràn lan, nhưng cơ quan quản lý vẫn loay hoay kiểm soát. "Thật đáng sợ. Mọi thứ tạo thành cơn bão, đưa nạn nhân lạc vào sự hỗn loạn", giáo sư Hany Farid tại Đại học California nhận xét trên WSJ. "Kẻ gian sẽ đánh vào tâm lý, buộc nạn nhân phản ứng nhanh, khiến họ không đủ bình tĩnh để xử lý vấn đề, đặc biệt là khi nghe tin người thân gặp nguy hiểm".

Thục Anh (TH)

Nguồn Công Lý: https://congly.vn/bi-lua-hon-600-000-usd-vi-ai-ghep-mat-379637.html