/

Dùng AI để lừa đảo

08:27 09/03/2023
346 lượt xem

Sau màn ra mắt đình đám của ChatGPT, Microsoft và Google là những ông lớn công nghệ theo sau để không bỏ lỡ làn sóng này với những công cụ tích hợp AI hoàn toàn mới. Mặc dù có tiềm năng rất lớn như trả lời mọi câu hỏi của người dùng, làm thơ, viết code… các công cụ AI này dần bộc lộ mặt trái đáng báo động. Gần đây,  nhiều kẻ gian lợi dụng những công cụ này để thực hiện hành vi lừa đảo những người thân trong gia đình với nhiều chiêu trò tinh vi.

Chưa bao giờ ông John Bridges Người dân Mỹ nghĩ rằng bản thân sẽ trở thành nạn nhân của lừa đảo qua điện thoại.Cơn ác mộng bắt đầu khi ông John nhận được một cuộc điện thoại trong một buổi tối cuối tuần bình thường.

Ông John Bridges “Khi nhấc máy, tôi nghe thấy tiếng khóc.”Giọng nói là của Brittany, con gái ông. “Bố ơi cứu con với, con gặp nạn, rồi một giọng nam nói rằng hắn đang giữ con tôi trong xe, nếu tôi không nghe theo lời hắn và báo cảnh sát, tôi sẽ không bao giờ gặp lại con mình nữa.”

Ông John Bridges  và con gái

Hắn ta yêu cầu ông John giữ máy, mang theo tiền và đến địa điểm chỉ định.Sau khi đến địa điểm mà đầu dây bên kia cung cấp, ông John được yêu cầu chuyển tiền đến Mexico. Nhưng rất may, trước khi ông thực hiện giao dịch thì con gái ông Brittany đã gọi cho mẹ.

Gia đình ông John đã báo cảnh sát ngay sao đó. Theo điều tra của cơ quan chức năng, số điện thoại gọi cho ông John không được đăng ký, và phần giọng của con gái ông được thực hiện bởi AI.

Không phải ai cũng may mắn như ông John. Theo dữ liệu từ Ủy ban Thương mại Liên bang Mỹ (FTC), năm 2022, mạo danh là hình thức lừa đảo phổ biến thứ hai ở xứ sở cờ hoa với hơn 36.000 vụ việc. Kẻ gian thường giả mạo bạn bè hoặc gia đình để khiến nạn nhân mắc lừa. Riêng lừa đảo qua điện thoại chiếm hơn 5.100 trường hợp, gây thiệt hại hơn 11 triệu USD.

Các vụ lừa đảo công nghệ tăng mạnh, và câu chuyện của ông John cho thấy xu hướng mới đáng lo ngại: kẻ gian đang lợi dụng AI bắt chước giọng nói cho mục đích lừa tiền.

Kẻ gian sẽ thu thập những mẫu âm thanh có giọng nói của bạn trên mạng như một bản ghi âm từ Facebook, TikTok bất cứ thứ gì chúng tìm được, giọng nói của bạn sẽ được sao chép chỉ trong 30 giây bằng phần mềm có tích hợp AI. Ngay sau đó, phần mềm này sẽ cho phép kẻ gian sử dụng giọng nói của nạn nhân để nói bất cứ thứ gì chúng muốn.

Công nghệ đang ngày càng rẻ, dễ tiếp cận và số nạn nhân ngày càng tăng, chủ yếu nhắm đến người lớn tuổi.

Ông Larry Maggid – Chuyên gia tại Connectsafty.org: “Nếu nhận được một cuộc gọi người thân hay bạn bè gặp chuyện và cần một khoản tiền hãy cảnh giác có thể bạn đang bị lừa.”

Giới chuyên gia đánh giá, công cụ AI giả giọng nói đang tràn lan, dẫn đến tình trạng lạm dụng. Các cơ quan quản lý thì vẫn loay hoay kiểm soát. Trong khi đó, hầu hết nạn nhân đều khó xác định thủ phạm vì kẻ lừa đảo hoạt động trên khắp thế giới.

Vì vậy để bảo vệ bản thân không trở thành nạn nhân của những kẻ lừa đảo, chúng ta cần nêu cao cảnh giác trong mọi trường hợp. Nếu nhận cuộc gọi từ người lạ hoặc từ người thân nhờ hỗ trợ, người dùng cần kiểm tra bằng cách gọi lại cho chính người đang gặp sự cố, cũng như gọi cho các thành viên khác trong gia đình để xác minh thông tin.

Theo TTXVN

 

Xem thêm phản hồi...