Mỹ cảnh báo tình trạng lợi dụng công nghệ AI để lừa đảo
(VOVTV) - “Cứu con với, mẹ ơi, cứu con với!” - bà Jennifer DeStefano đã không khỏi hoảng loạn khi nghe thấy cô con gái 15 tuổi của mình kêu khóc trong điện thoại và sau đó là giọng của một người đàn ông dọa nạt, đòi tiền chuộc.
Người phụ nữ sống ở bang Arizona (Tây Nam nước Mỹ) này khi đó đã tin rằng con gái của bà đã gặp phải sự cố nghiêm trọng khi đi trượt tuyết. Chia sẻ với báo giới hồi tháng 4 vừa qua, bà DeStefano cho biết: "Tôi chẳng hề nghi ngờ, dù chỉ một giây, rằng liệu đó có phải con mình hay không. Đó chính xác là giọng nói của con tôi... là cách mà con tôi khóc". Thế nhưng đó chỉ là một vụ bắt cóc giả tạo và giọng nói của cô con gái là một "tác phẩm sao chép" của trí tuệ nhân tạo (AI).
Giới chuyên gia cho rằng mối nguy lớn nhất mà AI tạo ra là khả năng phá bỏ ranh giới giữa thực tế và hư cấu, gián tiếp trao cho tội phạm mạng một công nghệ với chi phí thấp nhưng rất hiệu quả để truyền bá thông tin sai lệch.
Những thủ đoạn lừa đảo sử dụng công nghệ AI này đang gây chấn động nước Mỹ. Các đối tượng phạm tội thường lợi dụng những công cụ nhân bản giọng nói theo công nghệ AI phổ biến trên mạng Internet để đánh cắp tiền của nạn nhân, bằng cách mạo danh thành viên trong gia đình họ. Ví dụ, kẻ lừa đảo nêu trên đã gọi cho bà DeStefano từ một số máy lạ và yêu cầu khoản tiền chuộc lên tới 1 triệu USD. Tuy nhiên, mánh lới của y đã nhanh chóng bị phanh phui sau đó khi bà DeStefano liên lạc trực tiếp với con gái mình. Mặc dù vậy, các cơ quan chức năng của Mỹ vẫn yêu cầu người dân cảnh giác cao độ trước khả năng tội phạm mạng lợi dụng các bản sao AI.
Ông Wasim Khaled - Giám đốc điều hành (CEO) của Blackbird.AI, công ty hàng đầu về cung cấp các giải pháp AI - cho biết: “Việc AI có thể sao chép giọng nói của con người với mức độ chân thực tới tuyệt hảo tạo điều kiện cho những kẻ lừa đảo đánh cắp thông tin và tiền của nạn nhân một cách hiệu quả hơn. Chỉ cần một thao tác tìm kiếm đơn giản trên Internet là chúng ta có thể tiếp cận rất nhiều ứng dụng có sẵn và miễn phí, để tạo ra giọng nói AI từ một đoạn thoại ngắn - đôi khi chỉ kéo dài vài giây - giọng nói chính chủ của người được nhắm tới. Từ một đoạn thoại ngắn làm mẫu, bản sao giọng nói AI có thể được sử dụng như thư thoại và văn bản thoại. Nó thậm chí cũng được sử dụng như một công cụ thay đổi giọng nói trực tiếp trong các cuộc gọi điện thoại. Tội phạm có thể sử dụng các giọng nói, giới tính khác nhau, hoặc thậm chí bắt chước kiểu cách nói chuyện của những người thân của nạn nhân. Công nghệ cho phép tạo ra những lời thoại giả mạo đầy thuyết phục".
Trong một cuộc khảo sát do công ty McAfee Labs (Mỹ) tiến hành hồi tháng trước với 7.000 người từ 9 quốc gia, trong đó bao gồm cả Mỹ, có tới 25% số người được hỏi cho biết họ từng trực tiếp là nạn nhân hoặc từng được nghe về các trường hợp bị lừa đảo thông qua nhân bản giọng nói AI. Trong khi đó, 70% số người được hỏi thừa nhận họ không tự tin rằng mình có thể "phân biệt được giọng nói của người thật và giọng nói AI".
Trên thực tế, từ tháng 3 vừa qua, giới chức Mỹ đã cảnh báo về sự gia tăng của vấn nạn "lừa đảo ông bà", cụ thể là các đối tượng mạo danh một người cháu đang gặp khó khăn và cần tiền gấp. Ví dụ trường hợp của Eddie, một thanh niên 19 tuổi ở Chicago. Ông của cậu nhận được cuộc gọi từ một "Eddie giả", nói rằng anh ta cần tiền gấp để khắc phục hậu quả tai nạn ô tô. Theo báo cáo của McAfee Labs, thủ đoạn này thuyết phục đến mức ông nội của Eddie khẩn trương gom tiền và thậm chí còn cân nhắc việc thế chấp căn nhà của mình để dàn xếp sự cố của cháu trai.
Giáo sư Hany Farid, trường Thông tin UC Berkeley, cho biết: "Hiện nay rất dễ tạo ra các bản sao giọng nói có độ chân thực cao... Hầu hết những người có hoạt động trực tuyến đều có thể trở thành mục tiêu tấn công. Những thủ đoạn này đang ngày càng phổ biến". Trong khi đó, ông Gal Tal-Hochberg - Giám đốc công nghệ của công ty đầu tư mạo hiểm Team8 - tỏ ra bi quan: “Chúng ta đang tiến nhanh đến thời điểm mà chính mình không thể tin tưởng vào những gì mình nhìn thấy trên Internet".
Tin nổi bật
Tin Video