Hàng triệu người dùng ngân hàng có thể dính trò lừa đảo bằng giọng nói AI
Thanh Minh, Huyền Thương, Hoàng
23/09/2024
Kẻ gian có thể dễ dàng bắt chước giọng nói của bất kỳ ai từ các video trên mạng xã hội hay tin nhắn thoại, đặt ra thách thức lớn cho an ninh mạng...

Một ngân hàng ở Anh đã cảnh báo rằng "hàng triệu" người có thể trở thành nạn nhân của các vụ lừa đảo sử dụng trí tuệ nhân tạo để sao chép giọng nói của họ.
CHỈ CẦN 3 GIÂY, KẺ XẤU CÓ THỂ LỢI DỤNG AI ĐỂ SAO CHÉP GIỌNG NÓI
Starling Bank, một công ty cho vay trực tuyến, cho biết những kẻ lừa đảo có khả năng sử dụng AI để sao chép giọng nói của một người chỉ từ ba giây âm thanh tìm thấy trong một video mà người đó đã đăng trực tuyến. Sau đó, những kẻ lừa đảo có thể xác định bạn bè và thành viên gia đình của người đó và sử dụng giọng nói được sao chép bằng AI để dàn dựng một cuộc gọi điện thoại yêu cầu tiền.
Starling Bank cho biết trong một thông cáo báo chí hôm thứ Tư rằng những kiểu lừa đảo này có khả năng "dụ hàng triệu người".
Thực tế, hiện tại kiểu lừa đảo sao chép giọng nói bằng AI đã ảnh hưởng đến hàng trăm người. Theo một cuộc khảo sát đối với hơn 3.000 người lớn mà ngân hàng này thực hiện với Mortar Research vào tháng trước, hơn một phần tư số người được hỏi cho biết họ đã trở thành mục tiêu của một vụ lừa đảo sao chép giọng nói bằng AI trong 12 tháng qua.
Cuộc khảo sát cũng cho thấy 46% người được hỏi không biết về những vụ lừa đảo như vậy và 8% sẽ gửi số tiền theo yêu cầu của bạn bè hoặc thành viên gia đình, ngay cả khi họ nghĩ cuộc gọi có vẻ lạ.
"Mọi người thường xuyên đăng nội dung trực tuyến có ghi âm giọng nói của họ mà không bao giờ nghĩ rằng điều đó khiến họ dễ bị lừa đảo hơn", Lisa Grahame, giám đốc an ninh thông tin tại Starling Bank, cho biết trong thông cáo báo chí.
Ngân hàng khuyến khích mọi người đồng ý một "cụm từ an toàn" với những người thân yêu của họ - một cụm từ đơn giản, ngẫu nhiên, dễ nhớ và khác với các mật khẩu khác của họ - có thể được sử dụng để xác minh danh tính của họ qua điện thoại.
Bên cho vay khuyên không nên chia sẻ cụm từ an toàn qua tin nhắn văn bản, điều này có thể khiến những kẻ lừa đảo dễ dàng phát hiện ra hơn, nhưng nếu chia sẻ theo cách này, tin nhắn nên được xóa sau khi người kia đã nhìn thấy.
Khi AI ngày càng thành thạo trong việc bắt chước giọng nói của con người, mối lo ngại ngày càng tăng về khả năng gây hại cho mọi người bằng nhiều cách, chẳng hạn như tội phạm có thể truy cập vào tài khoản ngân hàng của họ và phát tán thông tin sai lệch.
Đầu năm nay, OpenAI, nhà sản xuất chatbot AI tạo ra ChatGPT, đã công bố công cụ sao chép giọng nói của mình, Voice Engine, nhưng không cung cấp cho công chúng vào thời điểm đó, với lý do "có khả năng sử dụng vào những mục đích không phù hợp”.
KHÔNG CHỈ HẠN CHẾ HÌNH ẢNH, GIỜ ĐÂY CÒN PHẢI HẠN CHẾ CHIA SẺ GIỌNG NÓI LÊN MẠNG XÃ HỘI
Trước sự gia tăng đáng báo động của các vụ lừa đảo sử dụng giọng nói giả mạo, các nhà chức trách đang tích cực tìm kiếm giải pháp để bảo vệ công dân. Việc kẻ gian có thể dễ dàng bắt chước giọng nói của bất kỳ ai từ các video trên mạng xã hội hay tin nhắn thoại cũng đặt ra thách thức lớn cho an ninh mạng. Đứng trước tình hình này, các nhà lập pháp trên thế giới đang nỗ lực ban hành những quy định mới nhằm hạn chế hoạt động của kẻ gian.
Cụ thể, các dự luật của Hoa Kỳ đã được đưa ra nhằm yêu cầu các công ty công nghệ phải đánh dấu kỹ thuật số lên những nội dung được tạo bởi trí tuệ nhân tạo, giúp người dùng dễ dàng phân biệt giữa thông tin thật và giả. Đồng thời, các cơ quan chức năng cũng đang nghiên cứu các công nghệ mới để xác định nguồn gốc của âm thanh tổng hợp, nhằm ngăn chặn các hoạt động lừa đảo.

Tuy nhiên, trong khi chờ đợi các quy định mới có hiệu lực, các nhà chức trách khuyến cáo người dân nên nâng cao cảnh giác và tự bảo vệ bản thân bằng cách tạo ra những mật khẩu bí mật để xác minh danh tính người gọi, cũng như không cung cấp thông tin cá nhân cho người lạ.
Cụ thể, để bảo vệ bản thân khỏi những vụ lừa đảo sử dụng giọng nói giả mạo, người dùng cần thực hiện một số biện pháp phòng ngừa. Đầu tiên, hãy luôn xác minh danh tính của người gọi, đặc biệt khi họ yêu cầu tiền hoặc thông tin nhạy cảm. Sử dụng một mật khẩu bí mật đã thỏa thuận trước với người thân để kiểm tra tính xác thực.
Thứ hai, hạn chế chia sẻ các bản ghi âm giọng nói của bạn công khai trên mạng xã hội. Thứ ba, tận dụng tính năng sàng lọc cuộc gọi để lọc bỏ các số điện thoại không rõ nguồn gốc. Tuyên truyền, giáo dục về các hình thức lừa đảo giả mạo giọng nói cũng là một biện pháp được khuyến nghị, theo đó có thể thông báo cho bạn bè và gia đình để họ cũng cảnh giác và phòng tránh.
Từ khóa:
Khám phá lý do Ấn Độ trở thành thị trường màu mỡ cho các công ty AI lớn như OpenAI và Google.
Khám phá K-visa của Trung Quốc - chiến lược mới thu hút nhân tài STEM toàn cầu giữa cuộc đua công nghệ với Mỹ.
Khám phá nghiên cứu mới từ Mỹ cho thấy AI không 'giết chết' việc làm mà chỉ thay đổi cách làm việc.
Khám phá cuộc đua giữa Nvidia và các đối thủ Trung Quốc trong lĩnh vực AI và công nghệ. Ai sẽ giành chiến thắng cuối cùng?
Khám phá thách thức tăng trưởng nóng của Bengaluru, trung tâm công nghệ Ấn Độ, và ảnh hưởng đến cơ sở hạ tầng và môi trường.
Huawei chuẩn bị tăng gấp đôi sản lượng chip AI, cạnh tranh với Nvidia trong bối cảnh khó khăn tại Trung Quốc.
CEO Nvidia khẳng định Trung Quốc đang rút ngắn khoảng cách với Mỹ trong lĩnh vực chip và AI. Tìm hiểu thêm về tiềm năng cạnh tranh này.
Khám phá lý do nhân tài công nghệ Trung Quốc từ bỏ giấc mơ Mỹ để trở về quê hương, trong bối cảnh thay đổi toàn cầu.
Khám phá tham vọng của Ấn Độ trong việc trở thành cường quốc sản xuất chip với đầu tư 18 tỷ USD. Đọc ngay để biết thêm chi tiết!
Khám phá chiến lược mới của Trung Quốc trong việc phát triển trung tâm dữ liệu phân tán để nâng cao khả năng AI.