2024.05 Thường thức đời sống
THẬT GIẢ LẪN LỘN THỦ PHÁP LỪA ĐẢO CỦA AI ĐƯỢC TIẾT LỘ
FENC / Jian Junru
Với sự phát triển nhanh chóng của AI, các ứng dụng liên quan dần dần thâm nhập vào đời sống của mọi người. Tuy nhiên theo sau đó cũng là các vụ lừa đảo cũng không ngừng gia tăng. Một cuộc điện thoại quen thuộc, một email công việc, một cuộc họp trực tuyến nhìn tưởng như bình thường có thể ẩn chứa những cái bẫy AI không xác định được. Nếu bạn cả tin, tài sản cá nhân, danh dự thậm chí cả thông tin cá nhân của bạn có thể bị phá hủy chỉ sau một đêm. Mạng lưới thông tin kỳ này liệt kê các phương thức lừa đảo mới nhất của AI để nhắc nhở bạn tự bảo vệ mình.
Các ứng dụng AI trong đời sống
Bạn từng sử dụng ChatGPT để viết email hay tạo một tấm hình chưa? Những công việc này từng tiêu tốn rất nhiều thời gian để hoàn thành, ngày nay sau khi AI ra đời, các công việc kể trên trở nên dễ dàng hơn. Tuy nhiên, không chỉ chúng ta sử dụng AI, tin tặc cũng sử dụng công cụ này để tăng tính công kích khi tủ lệ email lừa đảo ngày càng tăng. Sự gia tăng không chỉ gây ra mối đe dọa cho các cá nhân mà còn đặt ra những thách thức nghiêm trọng đối với vấn đề bảo mật thông tin của doanh nghiệp.
Tấn công lừa đảo truyền thống VS tấn công lừa đảo AI
Trước đây, người đọc có thể đưa ra đánh giá sơ bộ về email lừa đảo thông qua các câu khó hiểu, các ký tự biến thể lạ, lỗi chính tả hoặc các sai sót khác. Tuy nhiên, với sự trợ giúp của AI, tính chân thực của email lừa đảo đã được cải thiện rất nhiều, không chỉ phong cách ngôn ngữ và cách diễn đạt chân thực chính xác hơn, nội dung thậm chí có thể mô phỏng theo thông tin cá nhân và hành vi của người bị hại, khiến người khác khó phân biệt. Ví dụ về ngôn ngữ, tin tặc có thể cung cấp các ản thảo bằng tiếng Anh và yêu cầu ChatGPT viết lại để cải thiện chất lượng, hoặc có thể dùng chính ngôn ngữ của tin tặc yêu cầu ChatGPT phiên dịch thành tiếng Anh rồi làm nội dung lừa đảo.
Có thể dùng AI tạo ta email BEC lừa đảo không?
“BEC Email Compromise” (Thỏa hiệp email doanh nghiệp) được giới thiệu vào năm 2023 hay còn gọi là “cuộc tấn công lừa đảo thay đổi khuôn mặt”, nghĩa là hacker sẽ giả danh nhân viên nội bộ, quản lý cấp cao, nhà cung cấp hoặc đối tác bên ngoài, v.v. để lừa dối nhân viên. thực hiện thanh toán chuyển khoản hoặc rò rỉ thông tin bí mật. Khi phạm vi ứng dụng AI ngày càng rộng hơn, số vụ lừa đảo BEC cũng ngày càng gia tăng. Sau khi tin tặc chiếm quyền điều khiển cuộc trò chuyện qua email và cung cấp nội dung email cho ChatGPT, một email trả lời tương ứng có thể được tạo một cách tự nhiên, thậm chí có thể bắt chước giọng điệu và phong cách viết của email gốc, khiến người bình thường khó nhìn thấu hơn.
Mặt tối của ChatGPT
Bạn có bao giờ nghĩ tới ChatGPT cũng sẽ biến chất không? Tin tặc sử dụng công nghệ lập trình AI tổng quát để sửa đổi mã trong phần mềm độc hại nhằm tạo ra các robot chuyên tấn công FraudGPT và WormGPT tạo ra một số lượng lớn các email giao tiếp xã hội, những người không có nền tảng lập trình có thể dễ dàng tạo ra virus và mở rộng phạm vi thiệt hại do phần mềm độc hại. Các công cụ được liệt kê trên của AI còn cung cấp dịch vụ đăng ký, người dùng có thể trả 200 USD mỗi tháng là có thể khởi động các cuộc lừa đảo phức tạp.
Bạn đã nghe nói về AI Stefanie Sun chưa?
Khi chúng ta nghe thấy một giọng nói quen thuộc nhưng không thể xác nhận tính xác thực của nó, chúng ta nên cảnh giác xem liệu mình có gặp phải những trò lừa đảo AI giả mạo hay không. Đặc biệt trong những năm gần đây, công nghệ AI đã giúp việc sao chép giọng nói của người khác trở nên dễ dàng hơn. Lấy ca sĩ Stefanie Sun làm ví dụ, cư dân mạng đã sử dụng những bài hát cô đã hát làm tài liệu đào tạo, dùng mô hình AI để tạo ra giọng nói cực kỳ chân thật bao gồm cả cách lấy hơi, cách phát âm và âm đuôi đều rất giống với ca sỹ, càng ngạc nhiên hơn nữa là tạo ra điều này chỉ mất có “3 giây”. Do đó, tin tặc có thể dễ dàng thu thập thông tin cá nhân và giọng nói thông qua các bảng câu hỏi, đánh cắp, mua bán,… để tiến hành các cuộc tấn công chính xác hơn. Mọi người nên cẩn thận bảo vệ thông tin cá nhân của mình và đề phòng lừa đảo.
Nhìn thấy tận mắt mới tin ? Không nhìn thấy trực tiếp là không tin tưởng ?
Kể từ năm 2017, công nghệ deepfake đã nhận được sự quan tâm rộng rãi, thuật ngữ này là sự kết hợp giữa hai từ deep learning và fake, ám chỉ việc sử dụng công nghệ deepfake của AI để tổng hợp hình ảnh, video thậm chí là âm thanh. Trước đây, trên các nền tảng xã hội rất phổ biến các ứng dụng sử dụng hình ảnh của mình biến già đi hoặc trẻ lại, thực chất đó là công nghệ deepfake. Ngoài việc sử dụng để giải trí, nó còn có thể trở thành công cụ để hacker thực hiện hành vi lừa đảo. Lấy vụ lừa đảo AI mới gần đây ở Hồng Kông làm ví dụ, bọn tội phạm đã sử dụng deepfake để tham gia các cuộc họp trực tuyến đồng thời giả làm giám đốc điều hành cấp cao của công ty yêu cầu nhân viên tài chính của chi nhánh Hồng Kong chuyển 200 triệu HKD cho các giao dịch bí mật. Trong thời đại AI, việc nhìn thấy mới tin tưởng đã trở thành quá khứ, ngay cả khi bạn nhìn thấy hình cũng không chắc đó là sự thật.
Đạo cao một thước, ma cao một trượng Làm sao để tự bảo vệ mình
Trước tình trạng lừa đảo AI tràn lan, các công ty không được xem nhẹ. Báo cáo thường niên của Cục Điều tra Liên bang (FBI) cho thấy thiệt hại do lừa đảo trên Internet ở Hoa Kỳ vào năm 2023 lên tới 12,5 tỷ USD, tăng 22% so với năm trước và thậm chí là mức cao mới trong 6 năm. Đồng thời, số lượng tin tặc sử dụng AI để tiến hành tấn công mạng cũng tăng trưởng ở mức đáng báo động. Tôi muốn nhắc nhở mọi người rằng nếu nhận được một lá thư đáng ngờ, hãy nhớ các nguyên tắc “không nhấp vào liên kết một cách bốc đồng và tải xuống các tập tin không xác định”, “không tùy ý cung cấp thông tin cá nhân và thông tin tài chính”, “chú ý hơn đến tên miền và tên mạng", bất kể đó là lừa đảo văn bản, giọng nói hoặc video, bạn nên sử dụng kênh thứ hai để xác nhận tính xác thực của nội dung. Bạn cũng có thể xác minh tính xác thực của cuộc gọi điện thoại hoặc video thông qua mật mã chỉ được cả hai bên biết để tránh trở thành nạn nhân.
Ngoài ra, tin tặc cũng sử dụng thông tin cá nhân công khai và âm thanh kỹ thuật số để lừa đảo, vì vậy mọi người nên tự bảo quản thông tin cá nhân, cài đặt quyền riêng tư trên nền tảng xã hội và tránh đăng ảnh chính diện mặt công khai. Đối với các doanh nghiệp, nâng cao nhận thức về bảo mật thông tin, tăng cường xác thực danh tính nhiều lớp và thiết lập cơ chế bảo vệ dữ liệu, đó là những phương pháp bảo vệ quan trọng. Chỉ bằng cách tăng cường cảnh giác và bảo vệ tài khoản, mật khẩu, thông tin cá nhân, chúng ta mới có thể tránh xa những rủi ro tiềm ẩn do AI mang lại.
*Photo credit:Freepik
#