Trang

09/12/2024

FBI dặn: "Hãy gác máy điện thoại ngay và tạo ra một “từ ngữ” bí mật."

Việc sử dụng AI để lừa đảo trên cell phone đang tăng lên: từ những lừa đảo nhắm vào người dùng Gmail cho đến ứng dụng cờ bạc gian lận và lừa đảo ngân hàng chống “bảo vệ sinh trắc học” tinh vi... đó chỉ là tên vài trò lừa đảo (The use of AI in smartphone cyber attacks is increasing as recent reports have revealed; from tech support scams targeting Gmail users to fraudulent gambling apps and sophisticated biometric protection-busting banking fraud to name but a few) .

FBI đã đưa ra cảnh báo AI được sử dụng để lường gạt và khuyên người dùng cell phone nên cúp máy và hãy tạo ngay ra một từ bí mật để giúp giảm thiểu những cuộc tấn công của kẻ gian.

FBI cho biết: “Kẻ gian dùng AI tạo nội dung lừa đảo tinh vi đến độ không có dấu hiệu gì là gian lận”. FBI xác nhận, hiện nay rất khó khăn để xác định cái gì là thật và cái gì là do AI tạo ra. Cell phone là thứ bị tấn công theo kiểu “giả mạo AI” nhiều nhất, đặc biệt là những kiểu tấn công sử dụng cả khuôn mặt và giọng nói.

Đại khái kẻ gian dùng AI tạo ra khuôn mặt và giọng nói người thân của các bạn gọi các bạn để lừa).

Việc sử dụng AI tạo ra để tạo ra hình ảnh giả nạn nhân để thuyết phục họ rằng họ đang nói chuyện với một người thật.

Việc sử dụng AI tạo ra để tạo ra hình ảnh của những người nổi tiếng hoặc nhân vật truyền thông xã hội thúc đẩy hoạt động gian lận.

Các clip âm thanh ngắn do AI tạo ra chứa giọng nói của người thân hoặc người thân trong tình huống khủng hoảng để yêu cầu hỗ trợ tài chính. AI tạo ra hình ảnh giọng nói các giám đốc điều hành công ty, cơ quan thực thi pháp luật hoặc các nhân vật có thẩm quyền khác để "chứng minh" liên lạc trực tuyến là một "người thực sự".

Siggi Stefnisson, Giám đốc kỹ thuật an toàn mạng tại nền tảng bảo mật dựa trên platform Gen, bao gồm Norton và Avast, cảnh báo: “Deepfakes sẽ trở nên không thể nhận ra, AI đủ tinh vi ngay cả các chuyên gia cũng có thể không biết thực hay giả.” FBI khuyên mọi người sẽ phải tự hỏi mỗi khi họ nhìn thấy một hình ảnh hoặc xem một video qua cell phone: có phải thật không? Stefnisson nói, “điều này có thể mang tính cá nhân như thấy một người bạn cũ bị “bôi lọ” lan truyền tin qua hình ảnh giả trên mạng xã hội, hoặc cực đoan hơn như chính phủ thao túng toàn bộ dân chúng bằng cách phát hành video lan truyền thông tin sai lệch chính trị.” (Hiện người ta dùng AI tạo video giả, tạo hình ảnh giả, tạo giọng nói giả đề cao hay để mạ lỵ các nhân vật nổi tiếng. Có rất đông đảo dân chúng tin như đinh đóng cột rằng đó là chuyện thật 1000%)

FBI nói rằng hãy cúp máy và tạo ra một từ bí mật.

Để giảm thiểu nguy cơ tấn công mạng AI dựa trên cell phone , FBI đã cảnh báo rằng công chúng nên làm những việc sau: Tôi để nguyên văn

The FBI warned of the following examples of AI being used in cyber attacks, mostly phishing-related.

    The use of generative AI to produce photos to share with victims so as to convince them they are speaking to a real person.

    The use of generative AI to create images of celebrities or social media personas promoting fraudulent activity.

    AI-generated short audio clips containing the voice of a loved one or close relative in a crisis situation to ask for financial assistance.

    AI-generated real-time video chats with alleged company executives, law enforcement, or other authority figures.

    AI-created videos to "prove" the online contact is a "real person."

Cúp điện thoại hãy liên lạc trực tuyến và gọi trực tiếp số điện thoại được tìm thấy.

Tạo một từ hoặc cụm từ bí mật mà gia đình và người liên lạc của bạn biết để có thể sử dụng cho mục đích nhận dạng trong trường hợp cuộc gọi khẩn cấp thực sự.

Không bao giờ chia sẻ thông tin nhạy cảm với những người bạn chỉ gặp trực tuyến hoặc qua điện thoại.

 Bài còn dài, biết chừng nầy chắc cũng tạm đủ. Tóm tắt là kẻ gian dùng AI tạo hình ảnh video và giọng nói người thân các bạn gọi điện thoại cho các bạn cầu cứu giúp đở thường là bảo gởi tiền. FBI bảo nghe giọng nói và thấy video ngắn của người thân thì đừng có tin là thật, hãy dùng phương tiện thứ hai để kiểm lại. Xin viết chữ đen.

Hãy dùng email, hay số phone khác hay dùng “mạng xã hội” (như FB)... khác để hỏi lại. Trong lúc nói chuyện hãy kiểm tra lại coi người đang nói qua phone có thật là “người thân” không, bằng cách dùng “mật khẩu” đã dặn dò nhau từ trước. FBI dặn các bạn hay đặt mật khẩu ngay bây giờ.

Một thí dụ điển hình, một hôm đẹp trời người em của các bạn từ Việt Nam gọi điện thoại qua nói “Anh hai ơi, tụi em đang đi chơi ở Cần Thơ, má bịnh phải vào nằm nhà thương gấp, cần ngay 5.000 đô, em không có sẳn tiền mặt vậy anh hãy gởi tiền về địa chỉ “nầy nầy” tên cho người tên “nầy nầy”... ngay đi”.

Nghe rõ ràng là giọng nói của người em bạn. Nói chuyện vài câu “tình cờ” bạn hỏi: “Em đang ở đâu đó?” Câu trả lời phải là: “Em đang ở nhà Bà Hai Tó”. Nếu người đang nói trả lời khác “câu qui ước dặn trước với nhau” thì bạn biết đó là kẻ gian dùng IA tạo giọng nói giả làm người em của bạn.

Davey Winder • Forbes

Không có nhận xét nào:

Đăng nhận xét

Các bạn có thể:
- Viết bình luận trước, sau đó. .
- Copy và dán trực tiếp link ảnh vào khung nhận xét. Sau link ảnh đã dán, không gõ thêm bất kỳ ký tự nào nữa (kể cả nhấn phím Enter).
- Cám ơn Bạn đã bình luận về bài viết.