Tội phạm mạng biến hóa với “bí kíp” từ trí tuệ nhân tạo

Trí tuệ nhân tạo không chỉ mang lại nhiều lợi ích mà còn là mối đe dọa rất lớn đối với người dùng. Trong tháng 5 năm 2024, các tên tuổi lớn trong ngành công nghệ đã liên tiếp giới thiệu các phiên bản mới của trí tuệ nhân tạo như GPT-4o của OpenAI, Gemini 1.5 Pro của Google, với nhiều tính năng “siêu thông minh” được bổ sung nhằm tối ưu hóa trải nghiệm người dùng. Tuy nhiên, không thể phủ nhận rằng công nghệ này đang bị tội phạm mạng lợi dụng trong nhiều kịch bản lừa đảo trực tuyến.

Rủi ro ngày càng gia tăng. Phát biểu tại một hội thảo gần đây, Thứ trưởng Bộ Thông tin và Truyền thông Phạm Đức Long đã nêu rõ tình trạng các cuộc tấn công mạng ngày càng gia tăng với mức độ ngày càng phức tạp và tinh vi hơn. Đặc biệt, với sự hỗ trợ của trí tuệ nhân tạo, nguy cơ mà người dùng phải đối mặt sẽ tăng lên đáng kể. “Công nghệ AI đang bị tội phạm mạng sử dụng để tạo ra các phần mềm độc hại mới, các cuộc tấn công lừa đảo mới, càng trở nên tinh vi hơn…” – Thứ trưởng Phạm Đức Long đã cảnh báo.

Theo báo cáo của Cục An toàn thông tin – Bộ Thông tin và Truyền thông, rủi ro về an toàn an ninh mạng liên quan đến trí tuệ nhân tạo đã gây thiệt hại hơn 1 triệu tỉ USD cho toàn thế giới, với Việt Nam một mình chiếm 8.000 – 10.000 tỉ đồng. Tình trạng phổ biến nhất hiện nay là việc sử dụng trí tuệ nhân tạo để giả mạo giọng nói và khuôn mặt nhằm mục đích lừa đảo. Dự báo đến năm 2025 sẽ có khoảng 3.000 cuộc tấn công/giây, 12 mã độc/giây và 70 lỗ hổng, điểm yếu mới/ngày.

Theo ông Nguyễn Hữu Giáp, Giám đốc BShield, việc tạo ra hình ảnh và giọng nói giả mạo hiện không còn khó khăn với sự tiến bộ của trí tuệ nhân tạo. Kẻ gian có thể dễ dàng thu thập dữ liệu người dùng từ thông tin công khai trên mạng xã hội hoặc thông qua các kỹ thuật như phỏng vấn tuyển dụng online, gọi điện thoại dưới danh nghĩa “cơ quan chức năng”. Trong một mô phỏng được BShield thực hiện, từ hình ảnh khuôn mặt có sẵn qua một cuộc gọi video, kẻ gian có thể đưa chúng vào giấy CCCD, ghép vào thân hình một người cử động để lừa công cụ eKYC và được hệ thống nhận định là người thật.

Tại góc độ người dùng, ông Nguyễn Thành Trung, chuyên viên công nghệ thông tin tại TP HCM, tỏ ra lo ngại về viễn cảnh mà đối tượng xấu có thể tận dụng ChatGPT để tạo ra các email lừa đảo với nội dung và phong cách viết giống như các email thật từ các ngân hàng hoặc tổ chức uy tín. Các email này có thể kèm theo các phần mềm độc hại và nếu người dùng nhấp vào sẽ dẫn đến việc đánh cắp thông tin hoặc chiếm đoạt tài sản của họ. Ông Trung cũng nhấn mạnh rằng các phần mềm AI ngày càng tiến bộ, có khả năng tạo ra video giả mạo với độ giống như người thật lên đến 95%, cùng với các cử chỉ thay đổi theo thời gian thực, làm cho việc phát hiện trở nên khó khăn.

Để giảm thiểu nguy cơ lừa đảo trong lĩnh vực công nghệ cao, chuyên gia bảo mật Phạm Đình Thắng khuyên người dùng cần liên tục cập nhật kiến thức về AI và tránh nhấp vào các liên kết không rõ nguồn gốc. Đối với các doanh nghiệp, Thắng đề xuất việc cần phải cân nhắc và bố trí ngân sách để đảm bảo an toàn dữ liệu và vận hành hệ thống. Nhân viên của doanh nghiệp cũng cần được đào tạo và tập huấn sâu hơn để có thể xác định và nhận biết các lỗ hổng thực tế trong hệ thống, từ đó nâng cao khả năng phát hiện các loại tấn công mạng.

Facebook: Trí Việt JSC

Nguồn: antoanthongtin.vn

Bạn cũng có thể thích ...