Bùng nổ AI và vấn đề an toàn trên mạng

0:00 / 0:00
0:00
(PLVN) - Trong những năm gần đây, trí tuệ nhân tạo (AI) đã có những bước tiến vượt bậc, tạo ra những nguy cơ mới trong lĩnh vực an ninh mạng. Các tin tặc ngày càng tinh vi, lợi dụng AI để thực hiện các cuộc tấn công mạng phức tạp và khó lường hơn.
Số lượng email lừa đảo tăng nhanh kể từ khi ChatGPT ra mắt. (Ảnh: Getty).
Số lượng email lừa đảo tăng nhanh kể từ khi ChatGPT ra mắt. (Ảnh: Getty).

Tội phạm mạng tinh vi hơn nhờ AI

Tại Việt Nam, tình hình an ninh mạng đang trở nên ngày càng phức tạp khi các tội phạm mạng ngày càng “thông minh” hơn bởi AI. Tại sự kiện Việt Nam Security Summit 2024, đại diện Bộ Thông tin và Truyền thông nhận định, tội phạm mạng sử dụng AI để tạo ra phần mềm độc hại mới, các cuộc tấn công lừa đảo với nhiều kịch bản đa dạng và tinh vi, cũng như sử dụng công nghệ deepfake để thực hiện các chiến dịch tấn công lừa đảo trực tuyến.

Một ví dụ điển hình là việc tin tặc (hacker) sử dụng AI để tạo ra các email lừa đảo (phishing) một cách nhanh chóng và chính xác, mạo danh các tổ chức hoặc cá nhân uy tín để lừa đảo người dùng. Những email này thường rất khó phát hiện vì chúng được thiết kế rất giống thật, thậm chí có thể bắt chước phong cách viết của những người nổi tiếng hoặc các tổ chức uy tín. Ví dụ, SlashNext đã ghi nhận sự gia tăng 1.265% các email lừa đảo kể từ khi ChatGPT ra mắt. Những email này thường chứa các liên kết hoặc tệp đính kèm độc hại, khiến người dùng dễ bị lừa và cung cấp thông tin cá nhân hoặc tài chính nhạy cảm. Ngoài ra, theo báo cáo của

Comparitech, các cuộc tấn công email lừa đảo không chỉ tăng về số lượng mà còn tinh vi hơn nhờ việc sử dụng AI để tạo ra nội dung có độ chính xác cao, khó phát hiện hơn bao giờ hết. Một số liệu thống kê trong năm 2023 cho biết, đã có hàng ngàn email lừa đảo được gửi đi, gây thiệt hại hàng tỷ đồng cho các doanh nghiệp và cá nhân.

AI cũng được sử dụng để tìm ra các lỗ hổng bảo mật chưa được phát hiện (Zero Day) trong các phần mềm phổ biến. Hacker có thể nhờ AI tạo ra các đoạn mã khai thác (exploit) để tấn công vào những lỗ hổng này, gây thiệt hại nghiêm trọng cho các hệ thống. Theo các chuyên gia bảo mật, việc phát hiện và khai thác các lỗ hổng Zero Day bằng AI đang trở nên phổ biến và nguy hiểm hơn bao giờ hết. Một nghiên cứu của MIT Technology Review nhấn mạnh rằng AI còn tối ưu hóa các đoạn mã khai thác, làm cho chúng khó phát hiện và ngăn chặn hơn, nổi bật như vụ tấn công vào hệ thống của Equifax khiến thông tin cá nhân của hàng triệu người dùng bị đánh cắp. Các chuyên gia bảo mật từ công ty FireEye cũng cảnh báo rằng việc phát hiện và khai thác lỗ hổng Zero Day bằng AI đang trở nên phổ biến hơn, đặc biệt khi công nghệ này ngày càng dễ tiếp cận và rẻ hơn.

Mặt khác, công nghệ

Một số doanh nghiệp công nghệ lớn đang hợp tác xây dựng các nhà máy trí tuệ nhân tạo. (Ảnh: Shutterstock)

Một số doanh nghiệp công nghệ lớn đang hợp tác xây dựng các nhà máy trí tuệ nhân tạo. (Ảnh: Shutterstock)

Deepfake cho phép tạo ra các video giả mạo rất chân thực, làm giả hình ảnh và giọng nói của người khác. Trong lĩnh vực ngân hàng, kẻ lừa đảo có thể sử dụng Deepfake để tạo ra các cuộc gọi giả mạo giọng nói của nhân viên ngân hàng nhằm chiếm lấy được thông tin cá nhân, mật khẩu, hay mã OTP (One Time Password) từ nạn nhân, truy cập vào tài khoản và chiếm đoạt tiền. Cũng có nhiều trường hợp, kẻ lừa đảo tạo ra các video giả mạo của cấp trên để yêu cầu nhân viên thực hiện các giao dịch tài chính nhạy cảm hoặc chia sẻ thông tin quan trọng. Ngoài ra, kẻ lừa đảo còn có thể mạo danh người đã mất để chiếm quyền kiểm soát tài khoản cá nhân, thay đổi quyền truy cập, thậm chí loại bỏ hoàn toàn người dùng thực. Hình thức này, gọi là “lừa đảo ma”, cho phép chúng thu thập dữ liệu cá nhân và thực hiện các khoản vay hoặc yêu cầu lương hưu một cách bất hợp pháp.

AI cũng được sử dụng để tấn công các hệ thống chăm sóc khách hàng tự động (chatbot). Theo bà Nguyễn Minh Hoàng, Giám đốc quốc gia của Trend Micro tại Việt Nam, hacker lợi dụng các chatbot để truy xuất thông tin, dữ liệu nhạy cảm và tiến hành các cuộc tấn công lừa đảo. Hacker có thể thâm nhập vào hệ thống AI, “dạy” lại AI bằng những thông tin sai lệch, khiến AI thực hiện những hành vi phục vụ mục đích xấu của họ.

Tăng “sức đề kháng” trên mạng bằng AI

Đứng trước sự phát triển mạnh mẽ của tội phạm mạng sử dụng AI, các giải pháp bảo mật cũng cần phải áp dụng AI để nâng cao khả năng phòng thủ và đối phó với các mối đe dọa. Các hệ thống AI có khả năng phân tích hành vi người dùng và hệ thống để xác định các hoạt động bất thường, từ đó phát hiện sớm các dấu hiệu của tấn công mạng. AI cũng có thể phân tích mã và xác định các phần mềm độc hại tiềm ẩn bằng cách sử dụng các thuật toán học máy được đào tạo trên tập dữ liệu khổng lồ chứa các phần mềm độc hại đã biết. Điều này giúp các hệ thống bảo mật phát hiện và ngăn chặn các mối đe dọa mới một cách nhanh chóng và hiệu quả.

AI còn có thể tự động phản ứng với các cuộc tấn công mạng, chẳng hạn như chặn truy cập từ các địa chỉ IP độc hại hoặc vô hiệu hóa các tài khoản bị xâm nhập. Điều này giúp giảm thiểu thiệt hại và thời gian phản ứng trong trường hợp xảy ra tấn công. Nhiều doanh nghiệp lớn tại Việt Nam đã áp dụng các hệ thống bảo mật sử dụng AI để bảo vệ dữ liệu và hệ thống của mình.

Ví dụ, Trend Micro đã triển khai AI Tạo sinh (Generative AI - Gen AI) vào nền tảng Vision One để phát hiện các mối đe dọa bảo mật chủ động. Hệ thống AI có khả năng phân tích hành vi người dùng và hệ thống để xác định các hoạt động bất thường, có thể là dấu hiệu của tấn công mạng. Các thuật toán học máy được đào tạo trên tập dữ liệu lớn chứa các phần mềm độc hại đã biết để nhận dạng các mẫu mã độc hại mới. Công ty cũng xem xét triển khai AI trên bốn lĩnh vực chính: bảo vệ người dùng AI trước các cuộc tấn công và sử dụng sai mục đích, bảo vệ các hệ thống AI của các tổ chức, bảo mật các trung tâm dữ liệu AI, và hệ thống an ninh mạng do AI hỗ trợ.

Một số doanh nghiệp công nghệ lớn như FPT và NVIDIA đang hợp tác xây dựng các nhà máy trí tuệ nhân tạo, đào tạo nguồn nhân lực chất lượng cao và phát triển dịch vụ an ninh mạng sử dụng AI. Theo biên bản ghi nhớ, FPT dự kiến đầu tư 200 triệu USD để xây dựng AI Factory cung cấp nền tảng điện toán đám mây phục vụ nghiên cứu phát triển AI và có chủ quyền tại Việt Nam. Đây là nhà máy “ảo” bao gồm các hệ thống siêu máy tính hoạt động trên công nghệ mới nhất của NVIDIA, bao gồm bộ ứng dụng - khung công nghệ phát triển NVIDIA AI Enterprise và chip đồ họa GPU H100 Tensor Core. Tháng 6/2024, NVIDIA đã công bố hợp tác với Trend Micro để phát triển các hệ thống an ninh mạng được hỗ trợ bởi AI, nhằm bảo vệ cơ sở hạ tầng AI quan trọng với các giải pháp bảo mật tiên tiến. Sự hợp tác này đáp ứng nhu cầu ngày càng tăng của các tổ chức chính phủ và tư nhân muốn tận dụng sức mạnh của AI.

Trong thời kỳ bùng nổ AI, việc bảo đảm an toàn trên mạng là một thách thức lớn. Các khóa đào tạo, diễn tập về an ninh mạng cho cá nhân, tổ chức ngày càng phổ biến để nâng cao nhận thức và kỹ năng phòng ngừa các cuộc tấn công mạng. Nhiều doanh nghiệp lựa chọn đầu tư vào các giải pháp an ninh mạng sử dụng AI để phát hiện và ngăn chặn các mối đe dọa; thường xuyên kiểm tra và cập nhật hệ thống bảo mật, vá các lỗ hổng phần mềm và bảo đảm rằng các biện pháp bảo mật được thực hiện đầy đủ cũng rất quan trọng.

Phần lớn các hệ thống phần mềm hiện nay đều đang sử dụng các phương pháp xác thực đa yếu tố (MFA) để bảo vệ tài khoản và dữ liệu cá nhân giúp ngăn chặn hacker sử dụng thông tin đăng nhập đánh cắp để truy cập vào hệ thống. Nhiều đơn vị cũng xây dựng và thực thi các chính sách an ninh mạng rõ ràng, bao gồm quy định về việc sử dụng mật khẩu, truy cập hệ thống và xử lý dữ liệu nhạy cảm. Cùng với đó là sử dụng song song các công cụ giám sát an ninh mạng để theo dõi các hoạt động trên hệ thống và phản ứng nhanh chóng khi phát hiện các dấu hiệu của cuộc tấn công. Các diễn đàn nhằm về hợp tác và chia sẻ thông tin về các mối đe dọa mạng cũng góp phần giúp nâng cao khả năng phòng ngừa và ứng phó với các mối đe dọa các công nghệ AI.

Đọc thêm