Số vụ tấn công mạng tăng 26% tại Hàn Quốc năm 2025
Chính phủ Hàn Quốc vừa đưa ra cảnh báo nghiêm trọng và yêu cầu người dân tăng cường cảnh giác trước khả năng xảy ra các thiệt hại thứ cấp trong năm nay, bắt nguồn từ các vụ rò rỉ thông tin cá nhân quy mô lớn liên tiếp vào năm ngoái.
Một trong những mối đe dọa an ninh mạng chủ chốt được xác định là nguy cơ các dịch vụ trí tuệ nhân tạo (AI) phổ biến bị tấn công, dẫn đến tình trạng lộ lọt thông tin hoặc gây ra các lỗi vận hành ngoài ý muốn.
Một trong những mối đe dọa an ninh mạng chủ chốt được xác định là nguy cơ các dịch vụ trí tuệ nhân tạo (AI) phổ biến bị tấn công, dẫn đến tình trạng lộ lọt thông tin hoặc gây ra các lỗi vận hành ngoài ý muốn.

[Ảnh=Getty Images Bank]
Ngày 27, Bộ Khoa học và Công nghệ Thông tin cùng Cơ quan Internet và An ninh Hàn Quốc (KISA) đã chính thức công bố báo cáo về xu hướng đe dọa mạng năm 2025 và triển vọng năm 2026. Bản báo cáo có sự tham gia phân tích của hàng loạt doanh nghiệp bảo mật hàng đầu trong và ngoài nước như AhnLab, Genians, Google, Microsoft và Trend Micro.
Dữ liệu cho thấy số vụ xâm nhập mạng được báo cáo tại Hàn Quốc trong năm 2025 đã tăng 26,3% so với năm trước đó, đạt con số 2.383 vụ. Đặc biệt, tần suất các vụ tấn công dồn dập hơn vào nửa cuối năm với tỷ lệ tăng trưởng lên tới 36,5%, cao hơn nhiều so với mức 15% của nửa đầu năm.
Mặc dù tỷ trọng các vụ nhiễm mã độc tống tiền (ransomware) vẫn giữ mức tương đương năm 2024, nhưng số lượng vụ việc thực tế đã tăng 10,3%. Một điểm đáng lo ngại là dù tỷ lệ sao lưu dữ liệu của các tổ chức bị hại có xu hướng tăng, đạt gần 79% vào cuối năm, nhưng một phần đáng kể các bản sao lưu này cũng bị mã độc tấn công, làm mất đi khả năng phục hồi của hệ thống.
Triển vọng an ninh mạng năm 2026 tập trung vào bốn nguy cơ chính bao gồm sự gia tăng của các mối đe dọa dựa trên AI, việc tin tặc lợi dụng các hệ thống bỏ hoang hoặc dịch vụ CNTT đã ngừng hỗ trợ làm cửa ngõ xâm nhập, các cuộc tấn công vào lỗ hổng môi trường điện toán đám mây và các cuộc tấn công thứ cấp từ thông tin cá nhân đã bị rò rỉ.
Các chuyên gia lo ngại rằng dữ liệu khổng lồ bị rò rỉ từ các vụ bảo mật tại SKT, KT và Coupang vào năm ngoái có thể bị tội phạm mạng thu thập và kết hợp để thực hiện các cuộc tấn công lừa đảo tinh vi như Voice Phishing hoặc Smishing.
Các chuyên gia phân tích rằng chuỗi sự kiện tấn công mạng quy mô lớn vừa qua thực chất mang tính chất của một “màn dạo đầu” cho cuộc chiến tranh mạng toàn diện khi AI bắt đầu được sử dụng làm vũ khí.
Trong báo cáo, Giáo sư đặc nhiệm Lee Won-tae từ Đại học Kookmin nhận định rằng điều đáng sợ nhất là những vụ việc năm ngoái vẫn chưa thực sự sử dụng AI. Ông dự báo nếu các cuộc tấn công đó được kết hợp với khả năng quét lỗ hổng tự động, tạo tin nhắn lừa đảo cá nhân hóa và tấn công song song quy mô lớn bằng AI, sức công phá của chúng có thể tăng gấp 5 đến 10 lần. Theo ông, xã hội Hàn Quốc vốn đã dễ tổn thương trước các kẻ tấn công là con người, nên sẽ càng trở nên mong manh hơn khi đối mặt với các kẻ tấn công AI.
Báo cáo cũng chỉ ra khả năng các vụ lừa đảo Deepfake bằng âm thanh và hình ảnh sẽ mở rộng sang hình thức gọi điện hoặc họp video trực tuyến theo thời gian thực. Đồng thời, các dịch vụ AI thông dụng như ChatGPT hay Gemini cũng sẽ trở thành mục tiêu trực tiếp. Tin tặc có thể bơm nội dung độc hại hoặc thao túng dữ liệu huấn luyện để khiến chatbot và các hệ thống bảo mật AI hoạt động sai lệch hoặc tiết lộ bí mật doanh nghiệp.
Trước thực trạng các cuộc tấn công bằng AI rất khó đối phó bằng phương thức phát hiện truyền thống, báo cáo nhấn mạnh nhu cầu về một hệ thống nhận diện mới có khả năng xác định các hành vi tạo mã bất thường.
Ngoài ra, cần nâng cao thuật toán phát hiện giả mạo AI, giám sát liên tục quá trình phản hồi của các mô hình ngôn ngữ lớn (LLM) và quản lý tập trung nhật ký truy cập.
Cuối cùng, báo cáo khẳng định sự kết hợp giữa hệ thống phòng thủ AI tự động và các nhà phân tích con người là yếu tố then chốt để đạt được hiệu quả bảo mật tối ưu trong kỷ nguyên mới.
Dữ liệu cho thấy số vụ xâm nhập mạng được báo cáo tại Hàn Quốc trong năm 2025 đã tăng 26,3% so với năm trước đó, đạt con số 2.383 vụ. Đặc biệt, tần suất các vụ tấn công dồn dập hơn vào nửa cuối năm với tỷ lệ tăng trưởng lên tới 36,5%, cao hơn nhiều so với mức 15% của nửa đầu năm.
Mặc dù tỷ trọng các vụ nhiễm mã độc tống tiền (ransomware) vẫn giữ mức tương đương năm 2024, nhưng số lượng vụ việc thực tế đã tăng 10,3%. Một điểm đáng lo ngại là dù tỷ lệ sao lưu dữ liệu của các tổ chức bị hại có xu hướng tăng, đạt gần 79% vào cuối năm, nhưng một phần đáng kể các bản sao lưu này cũng bị mã độc tấn công, làm mất đi khả năng phục hồi của hệ thống.
Triển vọng an ninh mạng năm 2026 tập trung vào bốn nguy cơ chính bao gồm sự gia tăng của các mối đe dọa dựa trên AI, việc tin tặc lợi dụng các hệ thống bỏ hoang hoặc dịch vụ CNTT đã ngừng hỗ trợ làm cửa ngõ xâm nhập, các cuộc tấn công vào lỗ hổng môi trường điện toán đám mây và các cuộc tấn công thứ cấp từ thông tin cá nhân đã bị rò rỉ.
Các chuyên gia lo ngại rằng dữ liệu khổng lồ bị rò rỉ từ các vụ bảo mật tại SKT, KT và Coupang vào năm ngoái có thể bị tội phạm mạng thu thập và kết hợp để thực hiện các cuộc tấn công lừa đảo tinh vi như Voice Phishing hoặc Smishing.
Các chuyên gia phân tích rằng chuỗi sự kiện tấn công mạng quy mô lớn vừa qua thực chất mang tính chất của một “màn dạo đầu” cho cuộc chiến tranh mạng toàn diện khi AI bắt đầu được sử dụng làm vũ khí.
Trong báo cáo, Giáo sư đặc nhiệm Lee Won-tae từ Đại học Kookmin nhận định rằng điều đáng sợ nhất là những vụ việc năm ngoái vẫn chưa thực sự sử dụng AI. Ông dự báo nếu các cuộc tấn công đó được kết hợp với khả năng quét lỗ hổng tự động, tạo tin nhắn lừa đảo cá nhân hóa và tấn công song song quy mô lớn bằng AI, sức công phá của chúng có thể tăng gấp 5 đến 10 lần. Theo ông, xã hội Hàn Quốc vốn đã dễ tổn thương trước các kẻ tấn công là con người, nên sẽ càng trở nên mong manh hơn khi đối mặt với các kẻ tấn công AI.
Báo cáo cũng chỉ ra khả năng các vụ lừa đảo Deepfake bằng âm thanh và hình ảnh sẽ mở rộng sang hình thức gọi điện hoặc họp video trực tuyến theo thời gian thực. Đồng thời, các dịch vụ AI thông dụng như ChatGPT hay Gemini cũng sẽ trở thành mục tiêu trực tiếp. Tin tặc có thể bơm nội dung độc hại hoặc thao túng dữ liệu huấn luyện để khiến chatbot và các hệ thống bảo mật AI hoạt động sai lệch hoặc tiết lộ bí mật doanh nghiệp.
Trước thực trạng các cuộc tấn công bằng AI rất khó đối phó bằng phương thức phát hiện truyền thống, báo cáo nhấn mạnh nhu cầu về một hệ thống nhận diện mới có khả năng xác định các hành vi tạo mã bất thường.
Ngoài ra, cần nâng cao thuật toán phát hiện giả mạo AI, giám sát liên tục quá trình phản hồi của các mô hình ngôn ngữ lớn (LLM) và quản lý tập trung nhật ký truy cập.
Cuối cùng, báo cáo khẳng định sự kết hợp giữa hệ thống phòng thủ AI tự động và các nhà phân tích con người là yếu tố then chốt để đạt được hiệu quả bảo mật tối ưu trong kỷ nguyên mới.














