Trong bối cảnh bộ nhớ băng thông cao thế hệ thứ 5 (HBM3E) được dự báo sẽ tiếp tục giữ vững vị thế chủ lưu cho đến hết năm sau, cuộc đua giành quyền kiểm soát thị trường HBM4 (thế hệ thứ 6) đang trở nên gay gắt hơn bao giờ hết.
Đây là phân khúc dự kiến sẽ bùng nổ sau khi Nvidia ra mắt bộ tăng tốc trí tuệ nhân tạo (AI) thế hệ tiếp theo mang tên "Rubin" vào nửa cuối năm tới, nơi cả SK hynix và Samsung Electronics đều đang dốc toàn lực để chiếm ưu thế dẫn đầu.
Đây là phân khúc dự kiến sẽ bùng nổ sau khi Nvidia ra mắt bộ tăng tốc trí tuệ nhân tạo (AI) thế hệ tiếp theo mang tên "Rubin" vào nửa cuối năm tới, nơi cả SK hynix và Samsung Electronics đều đang dốc toàn lực để chiếm ưu thế dẫn đầu.

Bộ nhớ băng thông cao thế hệ thứ 6 của Samsung Electronics, HBM4 và HBM3E, được trưng bày tại gian hàng của Samsung Electronics tại Triển lãm Bán dẫn (SEDEX) 2025 tổ chức tại COEX ở Gangnam-gu, Seoul vào ngày 22 tháng 10 năm 2025. [Ảnh=Yonhap News]
Theo các nguồn tin trong ngành vào ngày 28, dòng chip Blackwell của Nvidia vốn sử dụng HBM3E hiện đang chiếm lĩnh phần lớn thị trường chip AI. Bên cạnh đó, khả năng Nvidia tái khởi động xuất khẩu dòng H200 sang Trung Quốc đang tăng cao, khiến HBM3E được kỳ vọng sẽ duy trì vị thế áp đảo trong toàn bộ thị trường HBM ít nhất là đến năm 2026.
Nhu cầu này còn được củng cố bởi các "ông lớn" công nghệ như Google, Microsoft và Amazon Web Services (AWS) – những đơn vị đang tăng cường sử dụng HBM3E cho các chip AI tự phát triển dựa trên cấu trúc ASIC (vi mạch tích hợp chuyên dụng). Dù tỷ trọng của HBM3E trong tổng sản lượng HBM toàn cầu dự kiến giảm từ 87% năm nay xuống còn 66% vào năm tới, sản phẩm này vẫn sẽ chiếm hơn một nửa thị trường.
Trong cấu trúc hiện tại, SK hynix đang nắm giữ thế thượng phong với khoảng 60% thị phần HBM toàn cầu và được dự báo sẽ duy trì vị trí này trong thời gian tới. Nhờ đi trước một bước trong việc sản xuất hàng loạt và cung ứng cho các khách hàng lớn, SK hynix hiện là nhà cung cấp chính cho Nvidia cũng như thị trường chip AI dựa trên ASIC.
Các chuyên gia dự báo rằng dù tỷ trọng của Nvidia trong nhu cầu HBM3 và HBM3E có thể giảm nhẹ từ 71,6% xuống 63,8% do sự trỗi dậy của các dòng chip ASIC, nhưng Nvidia vẫn sẽ giữ vững vị thế là "khách hàng lớn" chi phối thị trường.
Tuy nhiên, cục diện được kỳ vọng sẽ thay đổi đáng kể khi bước sang thế hệ HBM4.
Khác với các thế hệ trước, HBM4 không chỉ đơn thuần là cải thiện hiệu suất mà còn yêu cầu sự hợp tác chặt chẽ giữa bộ phận sản xuất bộ nhớ và xưởng đúc chip (foundry) trong việc ứng dụng công nghệ logic và đế chip nền (base die).
Thị trường HBM4 dự kiến sẽ chính thức khai mở vào năm 2027, sau khi Nvidia Rubin tiên phong sử dụng dòng bộ nhớ này vào cuối năm sau (2026). Các sản phẩm chủ lực như TPU thế hệ 8 của Google, Trainium thế hệ 4 của Amazon và Maia 300 của Microsoft cũng được cho là sẽ tích hợp HBM4 vào khoảng năm 2027, giúp sản lượng của dòng chip này vượt qua HBM3E.
Samsung Electronics, đơn vị vừa gia nhập chuỗi cung ứng HBM3E của các tập đoàn công nghệ lớn, đang bày tỏ sự tự tin cao độ trong việc giành chiến thắng ở thế hệ HBM4.
Tập đoàn này dự kiến áp dụng những công nghệ tiên tiến nhất bao gồm base die trên tiến trình 4nm của Samsung Foundry và quy trình sản xuất DRAM 10nm thế hệ thứ 6 (1c). Các đánh giá kỹ thuật nội bộ cho thấy sản phẩm của Samsung đã đạt mức hiệu suất tối ưu 11,7 Gbps, dẫn đầu ngành công nghiệp. Đặc biệt, việc Samsung nhận được điểm số cao nhất trong các bài kiểm tra hệ thống trong gói (SiP) của Nvidia gần đây đã phát đi tín hiệu khả quan cho kế hoạch sản xuất hàng loạt HBM4 vào đầu năm tới.
Trước tiềm năng này, ngân hàng đầu tư Nomura đã nâng dự báo lợi nhuận hoạt động của Samsung năm tới lên mức 133 nghìn tỷ Won, với nhận định rằng hãng sẽ tập trung nguồn lực vào HBM4 để hoàn tất quy trình kiểm định của Nvidia trong tháng 1 tới.
Ở phía đối diện, SK hynix cũng không hề kém cạnh khi đã thiết lập hệ thống sản xuất hàng loạt HBM4 từ tháng 9 và cung cấp một lượng lớn mẫu thử cho Nvidia. Hãng đang ứng dụng quy trình DRAM 10nm thế hệ thứ 5 (1b) kết hợp với base die 12nm của TSMC.
Các chuyên gia nhận định SK hynix vẫn sở hữu lợi thế lớn về độ ổn định, hiệu suất và khả năng cung ứng số lượng lớn. Hiện tại, quá trình tối ưu hóa HBM4 giữa SK hynix và Nvidia đang ở giai đoạn cuối cùng, sẵn sàng cho việc tung ra thị trường các sản phẩm hoàn thiện nhất vào đầu năm sau.
Nhu cầu này còn được củng cố bởi các "ông lớn" công nghệ như Google, Microsoft và Amazon Web Services (AWS) – những đơn vị đang tăng cường sử dụng HBM3E cho các chip AI tự phát triển dựa trên cấu trúc ASIC (vi mạch tích hợp chuyên dụng). Dù tỷ trọng của HBM3E trong tổng sản lượng HBM toàn cầu dự kiến giảm từ 87% năm nay xuống còn 66% vào năm tới, sản phẩm này vẫn sẽ chiếm hơn một nửa thị trường.
Trong cấu trúc hiện tại, SK hynix đang nắm giữ thế thượng phong với khoảng 60% thị phần HBM toàn cầu và được dự báo sẽ duy trì vị trí này trong thời gian tới. Nhờ đi trước một bước trong việc sản xuất hàng loạt và cung ứng cho các khách hàng lớn, SK hynix hiện là nhà cung cấp chính cho Nvidia cũng như thị trường chip AI dựa trên ASIC.
Các chuyên gia dự báo rằng dù tỷ trọng của Nvidia trong nhu cầu HBM3 và HBM3E có thể giảm nhẹ từ 71,6% xuống 63,8% do sự trỗi dậy của các dòng chip ASIC, nhưng Nvidia vẫn sẽ giữ vững vị thế là "khách hàng lớn" chi phối thị trường.
Tuy nhiên, cục diện được kỳ vọng sẽ thay đổi đáng kể khi bước sang thế hệ HBM4.
Khác với các thế hệ trước, HBM4 không chỉ đơn thuần là cải thiện hiệu suất mà còn yêu cầu sự hợp tác chặt chẽ giữa bộ phận sản xuất bộ nhớ và xưởng đúc chip (foundry) trong việc ứng dụng công nghệ logic và đế chip nền (base die).
Thị trường HBM4 dự kiến sẽ chính thức khai mở vào năm 2027, sau khi Nvidia Rubin tiên phong sử dụng dòng bộ nhớ này vào cuối năm sau (2026). Các sản phẩm chủ lực như TPU thế hệ 8 của Google, Trainium thế hệ 4 của Amazon và Maia 300 của Microsoft cũng được cho là sẽ tích hợp HBM4 vào khoảng năm 2027, giúp sản lượng của dòng chip này vượt qua HBM3E.
Samsung Electronics, đơn vị vừa gia nhập chuỗi cung ứng HBM3E của các tập đoàn công nghệ lớn, đang bày tỏ sự tự tin cao độ trong việc giành chiến thắng ở thế hệ HBM4.
Tập đoàn này dự kiến áp dụng những công nghệ tiên tiến nhất bao gồm base die trên tiến trình 4nm của Samsung Foundry và quy trình sản xuất DRAM 10nm thế hệ thứ 6 (1c). Các đánh giá kỹ thuật nội bộ cho thấy sản phẩm của Samsung đã đạt mức hiệu suất tối ưu 11,7 Gbps, dẫn đầu ngành công nghiệp. Đặc biệt, việc Samsung nhận được điểm số cao nhất trong các bài kiểm tra hệ thống trong gói (SiP) của Nvidia gần đây đã phát đi tín hiệu khả quan cho kế hoạch sản xuất hàng loạt HBM4 vào đầu năm tới.
Trước tiềm năng này, ngân hàng đầu tư Nomura đã nâng dự báo lợi nhuận hoạt động của Samsung năm tới lên mức 133 nghìn tỷ Won, với nhận định rằng hãng sẽ tập trung nguồn lực vào HBM4 để hoàn tất quy trình kiểm định của Nvidia trong tháng 1 tới.
Ở phía đối diện, SK hynix cũng không hề kém cạnh khi đã thiết lập hệ thống sản xuất hàng loạt HBM4 từ tháng 9 và cung cấp một lượng lớn mẫu thử cho Nvidia. Hãng đang ứng dụng quy trình DRAM 10nm thế hệ thứ 5 (1b) kết hợp với base die 12nm của TSMC.
Các chuyên gia nhận định SK hynix vẫn sở hữu lợi thế lớn về độ ổn định, hiệu suất và khả năng cung ứng số lượng lớn. Hiện tại, quá trình tối ưu hóa HBM4 giữa SK hynix và Nvidia đang ở giai đoạn cuối cùng, sẵn sàng cho việc tung ra thị trường các sản phẩm hoàn thiện nhất vào đầu năm sau.


![[Tổng kết 2025] ④ Chứng khoán: KOSPI xác lập kỷ lục 4.000 điểm](https://image.ajunews.com/content/image/2025/12/23/20251223175824493779_518_323.jpg)

![[Tổng kết 2025] ③ Bán Dẫn: Từ Siêu chu kỳ AI đến cuộc chiến giữ vững chủ quyền công nghệ của Hàn Quốc](https://image.ajunews.com/content/image/2025/12/22/20251222175327581837_518_323.jpg)










