Chip AI cho trung tâm dữ liệu và đám mây sẽ vượt mốc 400 tỷ USD vào năm 2030
IDTechEx dự báo, đến năm 2030, quy mô thị trường chip trí tuệ nhân tạo (AI) sẽ vượt mốc 400 tỷ USD nhờ làn sóng triển khai trung tâm dữ liệu AI, quá trình thương mại hóa AI và yêu cầu ngày càng cao về hiệu suất từ mô hình AI lớn…

Tuy nhiên, chuyên gia phân tích công nghệ Jameel Rogers tại IDTechEx nhận định trong một báo cáo cuối tuần trước rằng công nghệ nền tảng cũng phải phát triển để đáp ứng nhu cầu ngày càng cao về khả năng tính toán hiệu quả, chi phí thấp, hiệu suất cao, có thể mở rộng ở quy mô lớn, thời gian suy luận nhanh hơn và xử lý tính toán theo từng lĩnh vực chuyên biệt.
IDTechEx dự báo thị trường chip AI sẽ đạt 453 tỷ USD vào năm 2030, với tốc độ tăng trưởng kép hàng năm (CAGR) đạt 14% trong giai đoạn 2025–2030, theo Tech Node Global.
Báo cáo cho biết AI tiên tiến (frontier AI) tiếp tục thu hút hàng trăm tỷ USD đầu tư toàn cầu mỗi năm, khi mọi chính phủ và các tập đoàn công nghệ quy mô lớn cạnh tranh vị trí dẫn đầu trong lĩnh vực như thuốc hay phát triển hạ tầng tự động.
Một số bộ xử lý đồ họa (GPU) và chip AI khác đóng vai trò then chốt trong việc thúc đẩy hiệu suất của hệ thống AI hàng đầu, cung cấp năng lực tính toán cần thiết cho học sâu trong trung tâm dữ liệu và hạ tầng đám mây.
Tuy nhiên, trong bối cảnh công suất trung tâm dữ liệu toàn cầu dự kiến tiêu tốn hàng trăm gigawatt trong những năm tới và quy mô đầu tư lên đến hàng trăm tỷ USD, các vấn đề về hiệu suất năng lượng, chi phí phần cứng đang dần trở thành mối quan ngại lớn.
Báo cáo cũng nhấn mạnh những hệ thống AI tiên tiến nhất hiện nay thường là các hệ thống HPC và AI mở rộng quy mô lớn, vốn chủ yếu sử dụng GPU.
Đây thường là trung tâm dữ liệu AI do các công ty quy mô lớn vận hành hoặc siêu máy tính, có thể cung cấp hiệu năng ở mức exaFLOPS (tỷ tỷ phép tính mỗi giây), cả tại chỗ lẫn qua mạng lưới phân tán.
Những thành công nổi bật gần đây của Nvidia xuất phát từ dòng chip Hopper (H100/H200) và Blackwell (B200/B300). Trong khi đó, AMD cũng tung ra một số dòng chip cạnh tranh như MI300 (MI300X/MI325X).
Cũng trong vài năm qua, các công ty Trung Quốc đã tăng tốc phát triển giải pháp riêng do chịu lệnh trừng phạt của Hoa Kỳ về chip tiên tiến khi nước này hạn chế xuất khẩu chip sang Trung Quốc.
Tuy nhiên, báo cáo cũng chỉ ra rằng dù GPU hiệu năng cao rất quan trọng trong giai đoạn huấn luyện mô hình AI, nhưng công nghệ vẫn tồn tại nhiều hạn chế, bao gồm tổng chi phí sở hữu (TCO) cao, rủi ro phụ thuộc vào nhà cung cấp, hiệu suất thấp trong tác vụ AI chuyên biệt và đôi khi vượt quá nhu cầu đối với tác vụ suy luận cụ thể.
Do đó, một chiến lược đang nổi lên trong giới doanh nghiệp quy mô lớn là chuyển sang sử dụng chip AI tùy biến (AI ASIC) do các hãng như Broadcom và Marvell thiết kế.
CHIP AI TUỲ BIẾN: HƯỚNG ĐI MỚI TIẾT KIỆM VÀ TỐI ƯU
Cần lưu ý rằng các chip AI ASIC tùy biến hiện nay được thiết kế với lõi chuyên biệt cho khối lượng công việc AI, có chi phí thấp hơn trên mỗi tác vụ, tối ưu cho từng hệ thống cụ thể (như mô hình transformer, hệ thống đề xuất, v.v.), đồng thời mang lại khả năng suy luận tiết kiệm năng lượng.
Các dòng chip này còn giúp doanh nghiệp và nhà cung cấp dịch vụ điện toán đám mây (CSP) kiểm soát toàn bộ tầng công nghệ, tạo sự khác biệt mà không làm giảm hiệu suất.
Cũng theo báo cáo, nhà sản xuất lớn lẫn các startup chuyên về chip AI đều đã tung ra những sản phẩm thay thế GPU truyền thống, mang lại nhiều lợi ích vượt trội. Những con chip này được thiết kế dựa trên kiến trúc chip AI truyền thống và cải tiến, nhằm tạo ra bộ xử lý phù hợp hơn với khối lượng công việc AI, giúp giảm chi phí và tăng hiệu quả xử lý.
Một số hãng lớn như Intel, Huawei và Qualcomm đã phát triển bộ tăng tốc AI (như Gaudi, Ascend 910, Cloud AI 100), sử dụng kiến trúc dị thể với nhiều đơn vị tính toán (tương tự GPU), nhưng được thiết kế riêng để tăng tốc tác vụ AI. Các chip này đạt được cân bằng giữa hiệu suất, hiệu quả năng lượng và tính linh hoạt cho từng lĩnh vực ứng dụng cụ thể.
Trong khi đó, các startup chuyên về chip AI thường đi theo hướng khác biệt, ứng dụng các kiến trúc tiên tiến và kỹ thuật chế tạo mới như bộ xử lý điều khiển theo luồng dữ liệu, đóng gói chip trên toàn tấm wafer, bộ tăng tốc AI theo không gian , công nghệ xử lý ngay trong bộ nhớ, và mảng cấu hình hạt thô.
Nhiều công ty như Cerebras, Groq, Graphcore, SambaNova, Untether AI và các hãng khác đã triển khai thành công hệ thống này trong trung tâm dữ liệu và môi trường điện toán đám mây.
Các hệ thống này đạt hiệu suất cao vượt trội, đặc biệt là trong môi trường mở rộng theo chiều dọc. Tuy nhiên, chúng có thể gặp khó khăn khi triển khai ở quy mô siêu lớn, đặc biệt là khi so với GPU hiệu năng cao.
Báo cáo cũng nhấn mạnh các công nghệ khác nhau được áp dụng trong thiết kế và chế tạo chip mang lại tiềm năng đổi mới lớn cho toàn bộ chuỗi cung ứng ngành bán dẫn.
Chính sách hỗ trợ từ chính phủ và các khoản đầu tư mạnh tay thể hiện rõ mức độ quan tâm thúc đẩy phát triển AI tiên tiến lên tầm cao mới, và điều này đòi hỏi khối lượng chip AI khổng lồ trong trung tâm dữ liệu AI để đáp ứng nhu cầu ngày càng gia tăng, báo cáo kết luận.