Nvidia sắp ra chip AI mới, tái định hình cuộc đua điện toán
Thanh Minh
02/03/2026
Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này...
Trước sức ép ngày càng lớn từ các đối thủ và làn sóng AI tác nhân (agentic AI), Nvidia được cho là sắp ra mắt một nền tảng xử lý mới chuyên cho tác vụ “inference” – giai đoạn giúp mô hình AI trả lời truy vấn người dùng.
Động thái này không chỉ đánh dấu bước chuyển chiến lược quan trọng của hãng chip đồ họa số một thế giới, mà còn có thể làm thay đổi cục diện cạnh tranh trong ngành hạ tầng AI toàn cầu.
THAM VỌNG THỐNG LĨNH SUY LUẬN AI
Theo Wall Street Journal, trong nhiều năm qua, Nvidia gần như đồng nghĩa với sức mạnh tính toán cho AI. Các dòng GPU như Hopper, Blackwell hay Rubin của hãng được xem là tiêu chuẩn vàng cho việc huấn luyện các mô hình AI khổng lồ. Theo ước tính của nhiều nhà phân tích, Nvidia đang nắm giữ hơn 90% thị phần GPU phục vụ trung tâm dữ liệu AI.
Nếu như giai đoạn 2022–2024 là thời kỳ bùng nổ huấn luyện các mô hình nền tảng, thì từ năm 2025 trở đi, trọng tâm dần chuyển sang “inference” – quá trình vận hành mô hình để trả lời câu hỏi, sinh nội dung và thực thi tác vụ thực tế cho người dùng.
Tuy nhiên, thị trường AI đang bước vào một giai đoạn mới. Nếu như giai đoạn 2022–2024 là thời kỳ bùng nổ huấn luyện các mô hình nền tảng, thì từ năm 2025 trở đi, trọng tâm dần chuyển sang “inference” – quá trình vận hành mô hình để trả lời câu hỏi, sinh nội dung và thực thi tác vụ thực tế cho người dùng.
Theo các nguồn tin thân cận, Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này. Điểm đáng chú ý là nền tảng này sẽ tích hợp một con chip do startup Groq thiết kế – công ty mà Nvidia đã đạt thỏa thuận trị giá khoảng 20 tỷ USD vào cuối năm ngoái để cấp phép công nghệ và chiêu mộ đội ngũ lãnh đạo, bao gồm nhà sáng lập Jonathan Ross.
Groq phát triển kiến trúc “language processing unit” (LPU), khác biệt so với GPU truyền thống của Nvidia. Kiến trúc này được tối ưu hóa cho các tác vụ suy luận, đặc biệt là trong quá trình “decode” – khi mô hình AI tạo phản hồi từng từ một, vốn là phần chậm và tiêu tốn tài nguyên nhất.
Động thái này cho thấy Nvidia đang sẵn sàng điều chỉnh chiến lược cốt lõi. Trong nhiều năm, CEO Jensen Huang luôn khẳng định GPU của hãng đủ linh hoạt để vừa huấn luyện vừa suy luận. Nhưng trước sự dịch chuyển nhu cầu thị trường, Nvidia buộc phải phát triển các giải pháp chuyên biệt hơn, hiệu quả hơn về chi phí và điện năng.
SỨC ÉP TỪ OPENAI, GOOGLE, AMAZON VÀ LÀN SÓNG AI TÁC NHÂN
Sự thay đổi chiến lược của Nvidia không “vô tình diễn ra”. Trong năm qua, các đối thủ lớn như Google và Amazon đã đẩy mạnh phát triển chip riêng cho AI. Amazon tung ra dòng Trainium và Inferentia, còn Google tiếp tục mở rộng hệ sinh thái TPU phục vụ Google Cloud.
Ngay cả những khách hàng lớn nhất của Nvidia cũng bắt đầu tìm kiếm phương án thay thế. OpenAI – một trong những khách hàng tiêu thụ GPU lớn nhất thế giới – được cho là đã đồng ý trở thành một trong những khách hàng lớn nhất của bộ xử lý inference mới từ Nvidia. Trước đó, OpenAI công bố sẽ mua “năng lực suy luận chuyên dụng” từ Nvidia song song với khoản đầu tư 30 tỷ USD từ hãng chip này.
Tuy nhiên, OpenAI cũng không đặt toàn bộ trứng vào một giỏ. Họ đã ký thỏa thuận lớn sử dụng chip Trainium của Amazon, đồng thời thiết lập quan hệ hợp tác điện toán trị giá hàng tỷ USD với Cerebras – startup chuyên về chip tối ưu cho inference. CEO Cerebras, Andrew Feldman, tuyên bố sản phẩm của họ nhanh hơn GPU của Nvidia trong nhiều tác vụ suy luận.
Lý do của sự dịch chuyển này nằm ở làn sóng AI tác nhân – các hệ thống có khả năng tự động thực hiện chuỗi hành động thay mặt người dùng, từ viết mã, phân tích dữ liệu đến điều phối quy trình kinh doanh. Những ứng dụng này đòi hỏi khả năng suy luận liên tục, phản hồi nhanh, chi phí thấp và tiết kiệm năng lượng.
Trong thực tế, nhiều công ty vận hành AI tác nhân nhận thấy GPU truyền thống quá đắt đỏ và tiêu tốn điện năng khi triển khai ở quy mô lớn. Khi doanh thu AI ngày càng dựa vào mô hình thuê bao và khối lượng truy vấn khổng lồ, bài toán kinh tế của inference trở nên sống còn.
NVIDIA MỞ RỘNG KHỎI GPU, TÁI ĐỊNH NGHĨA VỊ THẾ TRONG HẠ TẦNG AI
Một ví dụ điển hình là mảng lập trình tự động – hiện được xem là một trong những ứng dụng AI doanh nghiệp sinh lời nhất. Công cụ Claude Code của Anthropic đang dẫn đầu thị trường, nhưng lại chủ yếu dựa vào hạ tầng chip của Amazon Web Services và Google Cloud, thay vì Nvidia. Trong khi đó, OpenAI kỳ vọng sử dụng nền tảng mới của Nvidia để nâng cấp Codex – đối thủ cạnh tranh trực tiếp của Claude Code.
Cuộc đua AI đang bước sang một chương mới – nơi hiệu quả, chi phí và tốc độ phản hồi quan trọng không kém quy mô mô hình. Nvidia, thay vì chỉ là “vua GPU”, đang cố gắng tái định nghĩa mình như nhà cung cấp hạ tầng toàn diện cho kỷ nguyên AI suy luận.
Một điểm đáng chú ý khác là Nvidia không còn chỉ đặt cược vào GPU. Truyền thống, hãng thường kết hợp CPU Vera với GPU Rubin trong các máy chủ trung tâm dữ liệu hiệu năng cao. Nhưng thực tế triển khai cho thấy một số khối lượng công việc AI tác nhân có thể chạy hiệu quả hơn chỉ với CPU.
Tháng này, Nvidia công bố mở rộng hợp tác với Meta, bao gồm lần triển khai CPU-only quy mô lớn đầu tiên để hỗ trợ các tác nhân AI phục vụ quảng cáo. Thỏa thuận này được xem là tín hiệu sớm cho chiến lược mới: Nvidia tìm cách “khóa chặt” các phân khúc AI bằng giải pháp linh hoạt hơn, thay vì chỉ bán GPU cao cấp.
Wall Street Journal cho rằng bối cảnh cạnh tranh hiện nay cho thấy thị trường AI đang phân mảnh nhanh chóng. Nếu như trước đây cuộc đua chủ yếu xoay quanh ai huấn luyện được mô hình lớn hơn, thì giờ đây câu hỏi chuyển sang: ai có thể vận hành mô hình hiệu quả nhất, rẻ nhất và ở quy mô lớn nhất?
Inference được chia thành hai bước chính: “pre-fill” – khi mô hình tiếp nhận và xử lý truy vấn ban đầu; và “decode” – khi mô hình tạo câu trả lời từng từ một. Decode thường chậm hơn và tiêu tốn tài nguyên hơn, đặc biệt với các mô hình lớn. Chính ở điểm nghẽn này, các kiến trúc mới như LPU của Groq hay wafer-scale engine của Cerebras tìm cách tạo lợi thế.
Với việc tích hợp công nghệ từ Groq và thuyết phục OpenAI trở thành khách hàng lớn, Nvidia đang gửi đi thông điệp rõ ràng: họ không chỉ muốn thống trị kỷ nguyên huấn luyện AI, mà còn quyết tâm dẫn đầu giai đoạn khai thác thương mại AI ở quy mô toàn cầu.
Ngành công nghiệp bán dẫn toàn cầu được dự báo sẽ đạt quy mô doanh thu lên tới 1,3 nghìn tỷ USD trong năm 2026, đánh dấu mức tăng trưởng mạnh nhất trong hơn hai thập kỷ qua...
Hơn 100.000 tuyển thủ từ 100 quốc gia và vùng lãnh thổ tham gia vòng loại sẽ tranh tài ở 16 bộ môn để giành suất dự Esports Nations Cup 2026 đầu tiên…
Báo cáo mới nhất của Cục Điều tra Liên bang Mỹ (FBI) cho thấy thiệt hại do tội phạm mạng tại Mỹ đã lập kỷ lục mới, lên tới gần 21 tỷ USD trong năm 2025…
Từ ngày 1/1 đến 1/4/2026 đã có tổng cộng 78.557 việc làm trong lĩnh vực công nghệ bị cắt giảm...
Khoản đầu tư 10 tỷ USD vào Nhật Bản không chỉ giúp củng cố vị thế của Microsoft tại một thị trường trọng điểm, mà còn phản ánh xu hướng lớn của ngành công nghệ...
Các công ty công nghệ Trung Quốc đang đồng loạt triển khai một mô hình kinh doanh mới trong lĩnh vực trí tuệ nhân tạo, xoay quanh các gói thuê bao token...
Các thương vụ hạ tầng trung tâm dữ liệu thường xuyên vượt mốc 10 tỷ USD, thậm chí thương vụ lớn nhất đạt tới 40 tỷ USD. Quy mô “khổng lồ” này đã khiến ngành bảo hiểm rơi vào tình thế “stress”...
Mạng lưới này được thiết kế với mục tiêu phủ rộng, giảm chi phí và nâng cao chất lượng dịch vụ, qua đó hạ thấp rào cản tiếp cận tài nguyên tính toán cho các SME...
Thương vụ này được cho là có thể huy động từ 40 tỷ đến 80 tỷ USD – con số đủ để đưa SpaceX vào nhóm những đợt IPO lớn nhất từng được thực hiện trên toàn cầu…
GAM Esports vừa gia nhập danh sách 40 câu lạc bộ thuộc Chương trình Đối tác 20 triệu USD của Esports Foundation, tiếp cận mạng lưới hơn 300 triệu người hâm mộ toàn cầu...