Nvidia sắp ra chip AI mới, tái định hình cuộc đua điện toán
Thanh Minh
02/03/2026
Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này...
Trước sức ép ngày càng lớn từ các đối thủ và làn sóng AI tác nhân (agentic AI), Nvidia được cho là sắp ra mắt một nền tảng xử lý mới chuyên cho tác vụ “inference” – giai đoạn giúp mô hình AI trả lời truy vấn người dùng.
Động thái này không chỉ đánh dấu bước chuyển chiến lược quan trọng của hãng chip đồ họa số một thế giới, mà còn có thể làm thay đổi cục diện cạnh tranh trong ngành hạ tầng AI toàn cầu.
THAM VỌNG THỐNG LĨNH SUY LUẬN AI
Theo Wall Street Journal, trong nhiều năm qua, Nvidia gần như đồng nghĩa với sức mạnh tính toán cho AI. Các dòng GPU như Hopper, Blackwell hay Rubin của hãng được xem là tiêu chuẩn vàng cho việc huấn luyện các mô hình AI khổng lồ. Theo ước tính của nhiều nhà phân tích, Nvidia đang nắm giữ hơn 90% thị phần GPU phục vụ trung tâm dữ liệu AI.
Nếu như giai đoạn 2022–2024 là thời kỳ bùng nổ huấn luyện các mô hình nền tảng, thì từ năm 2025 trở đi, trọng tâm dần chuyển sang “inference” – quá trình vận hành mô hình để trả lời câu hỏi, sinh nội dung và thực thi tác vụ thực tế cho người dùng.
Tuy nhiên, thị trường AI đang bước vào một giai đoạn mới. Nếu như giai đoạn 2022–2024 là thời kỳ bùng nổ huấn luyện các mô hình nền tảng, thì từ năm 2025 trở đi, trọng tâm dần chuyển sang “inference” – quá trình vận hành mô hình để trả lời câu hỏi, sinh nội dung và thực thi tác vụ thực tế cho người dùng.
Theo các nguồn tin thân cận, Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này. Điểm đáng chú ý là nền tảng này sẽ tích hợp một con chip do startup Groq thiết kế – công ty mà Nvidia đã đạt thỏa thuận trị giá khoảng 20 tỷ USD vào cuối năm ngoái để cấp phép công nghệ và chiêu mộ đội ngũ lãnh đạo, bao gồm nhà sáng lập Jonathan Ross.
Groq phát triển kiến trúc “language processing unit” (LPU), khác biệt so với GPU truyền thống của Nvidia. Kiến trúc này được tối ưu hóa cho các tác vụ suy luận, đặc biệt là trong quá trình “decode” – khi mô hình AI tạo phản hồi từng từ một, vốn là phần chậm và tiêu tốn tài nguyên nhất.
Động thái này cho thấy Nvidia đang sẵn sàng điều chỉnh chiến lược cốt lõi. Trong nhiều năm, CEO Jensen Huang luôn khẳng định GPU của hãng đủ linh hoạt để vừa huấn luyện vừa suy luận. Nhưng trước sự dịch chuyển nhu cầu thị trường, Nvidia buộc phải phát triển các giải pháp chuyên biệt hơn, hiệu quả hơn về chi phí và điện năng.
SỨC ÉP TỪ OPENAI, GOOGLE, AMAZON VÀ LÀN SÓNG AI TÁC NHÂN
Sự thay đổi chiến lược của Nvidia không “vô tình diễn ra”. Trong năm qua, các đối thủ lớn như Google và Amazon đã đẩy mạnh phát triển chip riêng cho AI. Amazon tung ra dòng Trainium và Inferentia, còn Google tiếp tục mở rộng hệ sinh thái TPU phục vụ Google Cloud.
Ngay cả những khách hàng lớn nhất của Nvidia cũng bắt đầu tìm kiếm phương án thay thế. OpenAI – một trong những khách hàng tiêu thụ GPU lớn nhất thế giới – được cho là đã đồng ý trở thành một trong những khách hàng lớn nhất của bộ xử lý inference mới từ Nvidia. Trước đó, OpenAI công bố sẽ mua “năng lực suy luận chuyên dụng” từ Nvidia song song với khoản đầu tư 30 tỷ USD từ hãng chip này.
Tuy nhiên, OpenAI cũng không đặt toàn bộ trứng vào một giỏ. Họ đã ký thỏa thuận lớn sử dụng chip Trainium của Amazon, đồng thời thiết lập quan hệ hợp tác điện toán trị giá hàng tỷ USD với Cerebras – startup chuyên về chip tối ưu cho inference. CEO Cerebras, Andrew Feldman, tuyên bố sản phẩm của họ nhanh hơn GPU của Nvidia trong nhiều tác vụ suy luận.
Lý do của sự dịch chuyển này nằm ở làn sóng AI tác nhân – các hệ thống có khả năng tự động thực hiện chuỗi hành động thay mặt người dùng, từ viết mã, phân tích dữ liệu đến điều phối quy trình kinh doanh. Những ứng dụng này đòi hỏi khả năng suy luận liên tục, phản hồi nhanh, chi phí thấp và tiết kiệm năng lượng.
Trong thực tế, nhiều công ty vận hành AI tác nhân nhận thấy GPU truyền thống quá đắt đỏ và tiêu tốn điện năng khi triển khai ở quy mô lớn. Khi doanh thu AI ngày càng dựa vào mô hình thuê bao và khối lượng truy vấn khổng lồ, bài toán kinh tế của inference trở nên sống còn.
NVIDIA MỞ RỘNG KHỎI GPU, TÁI ĐỊNH NGHĨA VỊ THẾ TRONG HẠ TẦNG AI
Một ví dụ điển hình là mảng lập trình tự động – hiện được xem là một trong những ứng dụng AI doanh nghiệp sinh lời nhất. Công cụ Claude Code của Anthropic đang dẫn đầu thị trường, nhưng lại chủ yếu dựa vào hạ tầng chip của Amazon Web Services và Google Cloud, thay vì Nvidia. Trong khi đó, OpenAI kỳ vọng sử dụng nền tảng mới của Nvidia để nâng cấp Codex – đối thủ cạnh tranh trực tiếp của Claude Code.
Cuộc đua AI đang bước sang một chương mới – nơi hiệu quả, chi phí và tốc độ phản hồi quan trọng không kém quy mô mô hình. Nvidia, thay vì chỉ là “vua GPU”, đang cố gắng tái định nghĩa mình như nhà cung cấp hạ tầng toàn diện cho kỷ nguyên AI suy luận.
Một điểm đáng chú ý khác là Nvidia không còn chỉ đặt cược vào GPU. Truyền thống, hãng thường kết hợp CPU Vera với GPU Rubin trong các máy chủ trung tâm dữ liệu hiệu năng cao. Nhưng thực tế triển khai cho thấy một số khối lượng công việc AI tác nhân có thể chạy hiệu quả hơn chỉ với CPU.
Tháng này, Nvidia công bố mở rộng hợp tác với Meta, bao gồm lần triển khai CPU-only quy mô lớn đầu tiên để hỗ trợ các tác nhân AI phục vụ quảng cáo. Thỏa thuận này được xem là tín hiệu sớm cho chiến lược mới: Nvidia tìm cách “khóa chặt” các phân khúc AI bằng giải pháp linh hoạt hơn, thay vì chỉ bán GPU cao cấp.
Wall Street Journal cho rằng bối cảnh cạnh tranh hiện nay cho thấy thị trường AI đang phân mảnh nhanh chóng. Nếu như trước đây cuộc đua chủ yếu xoay quanh ai huấn luyện được mô hình lớn hơn, thì giờ đây câu hỏi chuyển sang: ai có thể vận hành mô hình hiệu quả nhất, rẻ nhất và ở quy mô lớn nhất?
Inference được chia thành hai bước chính: “pre-fill” – khi mô hình tiếp nhận và xử lý truy vấn ban đầu; và “decode” – khi mô hình tạo câu trả lời từng từ một. Decode thường chậm hơn và tiêu tốn tài nguyên hơn, đặc biệt với các mô hình lớn. Chính ở điểm nghẽn này, các kiến trúc mới như LPU của Groq hay wafer-scale engine của Cerebras tìm cách tạo lợi thế.
Với việc tích hợp công nghệ từ Groq và thuyết phục OpenAI trở thành khách hàng lớn, Nvidia đang gửi đi thông điệp rõ ràng: họ không chỉ muốn thống trị kỷ nguyên huấn luyện AI, mà còn quyết tâm dẫn đầu giai đoạn khai thác thương mại AI ở quy mô toàn cầu.
Theo dự báo của tổ chức nghiên cứu TechInsights (Canada), tổng lượng phát thải của ngành bán dẫn có thể tăng khoảng một phần ba, lên tới 247 triệu tấn CO₂ tương đương vào năm 2030...
Mức lương trong lĩnh vực này đang tăng nhanh do tình trạng khan hiếm nhân lực. Nhiều vị trí hiện đã có thể đạt mức thu nhập sáu con số...
Khi việc sử dụng AI ngày càng phổ biến trong nội bộ, các công ty đang chuyển sang theo dõi “token” – đơn vị đo lường chi phí vận hành AI – để kiểm soát hiệu quả và tối ưu hóa đầu tư...
CEO Jensen Huang của Nvidia nhấn mạnh mọi doanh nghiệp đều cần xây dựng “chiến lược OpenClaw”...
Tập đoàn công nghệ Nvidia vừa đưa ra một dự báo đầy tham vọng: tổng doanh thu có thể đạt tới 1.000 tỷ USD trong giai đoạn đến năm 2027, khi nhu cầu đối với chip trí tuệ nhân tạo tiếp tục tăng mạnh...
Sự bùng nổ của trí tuệ nhân tạo (AI) đang tạo ra một hệ quả đáng chú ý: các tập đoàn công nghệ lớn gia tăng mạnh việc mua tín chỉ carbon để bù đắp lượng khí thải phát sinh từ quá trình mở rộng hạ tầng phục vụ AI…
Từ tình trạng thiếu RAM toàn cầu đẩy giá console lên cao đến làn sóng mất việc trong ngành, ngành công nghiệp game đang trở thành một trong những “nạn nhân” lớn nhất của cơn bùng nổ AI...
Chính quyền một số địa phương tại Trung Quốc đã nhanh chóng khuyến khích ứng dụng OpenClaw dù có một số nghi ngại liên quan đến công cụ này…
Cơn sốt cài đặt tác nhân AI OpenClaw tại Trung Quốc đang có bước ngoặt trớ trêu: sau khi trả tiền để cài đặt, nhiều người dùng nay lại tiếp tục chi tiền để gỡ bỏ phần mềm này…
Khi các trung tâm dữ liệu AI tiêu thụ hơn một nửa lượng DRAM của thế giới, các hãng máy tính cá nhân như Lenovo, HP, Dell, Asus hay Acer đang chịu áp lực lớn phải tăng giá sản phẩm hoặc cắt giảm cấu hình...