image Thứ Hai, 02/03/2026

Nvidia sắp ra chip AI mới, tái định hình cuộc đua điện toán

Thanh Minh

02/03/2026

Chia sẻ

Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này...

Nvidia sắp ra chip AI mới, tái định hình cuộc đua điện toán

Trước sức ép ngày càng lớn từ các đối thủ và làn sóng AI tác nhân (agentic AI), Nvidia được cho là sắp ra mắt một nền tảng xử lý mới chuyên cho tác vụ “inference” – giai đoạn giúp mô hình AI trả lời truy vấn người dùng.

Động thái này không chỉ đánh dấu bước chuyển chiến lược quan trọng của hãng chip đồ họa số một thế giới, mà còn có thể làm thay đổi cục diện cạnh tranh trong ngành hạ tầng AI toàn cầu.

THAM VỌNG THỐNG LĨNH SUY LUẬN AI

Theo Wall Street Journal, trong nhiều năm qua, Nvidia gần như đồng nghĩa với sức mạnh tính toán cho AI. Các dòng GPU như Hopper, Blackwell hay Rubin của hãng được xem là tiêu chuẩn vàng cho việc huấn luyện các mô hình AI khổng lồ. Theo ước tính của nhiều nhà phân tích, Nvidia đang nắm giữ hơn 90% thị phần GPU phục vụ trung tâm dữ liệu AI.

Nếu như giai đoạn 2022–2024 là thời kỳ bùng nổ huấn luyện các mô hình nền tảng, thì từ năm 2025 trở đi, trọng tâm dần chuyển sang “inference” – quá trình vận hành mô hình để trả lời câu hỏi, sinh nội dung và thực thi tác vụ thực tế cho người dùng.

Tuy nhiên, thị trường AI đang bước vào một giai đoạn mới. Nếu như giai đoạn 2022–2024 là thời kỳ bùng nổ huấn luyện các mô hình nền tảng, thì từ năm 2025 trở đi, trọng tâm dần chuyển sang “inference” – quá trình vận hành mô hình để trả lời câu hỏi, sinh nội dung và thực thi tác vụ thực tế cho người dùng.

Theo các nguồn tin thân cận, Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này. Điểm đáng chú ý là nền tảng này sẽ tích hợp một con chip do startup Groq thiết kế – công ty mà Nvidia đã đạt thỏa thuận trị giá khoảng 20 tỷ USD vào cuối năm ngoái để cấp phép công nghệ và chiêu mộ đội ngũ lãnh đạo, bao gồm nhà sáng lập Jonathan Ross.

Groq phát triển kiến trúc “language processing unit” (LPU), khác biệt so với GPU truyền thống của Nvidia. Kiến trúc này được tối ưu hóa cho các tác vụ suy luận, đặc biệt là trong quá trình “decode” – khi mô hình AI tạo phản hồi từng từ một, vốn là phần chậm và tiêu tốn tài nguyên nhất.

Động thái này cho thấy Nvidia đang sẵn sàng điều chỉnh chiến lược cốt lõi. Trong nhiều năm, CEO Jensen Huang luôn khẳng định GPU của hãng đủ linh hoạt để vừa huấn luyện vừa suy luận. Nhưng trước sự dịch chuyển nhu cầu thị trường, Nvidia buộc phải phát triển các giải pháp chuyên biệt hơn, hiệu quả hơn về chi phí và điện năng.

SỨC ÉP TỪ OPENAI, GOOGLE, AMAZON VÀ LÀN SÓNG AI TÁC NHÂN

Sự thay đổi chiến lược của Nvidia không “vô tình diễn ra”. Trong năm qua, các đối thủ lớn như Google và Amazon đã đẩy mạnh phát triển chip riêng cho AI. Amazon tung ra dòng Trainium và Inferentia, còn Google tiếp tục mở rộng hệ sinh thái TPU phục vụ Google Cloud.

Ngay cả những khách hàng lớn nhất của Nvidia cũng bắt đầu tìm kiếm phương án thay thế. OpenAI – một trong những khách hàng tiêu thụ GPU lớn nhất thế giới – được cho là đã đồng ý trở thành một trong những khách hàng lớn nhất của bộ xử lý inference mới từ Nvidia. Trước đó, OpenAI công bố sẽ mua “năng lực suy luận chuyên dụng” từ Nvidia song song với khoản đầu tư 30 tỷ USD từ hãng chip này.

Tuy nhiên, OpenAI cũng không đặt toàn bộ trứng vào một giỏ. Họ đã ký thỏa thuận lớn sử dụng chip Trainium của Amazon, đồng thời thiết lập quan hệ hợp tác điện toán trị giá hàng tỷ USD với Cerebras – startup chuyên về chip tối ưu cho inference. CEO Cerebras, Andrew Feldman, tuyên bố sản phẩm của họ nhanh hơn GPU của Nvidia trong nhiều tác vụ suy luận.

Lý do của sự dịch chuyển này nằm ở làn sóng AI tác nhân – các hệ thống có khả năng tự động thực hiện chuỗi hành động thay mặt người dùng, từ viết mã, phân tích dữ liệu đến điều phối quy trình kinh doanh. Những ứng dụng này đòi hỏi khả năng suy luận liên tục, phản hồi nhanh, chi phí thấp và tiết kiệm năng lượng.

Trong thực tế, nhiều công ty vận hành AI tác nhân nhận thấy GPU truyền thống quá đắt đỏ và tiêu tốn điện năng khi triển khai ở quy mô lớn. Khi doanh thu AI ngày càng dựa vào mô hình thuê bao và khối lượng truy vấn khổng lồ, bài toán kinh tế của inference trở nên sống còn.

NVIDIA MỞ RỘNG KHỎI GPU, TÁI ĐỊNH NGHĨA VỊ THẾ TRONG HẠ TẦNG AI

Một ví dụ điển hình là mảng lập trình tự động – hiện được xem là một trong những ứng dụng AI doanh nghiệp sinh lời nhất. Công cụ Claude Code của Anthropic đang dẫn đầu thị trường, nhưng lại chủ yếu dựa vào hạ tầng chip của Amazon Web Services và Google Cloud, thay vì Nvidia. Trong khi đó, OpenAI kỳ vọng sử dụng nền tảng mới của Nvidia để nâng cấp Codex – đối thủ cạnh tranh trực tiếp của Claude Code.

Cuộc đua AI đang bước sang một chương mới – nơi hiệu quả, chi phí và tốc độ phản hồi quan trọng không kém quy mô mô hình. Nvidia, thay vì chỉ là “vua GPU”, đang cố gắng tái định nghĩa mình như nhà cung cấp hạ tầng toàn diện cho kỷ nguyên AI suy luận.

Một điểm đáng chú ý khác là Nvidia không còn chỉ đặt cược vào GPU. Truyền thống, hãng thường kết hợp CPU Vera với GPU Rubin trong các máy chủ trung tâm dữ liệu hiệu năng cao. Nhưng thực tế triển khai cho thấy một số khối lượng công việc AI tác nhân có thể chạy hiệu quả hơn chỉ với CPU.

Tháng này, Nvidia công bố mở rộng hợp tác với Meta, bao gồm lần triển khai CPU-only quy mô lớn đầu tiên để hỗ trợ các tác nhân AI phục vụ quảng cáo. Thỏa thuận này được xem là tín hiệu sớm cho chiến lược mới: Nvidia tìm cách “khóa chặt” các phân khúc AI bằng giải pháp linh hoạt hơn, thay vì chỉ bán GPU cao cấp.

Wall Street Journal cho rằng bối cảnh cạnh tranh hiện nay cho thấy thị trường AI đang phân mảnh nhanh chóng. Nếu như trước đây cuộc đua chủ yếu xoay quanh ai huấn luyện được mô hình lớn hơn, thì giờ đây câu hỏi chuyển sang: ai có thể vận hành mô hình hiệu quả nhất, rẻ nhất và ở quy mô lớn nhất?

Inference được chia thành hai bước chính: “pre-fill” – khi mô hình tiếp nhận và xử lý truy vấn ban đầu; và “decode” – khi mô hình tạo câu trả lời từng từ một. Decode thường chậm hơn và tiêu tốn tài nguyên hơn, đặc biệt với các mô hình lớn. Chính ở điểm nghẽn này, các kiến trúc mới như LPU của Groq hay wafer-scale engine của Cerebras tìm cách tạo lợi thế.

Với việc tích hợp công nghệ từ Groq và thuyết phục OpenAI trở thành khách hàng lớn, Nvidia đang gửi đi thông điệp rõ ràng: họ không chỉ muốn thống trị kỷ nguyên huấn luyện AI, mà còn quyết tâm dẫn đầu giai đoạn khai thác thương mại AI ở quy mô toàn cầu.


CEO Jensen Huang: Thị trường “đã sai” về mối đe dọa của AI với các công ty phần mềm

Nhà đầu tư gần đây tỏ ra lo ngại rằng làn sóng chi tiêu khổng lồ cho phần cứng AI có thể không bền vững…

10:16 02/03/2026
Nhật Bản tăng tốc xây hệ sinh thái chip AI nội địa, hình thành các “cứ điểm” R&D mới

Chiến lược này phản ánh cách tiếp cận mới của Nhật Bản: thay vì phát triển đơn lẻ, Tokyo chọn cách xây dựng hạ tầng dùng chung, khuyến khích hợp tác công – tư và mở rộng liên kết quốc tế...

21:50 27/02/2026
Từ thưởng hiệu suất đến điều kiện tuyển dụng: Các hãng công nghệ đang “ép” nhân viên dùng AI

Từ các startup vài trăm người đến những gã khổng lồ như Amazon, Google, Meta, Microsoft hay Salesforce, trí tuệ nhân tạo (AI) không còn là công cụ tùy chọn nữa …

18:59 26/02/2026
Khởi nghiệp quy mô nhỏ nhờ AI: Rủi ro tiềm ẩn sau đội ngũ tinh gọn

AI giúp doanh nghiệp sở hữu đội ngũ nhân viên ở mức tối thiểu nhưng việc tinh gọn cũng che lấp nhiều cơ hội kinh doanh…

18:59 26/02/2026
Chatbot đang điều hướng marketing như thế nào?

Các câu trả lời từ chatbot giờ đây không chỉ đơn thuần phục vụ cho mục đích cá nhân mà còn trở thành một công cụ điều hướng người dùng mới của các doanh nghiệp…

18:59 26/02/2026
Meta bắt tay AMD trong thương vụ AI hơn 100 tỷ USD

Thỏa thuận mua 6 gigawatt năng lực tính toán AI từ AMD không chỉ mang lại hợp đồng trị giá hơn 100 tỷ USD, mà còn có thể giúp Meta sở hữu tới 10% cổ phần của nhà sản xuất chip...

13:02 25/02/2026
ByteDance đặt cược vào AI nhằm thúc đẩy tăng trưởng ngoài TikTok

ByteDance quyết tâm đẩy mạnh AI khi chatbot Doubao vượt mốc 100 triệu người dùng…

10:38 25/02/2026
Robot có thể nhiều hơn lao động con người trong vài thập kỷ tới

Viễn cảnh robot vượt số lao động có thể không chỉ là dự báo mà trở thành hiện thực kinh tế trong vài thập kỷ tới...

10:36 25/02/2026
Sản xuất thiết bị bán dẫn toàn cầu dự báo tăng trưởng hai chữ số

Doanh thu và lợi nhuận đồng loạt tăng hai chữ số, đơn hàng giao sớm dồn dập, trong khi thị trường Trung Quốc tiếp tục là điểm nóng giữa bối cảnh kiểm soát xuất khẩu ngày càng siết chặt...

10:24 24/02/2026
Ông lớn công nghệ Trung Quốc ráo riết “săn đầu người” AI và bán dẫn tại Mỹ

ByteDance, Baidu, Alibaba Cloud và MiniMax đang tăng tốc tuyển dụng nhân tài trí tuệ nhân tạo (AI) và thiết kế bán dẫn tại các trung tâm công nghệ lớn của Mỹ…

10:23 24/02/2026