image Thứ Bảy, 02/05/2026

Nvidia sắp ra chip AI mới, tái định hình cuộc đua điện toán

Thanh Minh

02/03/2026

Chia sẻ

Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này...

Nvidia sắp ra chip AI mới, tái định hình cuộc đua điện toán

Trước sức ép ngày càng lớn từ các đối thủ và làn sóng AI tác nhân (agentic AI), Nvidia được cho là sắp ra mắt một nền tảng xử lý mới chuyên cho tác vụ “inference” – giai đoạn giúp mô hình AI trả lời truy vấn người dùng.

Động thái này không chỉ đánh dấu bước chuyển chiến lược quan trọng của hãng chip đồ họa số một thế giới, mà còn có thể làm thay đổi cục diện cạnh tranh trong ngành hạ tầng AI toàn cầu.

THAM VỌNG THỐNG LĨNH SUY LUẬN AI

Theo Wall Street Journal, trong nhiều năm qua, Nvidia gần như đồng nghĩa với sức mạnh tính toán cho AI. Các dòng GPU như Hopper, Blackwell hay Rubin của hãng được xem là tiêu chuẩn vàng cho việc huấn luyện các mô hình AI khổng lồ. Theo ước tính của nhiều nhà phân tích, Nvidia đang nắm giữ hơn 90% thị phần GPU phục vụ trung tâm dữ liệu AI.

Nếu như giai đoạn 2022–2024 là thời kỳ bùng nổ huấn luyện các mô hình nền tảng, thì từ năm 2025 trở đi, trọng tâm dần chuyển sang “inference” – quá trình vận hành mô hình để trả lời câu hỏi, sinh nội dung và thực thi tác vụ thực tế cho người dùng.

Tuy nhiên, thị trường AI đang bước vào một giai đoạn mới. Nếu như giai đoạn 2022–2024 là thời kỳ bùng nổ huấn luyện các mô hình nền tảng, thì từ năm 2025 trở đi, trọng tâm dần chuyển sang “inference” – quá trình vận hành mô hình để trả lời câu hỏi, sinh nội dung và thực thi tác vụ thực tế cho người dùng.

Theo các nguồn tin thân cận, Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này. Điểm đáng chú ý là nền tảng này sẽ tích hợp một con chip do startup Groq thiết kế – công ty mà Nvidia đã đạt thỏa thuận trị giá khoảng 20 tỷ USD vào cuối năm ngoái để cấp phép công nghệ và chiêu mộ đội ngũ lãnh đạo, bao gồm nhà sáng lập Jonathan Ross.

Groq phát triển kiến trúc “language processing unit” (LPU), khác biệt so với GPU truyền thống của Nvidia. Kiến trúc này được tối ưu hóa cho các tác vụ suy luận, đặc biệt là trong quá trình “decode” – khi mô hình AI tạo phản hồi từng từ một, vốn là phần chậm và tiêu tốn tài nguyên nhất.

Động thái này cho thấy Nvidia đang sẵn sàng điều chỉnh chiến lược cốt lõi. Trong nhiều năm, CEO Jensen Huang luôn khẳng định GPU của hãng đủ linh hoạt để vừa huấn luyện vừa suy luận. Nhưng trước sự dịch chuyển nhu cầu thị trường, Nvidia buộc phải phát triển các giải pháp chuyên biệt hơn, hiệu quả hơn về chi phí và điện năng.

SỨC ÉP TỪ OPENAI, GOOGLE, AMAZON VÀ LÀN SÓNG AI TÁC NHÂN

Sự thay đổi chiến lược của Nvidia không “vô tình diễn ra”. Trong năm qua, các đối thủ lớn như Google và Amazon đã đẩy mạnh phát triển chip riêng cho AI. Amazon tung ra dòng Trainium và Inferentia, còn Google tiếp tục mở rộng hệ sinh thái TPU phục vụ Google Cloud.

Ngay cả những khách hàng lớn nhất của Nvidia cũng bắt đầu tìm kiếm phương án thay thế. OpenAI – một trong những khách hàng tiêu thụ GPU lớn nhất thế giới – được cho là đã đồng ý trở thành một trong những khách hàng lớn nhất của bộ xử lý inference mới từ Nvidia. Trước đó, OpenAI công bố sẽ mua “năng lực suy luận chuyên dụng” từ Nvidia song song với khoản đầu tư 30 tỷ USD từ hãng chip này.

Tuy nhiên, OpenAI cũng không đặt toàn bộ trứng vào một giỏ. Họ đã ký thỏa thuận lớn sử dụng chip Trainium của Amazon, đồng thời thiết lập quan hệ hợp tác điện toán trị giá hàng tỷ USD với Cerebras – startup chuyên về chip tối ưu cho inference. CEO Cerebras, Andrew Feldman, tuyên bố sản phẩm của họ nhanh hơn GPU của Nvidia trong nhiều tác vụ suy luận.

Lý do của sự dịch chuyển này nằm ở làn sóng AI tác nhân – các hệ thống có khả năng tự động thực hiện chuỗi hành động thay mặt người dùng, từ viết mã, phân tích dữ liệu đến điều phối quy trình kinh doanh. Những ứng dụng này đòi hỏi khả năng suy luận liên tục, phản hồi nhanh, chi phí thấp và tiết kiệm năng lượng.

Trong thực tế, nhiều công ty vận hành AI tác nhân nhận thấy GPU truyền thống quá đắt đỏ và tiêu tốn điện năng khi triển khai ở quy mô lớn. Khi doanh thu AI ngày càng dựa vào mô hình thuê bao và khối lượng truy vấn khổng lồ, bài toán kinh tế của inference trở nên sống còn.

NVIDIA MỞ RỘNG KHỎI GPU, TÁI ĐỊNH NGHĨA VỊ THẾ TRONG HẠ TẦNG AI

Một ví dụ điển hình là mảng lập trình tự động – hiện được xem là một trong những ứng dụng AI doanh nghiệp sinh lời nhất. Công cụ Claude Code của Anthropic đang dẫn đầu thị trường, nhưng lại chủ yếu dựa vào hạ tầng chip của Amazon Web Services và Google Cloud, thay vì Nvidia. Trong khi đó, OpenAI kỳ vọng sử dụng nền tảng mới của Nvidia để nâng cấp Codex – đối thủ cạnh tranh trực tiếp của Claude Code.

Cuộc đua AI đang bước sang một chương mới – nơi hiệu quả, chi phí và tốc độ phản hồi quan trọng không kém quy mô mô hình. Nvidia, thay vì chỉ là “vua GPU”, đang cố gắng tái định nghĩa mình như nhà cung cấp hạ tầng toàn diện cho kỷ nguyên AI suy luận.

Một điểm đáng chú ý khác là Nvidia không còn chỉ đặt cược vào GPU. Truyền thống, hãng thường kết hợp CPU Vera với GPU Rubin trong các máy chủ trung tâm dữ liệu hiệu năng cao. Nhưng thực tế triển khai cho thấy một số khối lượng công việc AI tác nhân có thể chạy hiệu quả hơn chỉ với CPU.

Tháng này, Nvidia công bố mở rộng hợp tác với Meta, bao gồm lần triển khai CPU-only quy mô lớn đầu tiên để hỗ trợ các tác nhân AI phục vụ quảng cáo. Thỏa thuận này được xem là tín hiệu sớm cho chiến lược mới: Nvidia tìm cách “khóa chặt” các phân khúc AI bằng giải pháp linh hoạt hơn, thay vì chỉ bán GPU cao cấp.

Wall Street Journal cho rằng bối cảnh cạnh tranh hiện nay cho thấy thị trường AI đang phân mảnh nhanh chóng. Nếu như trước đây cuộc đua chủ yếu xoay quanh ai huấn luyện được mô hình lớn hơn, thì giờ đây câu hỏi chuyển sang: ai có thể vận hành mô hình hiệu quả nhất, rẻ nhất và ở quy mô lớn nhất?

Inference được chia thành hai bước chính: “pre-fill” – khi mô hình tiếp nhận và xử lý truy vấn ban đầu; và “decode” – khi mô hình tạo câu trả lời từng từ một. Decode thường chậm hơn và tiêu tốn tài nguyên hơn, đặc biệt với các mô hình lớn. Chính ở điểm nghẽn này, các kiến trúc mới như LPU của Groq hay wafer-scale engine của Cerebras tìm cách tạo lợi thế.

Với việc tích hợp công nghệ từ Groq và thuyết phục OpenAI trở thành khách hàng lớn, Nvidia đang gửi đi thông điệp rõ ràng: họ không chỉ muốn thống trị kỷ nguyên huấn luyện AI, mà còn quyết tâm dẫn đầu giai đoạn khai thác thương mại AI ở quy mô toàn cầu.

Dòng sự kiện:

Trí tuệ nhân tạo -AI

Lợi nhuận hãng chip Trung Quốc tăng hơn 1.100% nhờ AI

Lợi nhuận ròng của doanh nghiệp chip Yuanjie Trung Quốc tăng tới 1.153% so với cùng kỳ năm trước...

15:04 29/04/2026
Làn sóng “rời Big Tech”: Các nhà khoa học AI hàng đầu đổ xô lập startup, hút hàng tỷ USD vốn đầu tư

Các nhà nghiên cứu hàng đầu đang rời bỏ các Big Tech, từ Meta, Google, OpenAI hay DeepMind, để thành lập startup riêng…

12:03 29/04/2026
Esports Việt Nam: Từ thị trường tiềm năng đến hệ sinh thái hội nhập toàn cầu

Việt Nam được đánh giá là một trong những thị trường Esports năng động nhất trên toàn cầu nhờ vào thế hệ dân số trẻ am hiểu kỹ thuật số và đang sở hữu trình độ tiệm cận các tiêu chuẩn quốc tế...

12:03 29/04/2026
Trung Quốc ra chính sách bảo vệ tài xế công nghệ, nhân viên giao hàng

Theo định hướng mới, các nền tảng sẽ phải ký kết hợp đồng lao động tiêu chuẩn với người lao động, đảm bảo mức thu nhập hợp lý và xây dựng cơ chế bảo vệ quyền lợi rõ ràng hơn…

14:41 28/04/2026
Người thu nhập cao ứng dụng AI hàng ngày trong công việc

Hơn 60% lao động có thu nhập cao cho biết họ sử dụng AI hàng ngày trong công việc, trong khi con số này ở nhóm thu nhập thấp chỉ là 16%...

10:24 24/04/2026
Bổ nhiệm 700 huấn luyện viên từ hơn 100 quốc gia cho kỳ Esports Nations Cup đầu tiên

Đội ngũ huấn luyện viên từ hơn 90 tổ chức esports hàng đầu trên toàn cầu sẽ đảm nhiệm công tác tuyển chọn tuyển thủ và xây dựng đội hình ở các bộ môn thi đấu đồng đội hàng đầu...

10:23 24/04/2026
Cơn sốt Anthropic: Định giá chạm mốc nghìn tỷ USD trên thị trường thứ cấp, vượt OpenAI

Trong khi OpenAI vẫn giữ mức định giá cao theo các vòng gọi vốn chính thức, thị trường thứ cấp đang chứng kiến một làn sóng săn lùng cổ phiếu Anthropic chưa từng có…

22:22 23/04/2026
Trung Quốc nở rộ dịch vụ tạo bản sao AI

“Huấn luyện bản sao AI” không chỉ là thử nghiệm công nghệ, mà còn là quá trình số hóa tri thức lao động, một tài sản mà doanh nghiệp có thể khai thác lâu dài. Tuy nhiên, từ góc nhìn của người lao động, trải nghiệm này lại mang màu sắc rất khác...

14:06 23/04/2026
AI sẽ khiến cuộc khủng hoảng rác thải điện tử toàn cầu tồi tệ hơn

Làn sóng đầu tư và triển khai trí tuệ nhân tạo (AI) đang kéo theo nhu cầu phần cứng tăng vọt, từ GPU đến máy chủ chuyên dụng…

14:06 23/04/2026
Chân dung John Ternus, CEO mới của Apple: Từ chuyên gia phần cứng bước vào "cuộc đua" AI

Sau 25 năm gắn bó với Apple, John Ternus chính thức được chọn làm CEO, kế nhiệm Tim Cook từ ngày 1/9…

19:47 22/04/2026