Thêm một LLM Trung Quốc "đánh bại" ChatGPT ở nhiều nhiệm vụ quan trọng
Mô hình mới của Alibaba thể hiện sự vượt trội trong lĩnh vực toán học, lập trình và tư duy logic so với OpenAI hay DeepSeek…

Tập đoàn công nghệ và thương mại điện tử đa quốc gia Alibaba vừa ra mắt phiên bản nâng cấp của mô hình ngôn ngữ lớn Qwen3, với nhiều cải tiến rõ rệt trong tác vụ toán học, lập trình, tư duy và xử lý đa ngôn ngữ.
Theo Tech Wire Asia, một biến thể của mô hình, Qwen3-235B-A22B-2507-Instruct, được phát hành trên Hugging Face và nền tảng ModelScope của Alibaba, kèm theo phiên bản tối ưu sử dụng định dạng FP8, giúp công nghệ chạy mượt hơn trên phần cứng hạn chế.
Công ty tuyên bố bản cập nhật này có hiệu suất tốt hơn ở các nhiệm vụ như suy luận logic, sử dụng công cụ và hiểu ngữ cảnh dài. Trong bài kiểm tra tiêu chuẩn, Qwen3 cũng vượt qua một số đối thủ.
CẢI THIỆN HIỆU SUẤT MẠNH MẼ
Một trong những cập nhật đáng chú ý là việc sử dụng định dạng FP8 (8-bit floating point) giúp giảm đáng kể yêu cầu về bộ nhớ và năng lực tính toán khi vận hành mô hình. Điều này khiến mô hình trở nên hữu dụng hơn đối với nhóm tổ chức nhỏ hoặc doanh nghiệp không có cơ sở hạ tầng quy mô lớn.
Người dùng có thể chạy mô hình trên phần cứng cơ bản hoặc triển khai hiệu quả hơn trên nền tảng đám mây, từ đó tiết kiệm năng lượng và tăng tốc độ phản hồi. Mặc dù Alibaba không công bố số liệu cụ thể, nhưng các hệ thống tương tự sử dụng định dạng FP8 thường giúp giảm đáng kể chi phí và mức tiêu thụ tài nguyên.
Nói cách khác, định dạng FP8 cho phép các tổ chức đạt hiệu quả cao với chi phí thấp hơn. Thay vì cần đến cụm máy chủ lớn, người dùng giờ đây có thể chạy mô hình trên một GPU duy nhất hoặc thậm chí trên máy tính cá nhân. Đồng thời, định dạng này cũng giúp tổ chức dễ dàng tinh chỉnh mô hình mà không gặp trở ngại hạ tầng như trước.
Trong bài đánh giá công khai, Qwen3 đạt kết quả vượt trội: 70,3 điểm trong kỳ thi Toán học Hoa Kỳ AIME 2025 – cao hơn nhiều so với DeepSeek (46,6) và GPT-4o của OpenAI (26,7). Trong kiểm tra lập trình MultiPL-E, Qwen3 ghi 87,9 điểm – nhỉnh hơn DeepSeek và OpenAI, chỉ thua Claude Opus 4 Non-thinking của Anthropic (88,5 điểm).
Đúng như tên gọi, phiên bản Qwen mới chỉ hỗ trợ chế độ "non-thinking" – nghĩa là mô hình đưa ra câu trả lời trực tiếp mà không hiển thị bước suy luận hay chuỗi lập luận. Tuy nhiên, công cụ có thể xử lý đầu vào dài hơn trước, với giới hạn số lượng token nâng lên tới 256.000, giúp mô hình xử lý hiệu quả tài liệu lớn hoặc đoạn hội thoại kéo dài trong một lần chạy duy nhất.
TỪ BỎ MÔ HÌNH TƯ DUY “LAI”
Thay đổi này gắn liền với một quyết định khác của Alibaba: từ bỏ phương pháp tiếp cận trước đó là sử dụng mô hình tư duy “lai” (hybrid reasoning), theo thông tin từ VentureBeat. Cụ thể, mô hình “lai” trước đây cho phép người dùng chuyển đổi giữa hai chế độ suy nghĩ và không suy nghĩ tùy thuộc nhiệm vụ. Người dùng có thể bật chế độ tư duy bằng cách nhập lệnh “/think” trước đoạn nhắc (prompt), để mô hình tiến hành phân tích logic trước khi đưa ra câu trả lời.

Phương pháp này từng mang lại nhiều quyền kiểm soát hơn cho người dùng, nhưng cũng dẫn đến một số vấn đề trong thiết kế. Mô hình đôi khi phản hồi không nhất quán tùy thuộc vào cách đặt câu hỏi, buộc người dùng phải quyết định khi nào cần kích hoạt hoặc tắt suy luận logic. Sau khi thu thập phản hồi từ cộng đồng, nhóm phát triển Qwen cho biết họ sẽ huấn luyện riêng biệt hai mô hình: một chuyên xử lý tác vụ theo chỉ dẫn, và một chuyên phục vụ nhiệm vụ tư duy logic, thay vì gộp cả hai vào một mô hình như trước.
Trong bài đăng trên mạng xã hội, công ty cho biết: “Sau khi trò chuyện với cộng đồng và cân nhắc kỹ lưỡng, chúng tôi quyết định dừng sử dụng chế độ tư duy lai. Thay vào đó, chúng tôi đào tạo riêng hai mô hình Instruct và Thinking để đạt chất lượng cao nhất có thể”.
Điều này đồng nghĩa với việc phiên bản 2507 hiện tại chỉ tập trung vào việc làm theo chỉ dẫn và tạo phản hồi trực tiếp. Trong thời điểm hiện tại, mô hình dành riêng cho suy luận logic sẽ được phát triển theo hướng riêng biệt.
ỨNG DỤNG THỰC TIỄN
Alibaba cũng bắt đầu tích hợp mô hình Qwen vào sản phẩm thực tế. Một phiên bản với 3 tỷ tham số sẽ được sử dụng để cung cấp sức mạnh cho Xiaowei Hui – trợ lý ảo thông minh do HP phát triển, cài đặt sẵn trên máy tính tại Trung Quốc. Trợ lý được kỳ vọng sẽ hỗ trợ nhiều tác vụ như viết nội dung và tóm tắt cuộc họp.
Dòng Qwen3, ra mắt vào tháng 4 năm nay, bao gồm mô hình có quy mô từ 600 triệu đến 235 tỷ tham số. Biến thể – Qwen3-235B-A22B-no-thinking – hiện nằm trong nhóm mô hình mã nguồn mở hàng đầu thế giới, chỉ xếp sau một vài mô hình Trung Quốc đến từ Moonshot AI và DeepSeek, theo báo cáo từ LMArena.
Tháng trước, bảng xếp hạng Hugging Face cũng đưa một số mô hình Qwen vào top 10 mô hình ngôn ngữ lớn (LLM) tốt nhất tại Trung Quốc, tiếp tục củng cố vị thế dòng sản phẩm này trong lĩnh vực AI mã nguồn mở.
Giám đốc Điều hành Nvidia, ông Jensen Huang, trong chuyến thăm Trung Quốc hồi tuần trước đã bày tỏ sự công nhận với tiến bộ của quốc gia này trong lĩnh vực AI mã nguồn mở. Ông đánh giá Qwen của Alibaba, cùng với DeepSeek và Kimi của Moonshot, là những mô hình "rất tiên tiến" và “thuộc nhóm mô hình tư duy mã nguồn mở tốt nhất hiện nay trên thế giới”.
Việc nhóm phát triển Qwen tách riêng hai mô hình theo hướng chỉ dẫn và tư duy cho thấy sự thay đổi chiến lược rõ rệt – ưu tiên tính ổn định và hiệu năng thay vì sự linh hoạt. Mặc dù điều này đồng nghĩa với việc người dùng không còn khả năng chuyển đổi giữa hai chế độ trong cùng một mô hình, nhưng đổi lại kết quả tốt hơn cho từng loại tác vụ.
Đối với những nhóm phát triển đang tìm kiếm mô hình mạnh có thể vận hành trên hạ tầng tiết kiệm chi phí, phiên bản FP8 và Qwen3 rất đáng cân nhắc. Với những ai đang theo dõi bảng xếp hạng hiệu suất, mô hình mới nhất của Alibaba hiện đã chính thức bước vào cuộc đua cùng vô số ông lớn hàng đầu trong lĩnh vực AI.