image Thứ Năm, 18/09/2025

Mô hình ngôn ngữ nhỏ sẽ định hình tương lai AI tác nhân?

Mai Anh

18/09/2025

Chia sẻ

Các lợi thế của mô hình ngôn ngữ nhỏ được đánh giá sẽ giúp loại mô hình này phổ biến nhanh hơn trong thời gian tới…

Làn sóng AI tiếp theo đang được xây dựng để hướng đến tính cụ thể. Ảnh: Canvas
Làn sóng AI tiếp theo đang được xây dựng để hướng đến tính cụ thể. Ảnh: Canvas
Làn sóng AI tiếp theo đang được xây dựng để hướng đến tính cụ thể. Ảnh: Canvas
Làn sóng AI tiếp theo đang được xây dựng để hướng đến tính cụ thể. Ảnh: Canvas

Việc triển khai trí tuệ nhân tạo tác nhân (agentic AI) – trí tuệ nhân tạo có khả năng hành động độc lập đang tăng trưởng với tốc độ vũ bão.

Khảo sát từ Cloudera, nền tảng dành cho dữ liệu, phân tích và AI, giữa năm nay cho thấy, 96% số người được hỏi có kế hoạch mở rộng việc sử dụng các tác nhân AI trong 12 tháng tới, với một nửa đặt mục tiêu mở rộng đáng kể trên toàn tổ chức.

Bên cạnh người dùng, thị trường cũng nhìn thấy giá trị kinh tế đáng kể từ AI tác nhân. Tính đến cuối năm 2024, lĩnh vực này đã nhận được hơn 2 tỷ USD vốn đầu tư khởi nghiệp, được định giá ở mức 5,2 tỷ USD và được kỳ vọng sẽ tăng lên gần 200 tỷ USD vào năm 2034, theo dữ liệu từ Deloitte và trang Market.us. Nói một cách đơn giản, ngày càng có nhiều kỳ vọng rằng AI tác nhân sẽ đóng vai trò quan trọng trong nền kinh tế hiện đại.

Yếu tố cốt lõi thúc đẩy phần lớn AI tác nhân hiện đại là các mô hình ngôn ngữ lớn (LLM) – các mô hình trí tuệ nhân tạo được đào tạo trên khối lượng lớn dữ liệu để hiểu và tạo ra các văn bản và hình ảnh giống con người.

Chính các LLM này mang lại nền tảng trí tuệ cho phép tác nhân đưa ra quyết định chiến lược về thời điểm và cách thức sử dụng các công cụ sẵn có, kiểm soát luồng công việc cần thiết để hoàn thành nhiệm vụ, và nếu cần, phân tách nhiệm vụ phức tạp thành các nhiệm vụ nhỏ có thể quản lý cũng như thực hiện lập luận để lên kế hoạch hành động và giải quyết vấn đề.

Khi ChatGPT, Gemini và các nhóm AI khác xuất hiện cách đây hơn hai năm, các mô hình ngôn ngữ lớn đã thống trị bối cảnh công nghệ. Trong nhiều năm, cuộc đua AI được định nghĩa bởi quy mô – các mô hình lớn hơn, nhiều dữ liệu hơn và khả năng tính toán mạnh mẽ hơn.

Nhưng gần đây, đã có một sự chuyển dịch ngày càng tăng từ các mô hình ngôn ngữ lớn như GPT-4 và Gemini sang một thứ gì đó nhỏ hơn, tinh gọn hơn và thậm chí có thể mạnh mẽ hơn trong một số ứng dụng kinh doanh.

"Làn sóng AI tiếp theo đang được xây dựng để hướng đến tính cụ thể", ông Jahan Ali, nhà sáng lập kiêm CEO của MobileLive, chia sẻ với Forbes trong một cuộc phỏng vấn. "Các mô hình ngôn ngữ nhỏ (SLM) cho phép đào tạo AI dựa trên kiến ​​thức chuyên biệt của từng lĩnh vực, giúp các mô hình hiệu quả hơn nhiều đối với các nhu cầu kinh doanh thực tế”.

Nhóm nghiên cứu của Nvidia trong báo cáo gần đây cũng bày tỏ quan điểm: “Các mô hình ngôn ngữ nhỏ đủ mạnh, vốn dĩ phù hợp hơn và tất yếu kinh tế hơn cho nhiều ứng dụng trong các hệ thống agentic, và do đó, sẽ là tương lai của trí tuệ nhân tạo tác nhân”.

VẤN ĐỀ CỦA MÔ HÌNH NGÔN NGỮ LỚN

Khi AI trở thành một phần không thể thiếu của các doanh nghiệp hiện đại, nhu cầu về năng lực tính toán ngày càng tăng đòi hỏi những tiến bộ nhanh chóng, nâng cao cơ sở hạ tầng và phát triển kỹ năng.

Các mô hình ngôn ngữ lớn được phát triển bởi những gã khổng lồ như OpenAI, Anthropic và Google đã thu hút sự chú ý nhờ khả năng xử lý và tạo ra ngôn ngữ tự nhiên, đảm nhiệm nhiều vai trò từ trợ lý trò chuyện doanh nghiệp đến các giải pháp phân tích phức tạp.

Tuy nhiên, những mô hình này đòi hỏi nguồn lực rất lớn, đặc biệt là về năng lượng và nước.

Các mô hình ngôn ngữ lớn thu hút nhiều sự chú ý thời gian qua nhờ khả năng xử lý. Ảnh: Shutterstock
Các mô hình ngôn ngữ lớn thu hút nhiều sự chú ý thời gian qua nhờ khả năng xử lý. Ảnh: Shutterstock

Thông tin từ CNBC dẫn báo cáo của Goldman Sachs cho biết, trung bình một truy vấn trên ChatGPT cần lượng điện năng xử lý gấp gần 10 lần so với tìm kiếm trên Google.

Giám đốc điều hành của Open AI – ông Sam Altman – cũng thừa nhận rằng AI sẽ sử dụng nhiều năng lượng hơn dự kiến ​​rất nhiều, và trong trường hợp đó, cần một bước đột phá về năng lượng sạch.

Cơ quan Năng lượng quốc tế năm 2024 từng ước tính, mức tiêu thụ năng lượng từ các trung tâm dữ liệu cung cấp năng lượng cho AI sẽ tăng gấp đôi trong hai năm tới, ghi nhận mức tiêu thụ lượng năng lượng tương đương với Nhật Bản.

Không những vậy, các trung tâm dữ liệu còn tiêu thụ hàng triệu lít nước cho mục đích làm mát. Theo CNBC, việc đào tạo các mô hình ngôn ngữ lớn như GPT-3 có thể cần hàng triệu lít nước ngọt cho cả mục đích làm mát và phát điện.

Bằng chứng là, Microsoft trong báo cáo phát triển bền vững năm 2023, đã tiết lộ rằng lượng nước tiêu thụ của các cơ sở thuộc tập đoàn này trên toàn cầu đã tăng khoảng 34% giai đoạn 2021 – 2022, lên tới gần 1,7 tỷ gallon. Điều này có nghĩa là lượng nước sử dụng hàng năm của Microsoft sẽ đủ để lấp đầy hơn 2.500 bể bơi tiêu chuẩn Olympic.

Trong bối cảnh này, các mô hình ngôn ngữ nhỏ (SLM) đã xuất hiện. Với khả năng mạnh mẽ nhưng chiếm ít không gian hơn, SLM đã trở thành một giải pháp thay thế hiệu quả cao.

SỰ TRỖI DẬY CỦA CÁC MÔ HÌNH NGÔN NGỮ NHỎ

Mô hình ngôn ngữ nhỏ là các mô hình AI được tinh chỉnh cho những ngành nghề, nhiệm vụ và quy trình vận hành cụ thể. Không giống như LLMs – vốn xử lý một lượng lớn kiến thức tổng quát, SLMs được xây dựng với sự chính xác và hiệu quả làm trọng tâm.

Điều này có nghĩa là SLM cần ít sức mạnh tính toán hơn, chi phí vận hành thấp hơn đáng kể và quan trọng là mang lại những hiểu biết liên quan trực tiếp đến kinh doanh nhiều hơn so với các mô hình lớn.

“SLMs không chỉ là phiên bản thu nhỏ của LLMs”, ông Ali giải thích. “Chúng được tối ưu để vượt trội trong các lĩnh vực chuyên biệt, dù đó là tài chính, y tế hay phát triển phần mềm. Điều này cho phép chúng mang lại kết quả chính xác và đáng tin cậy hơn, được thiết kế riêng cho nhu cầu đặc thù của từng tổ chức”, ông trao đổi với Forbes.

Ông Avi Baum, Giám đốc Công nghệ và đồng sáng lập Hailo, mở rộng thêm ý tưởng này và chia sẻ: “Khi LLMs lần đầu xuất hiện, chúng được thiết kế để thể hiện trí tuệ ở quy mô chưa từng có. Nhưng khi tính thực tế được đặt ra, những mô hình nhỏ hơn bắt đầu xuất hiện. Các SLMs này vẫn duy trì khả năng suy luận mạnh mẽ trong khi đủ hiệu quả để vận hành ngay tại chỗ mà không cần phụ thuộc vào điện toán đám mây”.

Một lý do khác khiến nhu cầu về SLMs ngày càng tăng, theo ông Baum, là bởi có nhiều lo ngại liên quan đến quyền riêng tư và bảo mật khi dùng LLMs. Nhiều doanh nghiệp e ngại các công cụ AI tạo sinh dựa trên nền tảng đám mây vì nguy cơ rò rỉ dữ liệu và rủi ro tuân thủ.

Với SLMs, doanh nghiệp có thể triển khai AI trực tiếp trên các thiết bị, như laptop, robot hay điện thoại di động, đảm bảo dữ liệu độc quyền của họ vẫn được bảo vệ.

Một số mô hình ngôn ngữ nhỏ tốt trong năm 2025 theo đánh giá của Intuz - công ty của Mỹ chuyên về phát triển ứng dụng. Ảnh: Intuz
Một số mô hình ngôn ngữ nhỏ tốt trong năm 2025 theo đánh giá của Intuz - công ty của Mỹ chuyên về phát triển ứng dụng. Ảnh: Intuz

SLM có nhiều lợi thế cạnh tranh so với LLM, các tác giả trên tờ Harvard Business Review nhấn mạnh. Kiến trúc của những mô hình này (như Ph-3 của Microsoft, Gemma của Google, Apple OpenELM, IBM Granite) nhỏ gọn hơn, chuyên biệt hơn, tiết kiệm năng lượng hơn và dễ triển khai hơn LLM, đặc biệt là trên các thiết bị điện toán biên cục bộ.

SLM có ít tham số hơn đáng kể, thường chỉ vài tỷ, so với LLM, vốn có thể chứa hàng trăm tỷ hoặc thậm chí hàng nghìn tỷ. Sự khác biệt đáng kể về kích thước này mang lại một số lợi thế cho SLM so với LLM, bao gồm yêu cầu tính toán thấp hơn, thời gian đào tạo nhanh hơn, triển khai dễ dàng hơn và hiệu suất cao hơn trong các tình huống cụ thể.

Thậm chí, các công ty không nhất thiết phải tinh chỉnh SLM của riêng mình. Một số nhà cung cấp đang bắt đầu phát triển SLM nhắm mục tiêu đến các ngành hoặc vấn đề kinh doanh cụ thể. Ví dụ, Infosys đã phát triển SLM được tối ưu hóa cho hoạt động ngân hàng và công nghệ thông tin và từ đó, những mô hình này được sử dụng làm cơ sở để tùy chỉnh thêm nội dung của khách hàng.

Nhờ dữ liệu đào tạo tập trung, SLM cũng nhanh hơn và tiết kiệm chi phí hơn trong việc xây dựng, tinh chỉnh và cải thiện theo thời gian so với LLM. Những đặc điểm này của SLM có thể mang lại cho doanh nghiệp sự linh hoạt để phát triển các giải pháp AI có thể nhanh chóng thích ứng với những biến động thị trường, kỳ vọng thay đổi của khách hàng hoặc các yêu cầu pháp lý mới mà không cần chu kỳ phát triển kéo dài và chi phí chìm cao thường thấy ở LLM.

Đơn cử, Bayer đã phát triển một SLM để giúp nhân viên tuyến đầu của mình trả lời các câu hỏi của nông dân về bảo vệ thực vật, được gọi là E.L.Y, viết tắt của "Expert Learning for You".

Hệ thống này được đào tạo dựa trên kiến ​​thức về bảo vệ thực vật của Bayer và được chứng minh là chính xác hơn 40% so với thử nghiệm ban đầu với mô hình lớn. Hệ thống cũng có thể được tùy chỉnh theo từng loại cây trồng cụ thể hoặc kiến ​​thức canh tác theo địa lý.

TƯƠNG LAI CỦA AI TÁC NHÂN

Cuộc thảo luận xoay quanh các mô hình ngôn ngữ nhỏ chắc chắn sẽ chuyển sang thảo luận rộng hơn về làn sóng tác nhân AI – một hệ thống hoạt động tự chủ, đưa ra quyết định theo thời gian thực dựa trên dữ liệu đầu vào. Để đạt được những thành tựu đáng kinh ngạc như vậy, các tác nhân này cần các mô hình nhẹ, nhanh và chuyên biệt cao – chính xác là điểm mạnh nhất của SLM.

Nhóm nghiên cứu của Nvidia trong báo cáo đã khẳng định: “Mô hình ngôn ngữ nhỏ là tương lai của AI tác nhân”.

Những nguyên nhân được đưa ra là SLMs về cơ bản đủ mạnh để xử lý các nhiệm vụ mô hình hóa ngôn ngữ trong các ứng dụng tác nhân; vốn dĩ phù hợp về mặt vận hành để sử dụng trong các hệ thống tác nhân hơn là LLMs.

Cùng với đó, các mô hình ngôn ngữ nhỏ tất yếu kinh tế hơn cho phần lớn các trường hợp sử dụng mô hình ngôn ngữ trong hệ thống tác nhân so với các LLM đa dụng, nhờ vào kích thước nhỏ gọn.

Phân tích mô hình từ nhóm nghiên cứu này cho thấy trong vài năm qua, năng lực của các mô hình ngôn ngữ nhỏ đã có những bước tiến vượt bậc.

Mặc dù các định luật mở rộng của mô hình ngôn ngữ vẫn được ghi nhận, nhưng đường cong tỷ lệ giữa kích thước mô hình và khả năng ngày càng trở nên dốc hơn, hàm ý rằng, năng lực của các mô hình ngôn ngữ nhỏ thế hệ mới đang tiến gần hơn nhiều so với các mô hình ngôn ngữ lớn trước đây.

Thực tế, những tiến bộ gần đây cho thấy các mô hình ngôn ngữ nhỏ được thiết kế tốt có thể đáp ứng hoặc thậm chí vượt qua hiệu suất nhiệm vụ vốn trước đây chỉ gắn với những mô hình lớn hơn nhiều.

Mô hình ngôn ngữ nhỏ có thể trở thành nhân tố quyết định trong cuộc đua AI thời gian tới. Ảnh: Shutterstock
Mô hình ngôn ngữ nhỏ có thể trở thành nhân tố quyết định trong cuộc đua AI thời gian tới. Ảnh: Shutterstock

Như tác giả Stu Robarts đã lưu ý trong một bài viết cho Verdict: “SLM có thể phù hợp hơn với AI tác nhân nhờ độ chính xác cao hơn so với LLM, hiệu quả vận hành lớn hơn do cần ít sức mạnh tính toán hơn, và khả năng tích hợp cao hơn trong các hệ sinh thái nhờ kích thước nhỏ và nhu cầu tài nguyên thấp”.

Ông Ali cũng coi đây là bước đột phá lớn tiếp theo của AI. Ông nói với Forbes: “SLM cho phép các tác nhân AI đưa ra quyết định với mức độ tự chủ cao hơn vì chúng được huấn luyện dựa trên kiến thức chuyên sâu theo từng lĩnh vực”.

“Hãy tưởng tượng một tác nhân AI tài chính không chỉ tạo ra các phân tích thị trường, mà còn trực tiếp thực hiện giao dịch dựa trên dữ liệu thời gian thực. Hoặc một tác nhân AI trong lĩnh vực logistics không chỉ theo dõi chuỗi cung ứng, mà còn tự động tối ưu hóa tuyến giao hàng và mức tồn kho”.

Ông Shahid Ahmed, Phó chủ tịch điều hành toàn cầu tại NTT New Ventures and Innovation, cũng chia sẻ tầm nhìn tương tự. Vị này cho rằng, SLM phù hợp với xu hướng rộng lớn hơn của AI tác nhân bằng cách cho phép ra quyết định tự động ngay tại thiết bị đầu cuối.

Trong một nhà máy thông minh chẳng hạn, một tác nhân AI có thể sử dụng SLM để chủ động phát hiện hỏng hóc thiết bị, điều chỉnh cài đặt máy móc hoặc lập lịch bảo trì – tất cả đều không cần sự can thiệp của con người.

Điều này mở ra những tác động to lớn trong nhiều ngành, từ chăm sóc sức khỏe nơi SLM có thể hỗ trợ chẩn đoán bệnh nhân với mức độ chính xác cao hơn đến dịch vụ khách hàng – nơi trí tuệ nhân tạo có thể vận hành các tác nhân AI thực sự hiểu được ngôn ngữ chuyên ngành.

ĐỂ ĐẠT HIỆU QUẢ TỐI ƯU TRONG ỨNG DỤNG

OpenAI, Google và Anthropic đều đã rót hàng tỷ USD vào việc huấn luyện các mô hình ngôn ngữ lớn tiên phong. Dù những mô hình này rất hữu ích, là nền tảng để các nhà nghiên cứu chắt lọc thành các mô hình nhỏ hơn, nhiều người cho rằng chi phí như vậy là quá mức hợp lý và đặt câu hỏi về hiệu quả đầu tư của những khoản đầu tư khổng lồ này.

Đó là lý do tại sao bức tranh kinh tế của việc phát triển AI hiện đang có xu hướng nghiêng về phía các mô hình ngôn ngữ nhỏ.

Dù vậy, các mô hình ngôn ngữ nhỏ không phải không có thách thức, đặc biệt là trong khâu huấn luyện, vốn thường đòi hỏi dữ liệu chuyên ngành chất lượng cao. SLM cũng đôi khi gặp khó khăn với những nhiệm vụ suy luận dài hơi, cần kiến thức bối cảnh rộng.

Ông Yuval Illuz, chuyên gia an ninh mạng và AI, đồng thời là COO của OurCrowd, đã nhấn mạnh thách thức về dữ liệu này trong một cuộc phỏng vấn: “Chìa khóa để SLM hoạt động hiệu quả nằm ở việc tuyển chọn dữ liệu huấn luyện phù hợp. Nếu thiếu bộ dữ liệu chất lượng cao, SLM có thể nhanh chóng trở nên kém tin cậy. Cách tốt nhất là liên tục huấn luyện lại mô hình bằng dữ liệu kinh doanh thực tế”.

Dù vậy, ông Illuz tin rằng SLM sẽ giữ vai trò trung tâm trong tương lai AI doanh nghiệp. “Chúng ta đang tiến tới một thế giới AI lai, nơi doanh nghiệp sẽ tận dụng đồng thời cả LLM và SLM. LLM sẽ vẫn hữu ích cho tri thức tổng quát, trong khi SLM sẽ đảm nhận các hoạt động kinh doanh trọng yếu đòi hỏi độ chính xác, bảo mật và tốc độ”.


Foxconn ra mắt robot điều dưỡng giải quyết vấn đề thiếu hụt nhân viên y tế

Khám phá Nurabot - robot điều dưỡng AI của Foxconn giúp giảm tải công việc cho y tá trong bối cảnh thiếu hụt nhân lực y tế.

11:02 18/09/2025
Australia đang nổi lên như một cường quốc lượng tử

Khám phá cách Australia xây dựng vị thế cường quốc lượng tử với các đầu tư và nghiên cứu đột phá.

00:23 16/09/2025
Claude của Anthropic hiện có thể tạo tệp PDF, trang trình bày và bảng tính

Khám phá tính năng mới của Claude AI cho phép tạo tài liệu văn phòng chỉ bằng lệnh văn bản. Trải nghiệm ngay hôm nay!

00:22 16/09/2025
Những thiết bị công nghệ phụ thuộc vào đất hiếm

Khám phá vai trò quan trọng của đất hiếm trong thiết bị công nghệ hiện đại và ảnh hưởng đến chuỗi cung ứng toàn cầu.

11:00 13/09/2025
UAE ra mắt mô hình suy luận AI chi phí thấp, tuyên bố ngang ngửa OpenAI và DeepSeek

Khám phá K2 Think, mô hình AI mới từ UAE, cạnh tranh với OpenAI và DeepSeek với chi phí thấp và hiệu suất ấn tượng.

09:00 13/09/2025
Hàn Quốc đặt mục tiêu sản xuất hàng loạt robot hình người vào 2029

Khám phá kế hoạch của Hàn Quốc trong việc sản xuất robot hình người hàng loạt từ 2029, dẫn đầu xu hướng công nghệ AI.

07:00 13/09/2025
Nvidia ra mắt Rubin CPX – GPU tối ưu cho AI xử lý ngữ cảnh lớn

Khám phá Rubin CPX, GPU mới của Nvidia, mở ra kỷ nguyên xử lý AI ngữ cảnh lớn với hiệu năng vượt trội. Tìm hiểu ngay!

17:47 12/09/2025
9 lĩnh vực công nghệ mũi nhọn Trung Quốc đang mạnh tay R&D

Khám phá 9 lĩnh vực công nghệ mũi nhọn mà Trung Quốc đang đầu tư mạnh vào R&D để trở thành trung tâm đổi mới toàn cầu.

16:00 09/09/2025
AI đang giúp đẩy nhanh điều trị ung thư như thế nào?

Khám phá cách AI cải thiện điều trị ung thư, giảm thời gian chờ đợi và nâng cao hiệu quả chăm sóc bệnh nhân.

16:00 09/09/2025