image Thứ Năm, 26/03/2026

Bên trong cuộc đua xây dựng năng lực AI không ngừng nghỉ

Mai Anh

16/08/2025

Chia sẻ

Những trung tâm dữ liệu khổng lồ tiếp tục hiện diện, có thể là điểm bắt đầu cho những tiến bộ công nghệ mới, nhưng cũng có thể là dấu hiệu của một cuộc đua đầy lãng phí…

Bên trong cuộc đua xây dựng năng lực AI không ngừng nghỉ

Đối với các nhà đầu tư công nghệ, năm 2025 bắt đầu với một sự hoảng loạn.

Một mô hình AI mới cực kỳ hiệu quả với chi phí thấp từ một công ty khởi nghiệp của Trung Quốc – DeepSeek đã khiến các nhà đầu tư tại Phố Wall đặt ra câu hỏi. Đó là liệu rằng các gã khổng lồ công nghệ và các công ty khác tại Thung lũng Silicon có đang chi tiêu quá mức vào các trung tâm dữ liệu khổng lồ mới cũng như rót tiền vào những con chip Nvidia đắt tiền để xây dựng các ứng dụng AI như ChatGPT hay không.

Sáu tháng sau, câu hỏi ấy không còn mang lại nhiều lo lắng như trước. Cơn lốc xây dựng cơ sở hạ tầng AI lại tiếp tục với cường độ thậm chí còn mạnh mẽ hơn.

Microsoft, Alphabet, Amazon và Meta dự kiến tăng chi tiêu vốn lên mức hơn 300 tỷ USD vào năm 2025. Công ty tư vấn IT Gartner ước tính, tổng cộng khoảng 475 tỷ USD sẽ được rót vào các trung tâm dữ liệu trong năm nay, tăng hơn 40% so với năm ngoái.

Không ít người tin rằng con số hàng trăm tỷ đô đó cũng không đủ để đáp ứng nhu cầu AI toàn cầu. Dự đoán của McKinsey vào hồi tháng 4 vừa qua cho thấy, các trung tâm dữ liệu tới năm 2030 sẽ đòi hỏi khoảng 5,2 nghìn tỷ USD.

Giữa tháng 7 vừa qua, ông Mark Zuckerberg – nhà sáng lập Meta – cho biết doanh nghiệp này sẽ chi hàng trăm tỷ USD để xây dựng một số trung tâm dữ liệu AI khổng lồ cho siêu trí tuệ, đẩy mạnh theo đuổi công nghệ này sau khi giành được một số kỹ sư hàng đầu, theo Reuters.

Trung tâm dữ liệu nhiều GW đầu tiên của công ty này có tên Prometheus và dự kiến đi vào hoạt động vào năm sau, trong khi một trung tâm khác – Hyperion – có thể mở rộng tới 5GW trong những năm tới. Điều này được ông Zuckerberg tiết lộ trong một bài đăng trên nền tảng Threads.

“Chúng tôi cũng đang xây dựng thêm nhiều cụm dữ liệu khổng lồ nữa. Chỉ một trong số này đã bao phủ một phần đáng kể diện tích của Manhattan”, vị CEO tỷ phú cho hay.

"Tôi không biết bất kỳ công ty, ngành công nghiệp hay quốc gia nào nghĩ rằng trí tuệ nhân tạo là sự lựa chọn – đó là cơ sở hạ tầng thiết yếu”, tờ Finnacial Times dẫn lời ông Jensen Huang, Giám đốc điều hành của Nvidia từng nói vào tháng 5. "Chúng ta rõ ràng đang ở giai đoạn đầu của việc xây dựng cơ sở hạ tầng này”.

Thế nhưng, việc xây dựng các cơ sở cần thiết để theo đuổi biên giới tiếp theo này, đồng thời, hỗ trợ hàng tỷ người sử dụng các mô hình AI lại phức tạp, tốn kém và ngốn năng lượng hơn nhiều so với các lưới điện, mạng viễn thông hay thậm chí là các hệ thống điện toán đám mây trước đây, các tác giả trên tờ Financial Times nhận định.

Các trung tâm dữ liệu truyền thống, chẳng hạn như những trung tâm đã được Amazon và Microsoft xây dựng, là "một mô hình với lợi nhuận và nhu cầu đã được chứng minh", ông Andy Lawrence, Giám đốc điều hành nghiên cứu tại Uptime Institute, đơn vị kiểm tra và xếp hạng các trung tâm dữ liệu, cho biết.

Ông cho rằng, việc đột ngột bắt đầu xây dựng các trung tâm dữ liệu dày đặc hơn, trong đó các con chip có giá cao hơn 10 lần, nhu cầu chưa được chứng minh và tiêu tốn tất cả điện năng lưới điện và bất động sản phù hợp có sẵn – tất cả đều là một thách thức phi thường và là một canh bạc.

NHỮNG KẾ HOẠCH VĨ ĐẠI

Các con chip mới với nhu cầu điện năng gia tăng đáng kể đã làm thay đổi thiết kế trung tâm dữ liệu.

Theo Financial Times, các tủ máy tính chạy chip của Nvidia tiêu thụ năng lượng ít nhất gấp 10 lần so với các máy chủ web thông thường, và các bộ xử lý mới nhất của hãng tỏa ra nhiều nhiệt đến mức điều hòa không khí không đủ để làm mát.

"Mọi thứ đã bị đảo lộn”, ông Steven Carlini, Phó chủ tịch Đổi mới và trung tâm dữ liệu tại Schneider Electric, nhà cung cấp hàng đầu về cơ sở hạ tầng điện cho các trung tâm dữ liệu, cho biết.

Trong các cơ sở thông thường, máy chủ chiếm phần lớn diện tích nhưng giờ đây, "70% diện tích nằm ngoài phòng IT", ông Carlini nói thêm. Các thiết bị cung cấp năng lượng cho chip và giữ chúng mát mẻ giờ đây lại chiếm một vai trò quan trọng hơn trong bố cục tòa nhà.

"20 năm trước, một trung tâm dữ liệu lớn sẽ là 20MW", ông Lochmiller, CEO tại Công ty nền tảng đám mây Crusoe cho hay, đề cập đến lượng điện cần thiết. "Ngày nay, một trung tâm dữ liệu lớn là 1GW hoặc hơn... Chúng tôi tin rằng chúng tôi có thể xây dựng các khu phức hợp nhiều GW”.

AI đang định hình lại cách thức xây dựng cơ sở hạ tầng điện toán nhanh đến mức Meta phá bỏ một trung tâm dữ liệu vẫn đang trong quá trình phát triển và thiết kế lại để phù hợp hơn với các con chip có công suất cao hơn.

Hình ảnh vệ tinh cho thấy vào năm 2023, nhà sáng tạo mô hình AI Llama đã phá bỏ các cấu trúc tòa nhà tại một địa điểm ở Texas trước khi khởi động lại việc xây dựng như một phần của cuộc đại tu chiến lược cơ sở hạ tầng rộng lớn hơn.

Đằng sau sự thay đổi này là sự dịch chuyển hoàn toàn khỏi các loại chip đã được sử dụng trong phần lớn máy tính cá nhân và máy chủ trong nhiều thập kỷ. Hầu hết máy tính cá nhân trong những năm 1990 và 2000 chủ yếu dựa vào một bộ xử lý trung tâm (CPU) – "Intel inside" – với một dàn hỗ trợ tùy chọn gồm các bộ tăng tốc đồ họa và card âm thanh để chơi game hoặc làm nhạc.

Khi điện toán đám mây cất cánh vào những năm 2010, Amazon Web Services và cơ sở hạ tầng – vốn cung cấp năng lượng cho các dịch vụ internet của Google hoặc Facebook – hoạt động gần giống với những máy tính dựa trên CPU này.

Cơ sở hạ tầng ngày nay lại được xây dựng xung quanh thế hệ tiếp theo của card đồ họa khiêm tốn. Các bộ xử lý đồ họa (GPU) của Nvidia đã trở thành thành phần quan trọng của một trung tâm dữ liệu hiện đại nhờ khả năng xử lý một lượng lớn dữ liệu "song song" – tương tự như cách chúng làm cho các trò chơi máy tính chạy mượt mà hơn.

Các giám đốc điều hành của Nvidia đã ví một CPU giống như việc đọc một cuốn sách từng trang một, trong khi một GPU xé các trang sách và xử lý tất cả cùng một lúc. Mặc dù CPU có thể xử lý nhiều loại tác vụ, GPU phù hợp nhất để chạy cùng một loại phép tính lặp đi lặp lại – lý tưởng để đào tạo một mô hình AI khổng lồ.

HÌNH THÀNH CÁC CỤM TRUNG TÂM DỮ LIỆU 

Cuộc đua sức mạnh điện toán đang thúc đẩy cơn bùng nổ bất động sản khi hyperscaler – nhà cung cấp dịch vụ điện toán quy mô lớn gồm Amazon, Microsoft và Google – phát triển các cụm trung tâm dữ liệu để hàng trăm, hàng nghìn chip có thể hoạt động song song nhằm tinh chỉnh các mô hình AI.

Ông Kevin Miller, người từng giữ chức Phó chủ tịch Trung tâm dữ liệu toàn cầu tại Amazon Web Services, cho biết: "Việc huấn luyện các mô hình thực sự tập trung vào các cụm lớn, nơi bạn cần càng nhiều GPU và bộ tăng tốc ở càng gần nhau càng tốt. Khoảng cách vật lý gần hơn giúp giảm độ trễ, từ đó cải thiện tốc độ đào tạo các mô hình mới”.

Số lượng chip khổng lồ được các nhà xây dựng mô hình bao gồm OpenAI và Anthropic triển khai đã khiến các hyperscaler và nhà điều hành trung tâm dữ liệu, bao gồm QTS và Equinix, phải săn lùng các khu đất rộng lớn có thể chứa các cụm này.

Một trung tâm dữ liệu truyền thống hỗ trợ hàng nghìn khách hàng, với các máy chủ được chia sẻ theo yêu cầu. Nhưng giờ đây, nhiều cơ sở này, mà ông Huang của Nivida đã gọi là "nhà máy AI", đang được xây dựng cho một công ty hoặc một quốc gia duy nhất – đảo ngược mô hình truyền thống.

Theo dữ liệu của Financial Times, Crusoe đang xây dựng tám tòa nhà trung tâm dữ liệu, với tổng công suất 1,2GW, ở Abilene, Texas, cho OpenAI. Oracle sẽ cung cấp khoảng 400.000 GPU Nvidia với chi phí khoảng 40 tỷ USD.

Trong khi đó, Abilene là một phần của dự án Stargate trị giá 100 tỷ USD được đề xuất của OpenAI, nhận tài trợ phần lớn từ SoftBank của Nhật Bản, để giúp đáp ứng một số nhu cầu xử lý của doanh nghiệp khi theo đuổi siêu trí tuệ.

Gã khổng lồ truyền thông xã hội Meta đang xây dựng một cơ sở 2GW ở Louisiana, trong khi xAI của Elon Musk đang nhắm mục tiêu 1,2GW trên một số địa điểm ở Memphis, Tennessee. Trong khi đó, Amazon đang phát triển một địa điểm 2,2GW cho Anthropic ở New Carlisle, Indiana.

Người đứng đầu một quỹ đầu tư hỗ trợ Crusoe cho biết, số lượng dự án xây dựng trung tâm dữ liệu đã đạt đến mức điên cuồng, với tâm lý "cứ xây đi rồi khách hàng sẽ đến". Việc tạo ra các cơ sở này ở gần nhau có một hiệu ứng "bánh đà", với một lực lượng lao động địa phương được đào tạo có thể lặp lại các dự án xây dựng tại các địa điểm gần đó.

Tiếp cận nguồn năng lượng rẻ và dồi dào nổi lên như yếu tố then chốt để xác định vị trí địa điểm với nhiều nhà điều hành bị hạn chế về năng lượng. "Chúng tôi ưu tiên năng lượng và điện trước tiên", ông Bobby Hollis, Phó chủ tịch Năng lượng tại Microsoft, cho biết.

Một nghiên cứu từ Đại học Oxford cho thấy, gần 95% sức mạnh điện toán AI có sẵn trên thị trường được vận hành bởi các tập đoàn công nghệ của Mỹ và Trung Quốc.

Nỗ lực của Trung Quốc trong việc mở rộng cơ sở hạ tầng điện toán AI và tận dụng sự bùng nổ AI đã thúc đẩy các chính quyền địa phương, chẳng hạn như ở các vùng xa xôi của Tân Cương và Nội Mông, xây dựng các trung tâm dữ liệu.

Sau một thời gian hòa hoãn giữa Bắc Kinh và Washington, Nvidia dự kiến sẽ tiếp tục vận chuyển chip AI sang Trung Quốc. Nhưng Mỹ vẫn có các biện pháp kiểm soát xuất khẩu ngăn cản việc bán các chất bán dẫn AI mạnh nhất cho thị trường Trung Quốc. Thành phố Johor Bahru ở Malaysia đang nổi lên như một trung tâm AI dựa trên nhu cầu từ các nhà phát triển Trung Quốc.

Các quốc gia vùng Vịnh cũng đang chuẩn bị đổ hàng tỷ USD vào cơ sở hạ tầng AI. Các Tiểu vương quốc Ả Rập Thống nhất đã công bố một cụm trung tâm dữ liệu khổng lồ cho OpenAI và các công ty Mỹ khác như một phần của dự án Stargate, với tham vọng công suất lên tới 5GW.

Humain, công ty AI nhà nước mới của Ả Rập Saudi, có kế hoạch xây dựng "nhà máy AI" được cung cấp bởi vài trăm nghìn chip Nvidia trong 5 năm tới.

Vào tháng 4, EU cho biết sẽ huy động 200 tỷ euro "để biến châu Âu thành một lục địa AI" – với kế hoạch cho năm "nhà máy siêu AI" (AI gigafactories) để "phát triển và đào tạo các mô hình AI phức tạp ở quy mô chưa từng có”.

SỬ DỤNG NĂNG LƯỢNG

Các ước tính về lượng điện năng mà các trung tâm dữ liệu sử dụng rất khác nhau, nguyên nhân là bởi thiếu các dữ liệu công khai.

Theo Cơ quan Năng lượng quốc tế, mức sử dụng năng lượng được dự báo sẽ tăng từ 415TWh vào năm 2024 lên hơn 945TWh vào năm 2030, gần bằng mức tiêu thụ điện của Nhật Bản. Cuộc đua giành năng lượng này đang dẫn đến việc các cơ sở mới chạy trên bất kỳ nguồn năng lượng nào có sẵn.

xAI của Musk đã sử dụng tua-bin khí tại trung tâm dữ liệu ở Memphis trong khi chờ lắp đặt một trạm biến áp mới để kết nối với lưới điện – vốn nhận chỉ trích từ người dân địa phương về chất lượng không khí.

Cả bốn hyperscaler đều đã đạt được các thỏa thuận mang tính bước ngoặt về năng lượng hạt nhân trong năm qua. Đơn cử, Microsoft đang làm việc với Constellation Energy để khởi động lại nhà máy điện hạt nhân Three Mile Island ở Pennsylvania.

Sự gia tăng nhu cầu năng lượng là một mối lo ngại đối với các nhà cung cấp tiện ích xung quanh.

Ngoài việc yêu cầu một lượng điện năng khổng lồ và chạy ở tốc độ gần như không đổi, các trung tâm dữ liệu AI còn trải qua những đợt nhu cầu tăng đột biến trong quá trình đào tạo khi cần sức mạnh xử lý tuyệt đối để hoàn thành các phép tính cần thiết nhằm phát triển một mô hình mới.

Những đợt tăng đột biến này có thể ra các sự cố mất điện liên tục, ảnh hưởng đến các gia đình và doanh nghiệp sử dụng cùng một mạng lưới điện. Mùa hè năm ngoái, các nhà cung cấp tiện ích ở Virginia đã phải vật lộn với một đợt tăng đột biến bất ngờ về điện năng sau khi một cụm cơ sở chuyển sang máy phát điện dự phòng như một biện pháp phòng ngừa an toàn, dẫn đến nguồn cung dư thừa có nguy cơ gây hỏng cơ sở hạ tầng lưới điện.

Với việc ưu tiên nguồn điện dồi dào, các nhà điều hành cũng lựa chọn các khu vực có hạn chế đáng kể về nước. Các địa điểm hyperscale và các cụm ở Mỹ đã tiêu thụ 55 tỷ lít nước vào năm 2023, theo các nhà nghiên cứu tại LBNL. Mức tiêu thụ gián tiếp gắn liền với việc sử dụng năng lượng cao hơn đáng kể ở mức 800 tỷ lít mỗi năm, tương đương với mức sử dụng nước hàng năm của gần 2 triệu hộ gia đình ở Mỹ.

Theo Financial Times, vào năm 2023, Microsoft cho biết 42% lượng nước của họ đến từ "các khu vực bị căng thẳng về nước", trong khi Meta cho biết khoảng 16% lượng nước sử dụng của họ được lấy từ các khu vực tương tự trong cùng thời kỳ. Google cho biết, năm ngoái, gần 30% lượng nước của họ đến từ các lưu vực sông có nguy cơ "cạn kiệt hoặc khan hiếm nước" ở mức trung bình hoặc cao. Amazon không tiết lộ con số của mình.

Các trung tâm dữ liệu ở các bang dễ bị hạn hán như Arizona và Texas đã gây ra lo ngại cho người dân địa phương, trong khi cư dân ở Georgia đã phàn nàn rằng việc Meta phát triển ở bang này đã làm hỏng các giếng nước, đẩy chi phí nước sinh hoạt lên cao và dẫn đến tình trạng thiếu hụt có thể phải phân phối nước.

Một số người tin rằng cuộc đua không ngừng nghỉ để có được sức mạnh điện toán ngày càng lớn này là sai lầm.

Bà Sasha Luccioni, trưởng nhóm AI và khí hậu tại Công ty khởi nghiệp Mã nguồn mở Hugging Face, cho biết, các kỹ thuật thay thế để đào tạo các mô hình AI, chẳng hạn như chưng cất (distillation) hoặc sử dụng các mô hình nhỏ hơn, đang trở nên phổ biến và có thể cho phép các nhà phát triển xây dựng các mô hình mạnh mẽ với chi phí thấp.

"Mọi thứ gần giống như một ảo giác tập thể, khi mọi người đều có cùng quan điểm rằng chúng ta cần nhiều trung tâm dữ liệu hơn mà không thực sự đặt câu hỏi tại sao", bà Sasha bày tỏ.


Esports Nations Cup 2026 công bố VIRESA là Đối tác Quốc gia tại Việt Nam

VIRESA gia nhập mạng lưới toàn cầu với hơn 100 quốc gia nhằm phát triển hệ thống đội tuyển quốc gia và kết nối cộng đồng trong nước, qua đó góp phần nâng cao sự hiện diện của Việt Nam trên đấu trường quốc tế...

13:31 26/03/2026
Các ông trùm công nghệ gia nhập Hội đồng cố vấn mới của Tổng thống Trump

Hội đồng Cố vấn về Khoa học và Công nghệ (PCAST) sẽ đóng vai trò như một “bộ não chiến lược” hỗ trợ Nhà Trắng trong việc xây dựng chính sách liên quan đến AI, lực lượng lao động và các công nghệ mới nổi…

13:30 26/03/2026
Cơn sốt AI Agent đang thúc đẩy cuộc đua hạ tầng tính toán toàn cầu

AI agent – những hệ thống có khả năng tự động thực hiện chuỗi tác vụ phức tạp – đang thay đổi hoàn toàn cách AI được sử dụng...

15:13 25/03/2026
Mỹ thành lập Cục Các mối đe dọa mới nổi, đối phó tấn công mạng và rủi ro từ AI

Mỹ đang cố gắng cân bằng giữa hai mục tiêu: thúc đẩy đổi mới công nghệ và duy trì lợi thế cạnh tranh; kiểm soát rủi ro an ninh phát sinh từ chính các công nghệ đó...

15:06 25/03/2026
Ứng dụng AI tạo ra doanh thu nhưng gặp khó khăn trong việc giữ chân người dùng

Các ứng dụng AI tạo ra doanh thu trên mỗi người dùng cao hơn 41% so với ứng dụng không dùng AI, nhưng lại kém “gây nghiện” hơn, theo nền tảng đăng ký RevenueCat…

07:00 25/03/2026
Trung Quốc: Người lao động “chạy đua sinh tồn” trong làn sóng AI

Đằng sau làn sóng công nghệ là một nỗi lo âm ỉ: nếu không kịp thích nghi, họ có thể bị thay thế bất cứ lúc nào...

23:57 24/03/2026
Giữa làn sóng sa thải vì AI, OpenAI tuyên bố tăng gấp đôi nhân sự

OpenAI tăng tốc mở rộng nhân sự, dồn lực vào thị trường doanh nghiệp trong cuộc đua AI hàng trăm tỷ USD…

15:07 23/03/2026
Khí thải từ sản xuất chip sẽ tăng khoảng 33% vào năm 2030

Theo dự báo của tổ chức nghiên cứu TechInsights (Canada), tổng lượng phát thải của ngành bán dẫn có thể tăng khoảng một phần ba, lên tới 247 triệu tấn CO₂ tương đương vào năm 2030...

19:33 20/03/2026
Cơn sốt trung tâm dữ liệu AI mở ra “mỏ vàng” việc làm mới cho lao động kỹ thuật

Mức lương trong lĩnh vực này đang tăng nhanh do tình trạng khan hiếm nhân lực. Nhiều vị trí hiện đã có thể đạt mức thu nhập sáu con số...

16:30 19/03/2026
Hóa đơn Token: “Cú sốc” chi phí sau cơn sốt AI của doanh nghiệp

Khi việc sử dụng AI ngày càng phổ biến trong nội bộ, các công ty đang chuyển sang theo dõi “token” – đơn vị đo lường chi phí vận hành AI – để kiểm soát hiệu quả và tối ưu hóa đầu tư...

16:30 19/03/2026