image Thứ Tư, 04/03/2026

AI có thể chiếm một nửa lượng điện tiêu thụ tại các trung tâm dữ liệu vào cuối năm nay

Hoàng Hà

26/05/2025

Chia sẻ

Các trung tâm dữ liệu được xem là “hệ thần kinh trung ương” của công nghệ AI. Nhu cầu năng lượng cao khiến tính bền vững trở thành mối quan tâm hàng đầu trong việc phát triển và sử dụng các hệ thống này...

Các hệ thống trí tuệ nhân tạo (AI) có thể chiếm gần một nửa lượng điện tiêu thụ bởi các trung tâm dữ liệu vào cuối năm nay. Ảnh minh họa
Các hệ thống trí tuệ nhân tạo (AI) có thể chiếm gần một nửa lượng điện tiêu thụ bởi các trung tâm dữ liệu vào cuối năm nay. Ảnh minh họa

Một phân tích mới cho thấy các hệ thống trí tuệ nhân tạo (AI) có thể chiếm gần một nửa lượng điện tiêu thụ bởi các trung tâm dữ liệu vào cuối năm nay. Dự báo này được đưa ra trong bối cảnh Cơ quan Năng lượng Quốc tế (IEA) nhận định rằng đến cuối thập kỷ này, AI sẽ cần lượng năng lượng gần tương đương với tổng năng lượng mà Nhật Bản sử dụng hiện nay.

TĂNG TRƯỞNG NHU CẦU NĂNG LƯỢNG CỦA AI

Theo nghiên cứu của Alex de Vries-Gao, người sáng lập trang web về bền vững công nghệ Digiconomist, các hệ thống AI đang tiêu tốn một lượng năng lượng đáng kể. Phân tích của ông dựa trên lượng điện tiêu thụ bởi các chip do Nvidia và Advanced Micro Devices sản xuất, vốn được sử dụng để huấn luyện và vận hành các mô hình AI. Báo cáo cũng xem xét mức tiêu thụ năng lượng của các chip từ những công ty khác như Broadcom.

Theo ước tính của IEA, các trung tâm dữ liệu trên toàn cầu (không bao gồm hoạt động khai thác tiền mã hóa) đã tiêu thụ 415 terawatt giờ (TWh) điện năng trong năm ngoái. De Vries-Gao cho rằng AI có thể đã chiếm tới 20% tổng lượng điện này. Ông dự đoán rằng đến cuối năm 2025, mức tiêu thụ năng lượng của các hệ thống AI có thể chiếm tới 49% tổng năng lượng trung tâm dữ liệu, tương đương với 23 gigawatt (GW) – gấp đôi lượng điện tiêu thụ của toàn bộ Hà Lan.

CÁC YẾU TỐ ẢNH HƯỞNG ĐẾN NHU CẦU NĂNG LƯỢNG

De Vries-Gao cho biết nhiều yếu tố ảnh hưởng đến tính toán của ông, bao gồm hiệu suất năng lượng của các trung tâm dữ liệu và mức tiêu thụ điện cho hệ thống làm mát các máy chủ xử lý khối lượng công việc lớn của AI. Các trung tâm dữ liệu được xem là “hệ thần kinh trung ương” của công nghệ AI, với nhu cầu năng lượng cao khiến tính bền vững trở thành mối quan tâm hàng đầu trong việc phát triển và sử dụng các hệ thống này.

Tuy nhiên, ông cũng chỉ ra rằng một số yếu tố có thể làm chậm lại nhu cầu phần cứng AI. Chẳng hạn, sự sụt giảm nhu cầu đối với các ứng dụng như ChatGPT hoặc các hạn chế địa chính trị, như kiểm soát xuất khẩu chip sang Trung Quốc, có thể ảnh hưởng đến sản xuất phần cứng AI. De Vries-Gao dẫn chứng trường hợp mô hình AI DeepSeek R1, được phát triển với số lượng chip ít hơn nhờ các hạn chế này, cho thấy sự đổi mới có thể giảm chi phí tính toán và năng lượng của AI.

Mặc dù có những tiến bộ về hiệu suất, ông De Vries-Gao cảnh báo rằng các cải tiến này có thể khuyến khích sử dụng AI nhiều hơn, làm tăng nhu cầu năng lượng. Xu hướng “AI chủ quyền” – khi nhiều quốc gia nỗ lực xây dựng hệ thống AI riêng – cũng có thể làm gia tăng nhu cầu phần cứng.

Ông chỉ ra trường hợp startup trung tâm dữ liệu Crusoe Energy tại Mỹ, đã đảm bảo nguồn năng lượng chạy bằng khí đốt với công suất 4,5 GW cho cơ sở hạ tầng của mình, với OpenAI là một trong những khách hàng tiềm năng thông qua liên doanh Stargate. “Có những dấu hiệu ban đầu cho thấy các trung tâm dữ liệu [Stargate] có thể làm tăng sự phụ thuộc vào nhiên liệu hóa thạch”, De Vries-Gao viết.

OpenAI đã công bố dự án Stargate tại Các Tiểu vương quốc Ả Rập Thống nhất, đánh dấu dự án đầu tiên của họ ngoài Mỹ. Trước đó, Microsoft và Google từng thừa nhận rằng các sáng kiến AI của họ đang gây khó khăn cho việc đạt được các mục tiêu môi trường nội bộ.

THIẾU MINH BẠCH TRONG TIÊU THỤ NĂNG LƯỢNG CỦA AI

De Vries-Gao nhận định rằng thông tin về nhu cầu năng lượng của AI ngày càng khan hiếm. Đạo luật AI của Liên minh Châu Âu yêu cầu các công ty AI công khai mức tiêu thụ năng lượng để huấn luyện mô hình, nhưng không bắt buộc tiết lộ năng lượng sử dụng hàng ngày.

Giáo sư Adam Sobey, giám đốc sứ mệnh bền vững tại Viện Alan Turing của Anh, một tổ chức nghiên cứu AI, nhấn mạnh rằng cần thêm sự minh bạch về mức tiêu thụ năng lượng của các hệ thống AI. Ông cũng cho rằng tiềm năng của AI trong việc giúp các ngành công nghiệp phát thải carbon như giao thông và năng lượng trở nên hiệu quả hơn có thể bù đắp cho lượng năng lượng tiêu thụ. “Tôi cho rằng chúng ta không cần quá nhiều trường hợp sử dụng AI xuất sắc để bù lại lượng năng lượng tiêu tốn ở phía trước,” Sobey nhận định.

Với tốc độ phát triển hiện tại, nhu cầu năng lượng của AI đang đặt ra những thách thức lớn cho ngành công nghệ và môi trường. Trong khi các cải tiến về hiệu suất và công nghệ có thể giảm thiểu phần nào tác động, xu hướng sử dụng AI ngày càng tăng và sự mở rộng của các trung tâm dữ liệu có thể khiến vấn đề trở nên nghiêm trọng hơn. Khi AI tiếp tục định hình tương lai công nghệ, việc cân bằng giữa đổi mới và tính bền vững sẽ là một bài toán quan trọng cần giải quyết.


Nỗi sợ hãi mất việc làm do AI ngày càng gia tăng

Để duy trì niềm tin, các lãnh đạo phải minh bạch với người lao động về những gì đang diễn ra trong thời kỳ AI bùng nổ…

22:55 03/03/2026
OpenAI vừa huy động được thêm 110 tỷ USD

OpenAI vừa công bố hoàn tất vòng huy động vốn tư nhân trị giá 110 tỷ USD, đánh dấu một trong những thương vụ gọi vốn lớn nhất từng được thực hiện trong lĩnh vực công nghệ…

22:54 03/03/2026
Các hãng smartphone Trung Quốc đặt cược vào điện thoại AI

Tại sự kiện MWC 2026 diễn ra ở Barcelona (Tây Ban Nha), các hãng smartphone Trung Quốc đang đặt cược lớn vào trí tuệ nhân tạo (AI) như một “phao cứu sinh” trong bối cảnh ngành công nghiệp di động toàn cầu chao đảo vì khủng hoảng nguồn cung chip nhớ...

13:44 03/03/2026
Nvidia sắp ra chip AI mới, tái định hình cuộc đua điện toán

Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này...

10:17 02/03/2026
CEO Jensen Huang: Thị trường “đã sai” về mối đe dọa của AI với các công ty phần mềm

Nhà đầu tư gần đây tỏ ra lo ngại rằng làn sóng chi tiêu khổng lồ cho phần cứng AI có thể không bền vững…

10:16 02/03/2026
Nhật Bản tăng tốc xây hệ sinh thái chip AI nội địa, hình thành các “cứ điểm” R&D mới

Chiến lược này phản ánh cách tiếp cận mới của Nhật Bản: thay vì phát triển đơn lẻ, Tokyo chọn cách xây dựng hạ tầng dùng chung, khuyến khích hợp tác công – tư và mở rộng liên kết quốc tế...

21:50 27/02/2026
Từ thưởng hiệu suất đến điều kiện tuyển dụng: Các hãng công nghệ đang “ép” nhân viên dùng AI

Từ các startup vài trăm người đến những gã khổng lồ như Amazon, Google, Meta, Microsoft hay Salesforce, trí tuệ nhân tạo (AI) không còn là công cụ tùy chọn nữa …

18:59 26/02/2026
Khởi nghiệp quy mô nhỏ nhờ AI: Rủi ro tiềm ẩn sau đội ngũ tinh gọn

AI giúp doanh nghiệp sở hữu đội ngũ nhân viên ở mức tối thiểu nhưng việc tinh gọn cũng che lấp nhiều cơ hội kinh doanh…

18:59 26/02/2026
Chatbot đang điều hướng marketing như thế nào?

Các câu trả lời từ chatbot giờ đây không chỉ đơn thuần phục vụ cho mục đích cá nhân mà còn trở thành một công cụ điều hướng người dùng mới của các doanh nghiệp…

18:59 26/02/2026
Meta bắt tay AMD trong thương vụ AI hơn 100 tỷ USD

Thỏa thuận mua 6 gigawatt năng lực tính toán AI từ AMD không chỉ mang lại hợp đồng trị giá hơn 100 tỷ USD, mà còn có thể giúp Meta sở hữu tới 10% cổ phần của nhà sản xuất chip...

13:02 25/02/2026