AI có thể chiếm một nửa lượng điện tiêu thụ tại các trung tâm dữ liệu vào cuối năm nay
Hoàng Hà
26/05/2025
Các trung tâm dữ liệu được xem là “hệ thần kinh trung ương” của công nghệ AI. Nhu cầu năng lượng cao khiến tính bền vững trở thành mối quan tâm hàng đầu trong việc phát triển và sử dụng các hệ thống này...
Một phân tích mới cho thấy các hệ thống trí tuệ nhân tạo (AI) có thể chiếm gần một nửa lượng điện tiêu thụ bởi các trung tâm dữ liệu vào cuối năm nay. Dự báo này được đưa ra trong bối cảnh Cơ quan Năng lượng Quốc tế (IEA) nhận định rằng đến cuối thập kỷ này, AI sẽ cần lượng năng lượng gần tương đương với tổng năng lượng mà Nhật Bản sử dụng hiện nay.
TĂNG TRƯỞNG NHU CẦU NĂNG LƯỢNG CỦA AI
Theo nghiên cứu của Alex de Vries-Gao, người sáng lập trang web về bền vững công nghệ Digiconomist, các hệ thống AI đang tiêu tốn một lượng năng lượng đáng kể. Phân tích của ông dựa trên lượng điện tiêu thụ bởi các chip do Nvidia và Advanced Micro Devices sản xuất, vốn được sử dụng để huấn luyện và vận hành các mô hình AI. Báo cáo cũng xem xét mức tiêu thụ năng lượng của các chip từ những công ty khác như Broadcom.
Theo ước tính của IEA, các trung tâm dữ liệu trên toàn cầu (không bao gồm hoạt động khai thác tiền mã hóa) đã tiêu thụ 415 terawatt giờ (TWh) điện năng trong năm ngoái. De Vries-Gao cho rằng AI có thể đã chiếm tới 20% tổng lượng điện này. Ông dự đoán rằng đến cuối năm 2025, mức tiêu thụ năng lượng của các hệ thống AI có thể chiếm tới 49% tổng năng lượng trung tâm dữ liệu, tương đương với 23 gigawatt (GW) – gấp đôi lượng điện tiêu thụ của toàn bộ Hà Lan.
CÁC YẾU TỐ ẢNH HƯỞNG ĐẾN NHU CẦU NĂNG LƯỢNG
De Vries-Gao cho biết nhiều yếu tố ảnh hưởng đến tính toán của ông, bao gồm hiệu suất năng lượng của các trung tâm dữ liệu và mức tiêu thụ điện cho hệ thống làm mát các máy chủ xử lý khối lượng công việc lớn của AI. Các trung tâm dữ liệu được xem là “hệ thần kinh trung ương” của công nghệ AI, với nhu cầu năng lượng cao khiến tính bền vững trở thành mối quan tâm hàng đầu trong việc phát triển và sử dụng các hệ thống này.
Tuy nhiên, ông cũng chỉ ra rằng một số yếu tố có thể làm chậm lại nhu cầu phần cứng AI. Chẳng hạn, sự sụt giảm nhu cầu đối với các ứng dụng như ChatGPT hoặc các hạn chế địa chính trị, như kiểm soát xuất khẩu chip sang Trung Quốc, có thể ảnh hưởng đến sản xuất phần cứng AI. De Vries-Gao dẫn chứng trường hợp mô hình AI DeepSeek R1, được phát triển với số lượng chip ít hơn nhờ các hạn chế này, cho thấy sự đổi mới có thể giảm chi phí tính toán và năng lượng của AI.
Mặc dù có những tiến bộ về hiệu suất, ông De Vries-Gao cảnh báo rằng các cải tiến này có thể khuyến khích sử dụng AI nhiều hơn, làm tăng nhu cầu năng lượng. Xu hướng “AI chủ quyền” – khi nhiều quốc gia nỗ lực xây dựng hệ thống AI riêng – cũng có thể làm gia tăng nhu cầu phần cứng.
Ông chỉ ra trường hợp startup trung tâm dữ liệu Crusoe Energy tại Mỹ, đã đảm bảo nguồn năng lượng chạy bằng khí đốt với công suất 4,5 GW cho cơ sở hạ tầng của mình, với OpenAI là một trong những khách hàng tiềm năng thông qua liên doanh Stargate. “Có những dấu hiệu ban đầu cho thấy các trung tâm dữ liệu [Stargate] có thể làm tăng sự phụ thuộc vào nhiên liệu hóa thạch”, De Vries-Gao viết.
OpenAI đã công bố dự án Stargate tại Các Tiểu vương quốc Ả Rập Thống nhất, đánh dấu dự án đầu tiên của họ ngoài Mỹ. Trước đó, Microsoft và Google từng thừa nhận rằng các sáng kiến AI của họ đang gây khó khăn cho việc đạt được các mục tiêu môi trường nội bộ.
THIẾU MINH BẠCH TRONG TIÊU THỤ NĂNG LƯỢNG CỦA AI
De Vries-Gao nhận định rằng thông tin về nhu cầu năng lượng của AI ngày càng khan hiếm. Đạo luật AI của Liên minh Châu Âu yêu cầu các công ty AI công khai mức tiêu thụ năng lượng để huấn luyện mô hình, nhưng không bắt buộc tiết lộ năng lượng sử dụng hàng ngày.
Giáo sư Adam Sobey, giám đốc sứ mệnh bền vững tại Viện Alan Turing của Anh, một tổ chức nghiên cứu AI, nhấn mạnh rằng cần thêm sự minh bạch về mức tiêu thụ năng lượng của các hệ thống AI. Ông cũng cho rằng tiềm năng của AI trong việc giúp các ngành công nghiệp phát thải carbon như giao thông và năng lượng trở nên hiệu quả hơn có thể bù đắp cho lượng năng lượng tiêu thụ. “Tôi cho rằng chúng ta không cần quá nhiều trường hợp sử dụng AI xuất sắc để bù lại lượng năng lượng tiêu tốn ở phía trước,” Sobey nhận định.
Với tốc độ phát triển hiện tại, nhu cầu năng lượng của AI đang đặt ra những thách thức lớn cho ngành công nghệ và môi trường. Trong khi các cải tiến về hiệu suất và công nghệ có thể giảm thiểu phần nào tác động, xu hướng sử dụng AI ngày càng tăng và sự mở rộng của các trung tâm dữ liệu có thể khiến vấn đề trở nên nghiêm trọng hơn. Khi AI tiếp tục định hình tương lai công nghệ, việc cân bằng giữa đổi mới và tính bền vững sẽ là một bài toán quan trọng cần giải quyết.
Trung Quốc yêu cầu các nhà máy chip sử dụng tối thiểu 50% thiết bị nội địa, phản ánh nỗ lực tự chủ công nghệ trong bối cảnh căng thẳng thương mại với Mỹ.
Năm 2025, các startup AI tại Mỹ huy động 150 tỷ USD, vượt kỷ lục trước đó. Các nhà đầu tư cảnh báo về thách thức tài chính trong năm 2026.
Nhu cầu điện từ trung tâm dữ liệu tăng vọt, các giải pháp tạm thời đắt đỏ đang gây lo ngại về môi trường và chi phí cao.
Báo cáo từ Gartner khuyến cáo người dùng không nên sử dụng trình duyệt AI do rủi ro bảo mật nghiêm trọng, ảnh hưởng đến dữ liệu nhạy cảm.
Đầu tư AI toàn cầu dự báo đạt 423 tỷ USD năm nay, mở ra cơ hội lớn cho các nhà cung cấp Trung Quốc trong lĩnh vực thiết bị điện và lưu trữ năng lượng.
Thị trường trung tâm dữ liệu toàn cầu ghi nhận cột mốc 61 tỷ USD trong năm 2025, nhờ nhu cầu hạ tầng cho AI và điện toán đám mây.
Trí tuệ nhân tạo là nguyên nhân chính dẫn đến gần 55.000 vụ sa thải tại Hoa Kỳ trong năm 2025, theo báo cáo từ Challenger, Gray & Christmas.
Chính phủ Nhật Bản triển khai nền tảng AI Gennai để giảm tải công việc cho công chức, hỗ trợ soạn thảo trả lời chất vấn Quốc hội.
Trung Quốc tiếp tục là quốc gia chi tiêu lớn nhất cho thiết bị sản xuất bán dẫn, với dự báo doanh số đạt 156 tỷ USD vào năm 2027.
Doanh nghiệp cần điều chỉnh chiến lược tìm kiếm trước sự bùng nổ của AI search, liệu có thay thế hoàn toàn SEO truyền thống?