image Chủ Nhật, 22/03/2026

Công nghệ mới giúp giảm mức tiêu thụ năng lượng của AI tới 1.000 lần

Hoàng Hà

01/08/2024

Chia sẻ

Bước đột phá này thể hiện tiến bộ nhảy vọt lớn trong nỗ lực tìm kiếm các ứng dụng AI tiết kiệm năng lượng hơn...

Công nghệ mới giúp giảm mức tiêu thụ năng lượng của AI tới 1.000 lần

Các nhà nghiên cứu tại Đại học Minnesota Twin Cities (Hoa Kỳ) đã phát triển một thiết bị phần cứng tiên tiến có thể giúp giảm đáng kể mức tiêu thụ năng lượng của các mô hình AI xuống ít nhất 1.000 lần.

GIẢI QUYẾT NHU CẦU NĂNG LƯỢNG CỦA AI

Với các ứng dụng AI ngày càng phổ biến, cả thế giới đang đứng trước nhu cầu cấp thiết phải nâng cao hiệu quả sử dụng năng lượng mà không ảnh hưởng đến hiệu suất hoặc chi phí leo thang.

Các quy trình AI truyền thống tiêu thụ một lượng lớn năng lượng bằng cách liên tục truyền dữ liệu giữa logic (xử lý) và bộ nhớ (lưu trữ).

Mô hình mới của Đại học Minnesota, được gọi là bộ nhớ truy cập ngẫu nhiên tính toán (CRAM), giải quyết vấn đề này bằng cách giữ dữ liệu trong bộ nhớ để xử lý.

Yang Lv, một nhà nghiên cứu sau tiến sĩ tại Khoa Kỹ thuật Điện và Máy tính,  tác giả chính của nghiên cứu, giải thích: “Công trình này là minh chứng thử nghiệm đầu tiên về CRAM, trong đó dữ liệu có thể được xử lý hoàn toàn trong mảng bộ nhớ mà không cần phải rời khỏi mạng lưới nơi máy tính lưu trữ thông tin”.

CRAM: NHÂN TỐ THAY ĐỔI CUỘC CHƠI VỀ HIỆU QUẢ SỬ DỤNG NĂNG LƯỢNG BẰNG AI

Cơ quan Năng lượng Quốc tế (IEA) dự đoán mức tiêu thụ năng lượng AI sẽ tăng gấp đôi từ 460 terawatt giờ (TWh) vào năm 2022 lên 1.000 TWh vào năm 2026, tương đương với tổng mức tiêu thụ điện của Nhật Bản.

Máy gia tốc suy luận học máy dựa trên CRAM có thể đạt được mức cải thiện năng lượng lên tới 1.000 lần, với một số ứng dụng cho thấy mức tiết kiệm năng lượng là 2.500 và 1.700 lần so với các phương pháp truyền thống.

Nhóm liên ngành, bao gồm các chuyên gia từ vật lý, khoa học vật liệu, khoa học máy tính và kỹ thuật, đã phát triển công nghệ này từ năm 2003.

Nghiên cứu này dựa trên công trình được cấp bằng sáng chế về Mối nối đường hầm từ tính (MTJ), các thiết bị có cấu trúc nano được sử dụng trong ổ cứng, cảm biến và các hệ thống vi điện tử khác, bao gồm Bộ nhớ truy cập ngẫu nhiên từ tính (MRAM).

CRAM tận dụng những tiến bộ này để thực hiện tính toán trực tiếp trong các ô nhớ, loại bỏ việc truyền dữ liệu chậm và tốn nhiều năng lượng điển hình của các kiến ​​trúc truyền thống.

PHÁ VỠ NÚT CỔ CHAI VON NEUMANN

Hầu hết các hệ thống máy tính hiện đại đều được xây dựng trên cái được gọi là kiến ​​trúc Von Neumann, trong đó các hệ thống logic và bộ nhớ con được tách biệt. Khi hoạt động, dữ liệu chuyển qua lại giữa các mô-đun bộ nhớ và bộ xử lý. Đây cũng là nền tảng vận hành cơ bản của máy tính ngày nay.

Kiến trúc CRAM khắc phục được nút cổ chai của kiến ​​trúc von Neumann truyền thống, trong đó tính toán và bộ nhớ là những thực thể riêng biệt.

“CRAM rất linh hoạt”, Ulya Karpuzcu, Phó Giáo sư và chuyên gia về kiến ​​trúc điện toán cho biết, “tính toán có thể được thực hiện ở bất kỳ vị trí nào trong mảng bộ nhớ”.

Tính linh hoạt này cho phép CRAM đáp ứng nhu cầu hiệu suất của các thuật toán AI khác nhau một cách hiệu quả hơn so với các hệ thống truyền thống.

AI đang đặt gánh nặng lên hệ thống năng lượng. Nguồn năng lượng tái tạo được cho là phần nào giải quyết thách thức này
AI đang đặt gánh nặng lên hệ thống năng lượng. Nguồn năng lượng tái tạo được cho là phần nào giải quyết thách thức này

CRAM sử dụng ít năng lượng hơn đáng kể so với các thiết bị bộ nhớ truy cập ngẫu nhiên (RAM) hiện tại dựa vào nhiều bóng bán dẫn để lưu trữ dữ liệu.

Nhóm của Đại học Minnesota hiện đang hợp tác với các nhà lãnh đạo ngành bán dẫn để mở rộng quy mô trình diễn và sản xuất phần cứng cần thiết nhằm giảm mức tiêu thụ năng lượng AI trên quy mô lớn hơn.

Sự phát triển của công nghệ CRAM thể hiện một bước tiến vượt bậc hướng tới điện toán AI bền vững. Chưa dừng lại, con số 1.000 lần mới chỉ là mức tối thiểu. Nhóm nghiên cứu đã thử nghiệm CRAM trên tác vụ phân loại chữ số viết tay MNIST và kết quả cho thấy nó "tiết kiệm năng lượng và thời gian lần lượt là 2.500 lần và 1.700 lần so với hệ thống xử lý gần bộ nhớ tại node công nghệ 16 nm".

Bằng cách giảm đáng kể mức tiêu thụ năng lượng AI trong khi vẫn duy trì hiệu suất cao, sự đổi mới này hứa hẹn sẽ đáp ứng nhu cầu ngày càng tăng của các ứng dụng AI và mở đường cho một tương lai hiệu quả hơn và thân thiện với môi trường hơn.


Australia công bố nguyên mẫu pin lượng tử đầu tiên: Bước tiến lớn hướng tới sạc siêu nhanh

Các nhà khoa học Australia vừa phát triển nguyên mẫu pin lượng tử đầu tiên trên thế giới, mở ra loạt ứng dụng đột phá, giúp xe điện sạc pin nhanh hơn cả thời gian đổ xăng vào xe chạy xăng...

10:41 22/03/2026
Bất động sản Việt Nam 2026: Khi Quản trị dữ liệu và ESG trở thành "hệ điều hành" mới

Trong bối cảnh thị trường bất động sản đang chuyển mình mạnh mẽ, việc tối ưu hóa dữ liệu công trình và các tiêu chuẩn bền vững (ESG) không còn là những khái niệm xa xỉ mà đã trở thành động lực tăng trưởng cốt lõi...

18:46 19/03/2026
Robot Trung Quốc tăng tốc với OpenClaw

Trung Quốc đang chứng kiến sự hội tụ nhanh chóng giữa trí tuệ nhân tạo và robot, khi các tác tử AI như OpenClaw được đưa vào thế giới vật lý…

16:29 19/03/2026
Thị trường kính AI "cất cánh": Lượng hàng xuất xưởng tăng trưởng kỷ lục 322%

Sự gia tăng mạnh mẽ của kính AI được thúc đẩy bởi thị trường Trung Quốc, nơi hàng loạt sản phẩm mới ra mắt...

09:17 18/03/2026
Trung Quốc lần đầu phê duyệt thiết bị cấy ghép giao diện não – máy tính

Trung Quốc vừa ghi dấu mốc quan trọng trong lĩnh vực công nghệ thần kinh khi lần đầu tiên cấp phép thương mại thiết bị cấy ghép giao diện não – máy tính (BCI) nhằm giúp bệnh nhân chấn thương tủy sống phục hồi chức năng vận động bàn tay...

15:51 16/03/2026
Meta ra mắt hàng loạt chip AI riêng

Phó Chủ tịch Kỹ thuật Yee Jiun Song cho biết các chip này giúp Meta đa dạng hóa nguồn cung silicon và phần nào giảm tác động từ biến động giá…

14:03 14/03/2026
Nhật Bản muốn chiếm 1/3 thị phần bán dẫn toàn cầu

Nhật Bản đặt mục tiêu đạt hơn 250 tỷ USD doanh thu chip sản xuất trong nước vào năm 2040…

12:03 14/03/2026
Khám phá các tác nhân AI bên trong Microsoft 365 Copilot

Microsoft đang thử nghiệm Copilot Cowork – bước tiến mới của AI văn phòng, cho phép hệ thống không chỉ hỗ trợ viết nội dung mà còn tự thực hiện công việc trong phần mềm. Nếu thành công, AI có thể trở thành “đồng nghiệp số” thực sự trong môi trường doanh nghiệp…

11:58 14/03/2026
"UAV bầy đàn": Giải pháp ứng dụng AI, chữa cháy tại các hẻm nhỏ ở thành phố lớn

CT UAV, thành viên của CT Group, đã phát triển một giải pháp "UAV chữa cháy bầy đàn" đầu tiên tại Việt Nam dùng AI để điều khiển phi đội UAV tiếp cận nhanh, xử lý các đám cháy ở sâu trong ngõ nhỏ, hẻm sâu...

11:48 14/03/2026
Bên trong các phòng thí nghiệm AI chuyên huấn luyện robot hình người của Trung Quốc

Trung Quốc đang xây dựng hàng loạt trung tâm thu thập dữ liệu và “nông trại huấn luyện” robot nhằm tạo ra bộ dữ liệu khổng lồ để phát triển robot hình người…

13:48 13/03/2026