Công nghệ mới giúp giảm mức tiêu thụ năng lượng của AI tới 1.000 lần
Hoàng Hà
01/08/2024
Bước đột phá này thể hiện tiến bộ nhảy vọt lớn trong nỗ lực tìm kiếm các ứng dụng AI tiết kiệm năng lượng hơn...
Các nhà nghiên cứu tại Đại học Minnesota Twin Cities (Hoa Kỳ) đã phát triển một thiết bị phần cứng tiên tiến có thể giúp giảm đáng kể mức tiêu thụ năng lượng của các mô hình AI xuống ít nhất 1.000 lần.
GIẢI QUYẾT NHU CẦU NĂNG LƯỢNG CỦA AI
Với các ứng dụng AI ngày càng phổ biến, cả thế giới đang đứng trước nhu cầu cấp thiết phải nâng cao hiệu quả sử dụng năng lượng mà không ảnh hưởng đến hiệu suất hoặc chi phí leo thang.
Các quy trình AI truyền thống tiêu thụ một lượng lớn năng lượng bằng cách liên tục truyền dữ liệu giữa logic (xử lý) và bộ nhớ (lưu trữ).
Mô hình mới của Đại học Minnesota, được gọi là bộ nhớ truy cập ngẫu nhiên tính toán (CRAM), giải quyết vấn đề này bằng cách giữ dữ liệu trong bộ nhớ để xử lý.
Yang Lv, một nhà nghiên cứu sau tiến sĩ tại Khoa Kỹ thuật Điện và Máy tính, tác giả chính của nghiên cứu, giải thích: “Công trình này là minh chứng thử nghiệm đầu tiên về CRAM, trong đó dữ liệu có thể được xử lý hoàn toàn trong mảng bộ nhớ mà không cần phải rời khỏi mạng lưới nơi máy tính lưu trữ thông tin”.
CRAM: NHÂN TỐ THAY ĐỔI CUỘC CHƠI VỀ HIỆU QUẢ SỬ DỤNG NĂNG LƯỢNG BẰNG AI
Cơ quan Năng lượng Quốc tế (IEA) dự đoán mức tiêu thụ năng lượng AI sẽ tăng gấp đôi từ 460 terawatt giờ (TWh) vào năm 2022 lên 1.000 TWh vào năm 2026, tương đương với tổng mức tiêu thụ điện của Nhật Bản.
Máy gia tốc suy luận học máy dựa trên CRAM có thể đạt được mức cải thiện năng lượng lên tới 1.000 lần, với một số ứng dụng cho thấy mức tiết kiệm năng lượng là 2.500 và 1.700 lần so với các phương pháp truyền thống.
Nhóm liên ngành, bao gồm các chuyên gia từ vật lý, khoa học vật liệu, khoa học máy tính và kỹ thuật, đã phát triển công nghệ này từ năm 2003.
Nghiên cứu này dựa trên công trình được cấp bằng sáng chế về Mối nối đường hầm từ tính (MTJ), các thiết bị có cấu trúc nano được sử dụng trong ổ cứng, cảm biến và các hệ thống vi điện tử khác, bao gồm Bộ nhớ truy cập ngẫu nhiên từ tính (MRAM).
CRAM tận dụng những tiến bộ này để thực hiện tính toán trực tiếp trong các ô nhớ, loại bỏ việc truyền dữ liệu chậm và tốn nhiều năng lượng điển hình của các kiến trúc truyền thống.
PHÁ VỠ NÚT CỔ CHAI VON NEUMANN
Hầu hết các hệ thống máy tính hiện đại đều được xây dựng trên cái được gọi là kiến trúc Von Neumann, trong đó các hệ thống logic và bộ nhớ con được tách biệt. Khi hoạt động, dữ liệu chuyển qua lại giữa các mô-đun bộ nhớ và bộ xử lý. Đây cũng là nền tảng vận hành cơ bản của máy tính ngày nay.
Kiến trúc CRAM khắc phục được nút cổ chai của kiến trúc von Neumann truyền thống, trong đó tính toán và bộ nhớ là những thực thể riêng biệt.
“CRAM rất linh hoạt”, Ulya Karpuzcu, Phó Giáo sư và chuyên gia về kiến trúc điện toán cho biết, “tính toán có thể được thực hiện ở bất kỳ vị trí nào trong mảng bộ nhớ”.
Tính linh hoạt này cho phép CRAM đáp ứng nhu cầu hiệu suất của các thuật toán AI khác nhau một cách hiệu quả hơn so với các hệ thống truyền thống.
CRAM sử dụng ít năng lượng hơn đáng kể so với các thiết bị bộ nhớ truy cập ngẫu nhiên (RAM) hiện tại dựa vào nhiều bóng bán dẫn để lưu trữ dữ liệu.
Nhóm của Đại học Minnesota hiện đang hợp tác với các nhà lãnh đạo ngành bán dẫn để mở rộng quy mô trình diễn và sản xuất phần cứng cần thiết nhằm giảm mức tiêu thụ năng lượng AI trên quy mô lớn hơn.
Sự phát triển của công nghệ CRAM thể hiện một bước tiến vượt bậc hướng tới điện toán AI bền vững. Chưa dừng lại, con số 1.000 lần mới chỉ là mức tối thiểu. Nhóm nghiên cứu đã thử nghiệm CRAM trên tác vụ phân loại chữ số viết tay MNIST và kết quả cho thấy nó "tiết kiệm năng lượng và thời gian lần lượt là 2.500 lần và 1.700 lần so với hệ thống xử lý gần bộ nhớ tại node công nghệ 16 nm".
Bằng cách giảm đáng kể mức tiêu thụ năng lượng AI trong khi vẫn duy trì hiệu suất cao, sự đổi mới này hứa hẹn sẽ đáp ứng nhu cầu ngày càng tăng của các ứng dụng AI và mở đường cho một tương lai hiệu quả hơn và thân thiện với môi trường hơn.
Sự kiện mở ra mô hình hợp tác mới giữa Nhà nước - Nhà trường - Doanh nghiệp nhằm thúc đẩy đổi mới sáng tạo, phát triển hệ sinh thái khởi nghiệp công nghệ và hình thành động lực tăng trưởng dựa trên tri thức cho Hà Nội trong giai đoạn mới…
Các tính năng quen thuộc như lướt (infinite scroll), video tự động phát (autoplay), thông báo liên tục và bảng tin cá nhân hóa đang bị cho là có tính cưỡng ép hành vi sử dụng mạng xã hội…
Những vật liệu thế hệ mới có thể mang lại hiệu năng vượt trội cho các dòng chip chiến lược…
Robot hình người Trung Quốc vừa gây ấn tượng mạnh tại Spring Festival Gala hồi đầu tuần trước, làm thay đổi rõ rệt cảm nhận của công chúng…
Mô hình 4o của ChatGPT được rất nhiều người dùng ưa chuộng nhưng đây cũng có nhiều tranh cãi liên quan đến xu hướng trả lời nịnh nọt và những tác hại…
AI khiến các trung tâm dữ liệu cần nguồn điện khổng lồ và nhanh chóng, các nhà sản xuất truyền thống chưa kịp phản ứng và đã khoảng trống cho những “tay chơi” mới…
Bước sang năm 2026, Tập đoàn CMC đẩy mạnh chiến lược "Go Global" với mục tiêu thiết lập sự hiện diện vững chắc tại các thị trường công nghệ trọng điểm…
Pin giấy có chi phí sản xuất thấp, dễ mở rộng quy mô và không phụ thuộc vào chuỗi cung ứng khoáng sản tập trung toàn cầu. Đây là yếu tố chiến lược trong bối cảnh các quốc gia ngày càng quan tâm đến an ninh năng lượng và tự chủ công nghệ...
Đây là dự án thử nghiệm trung tâm dữ liệu nổi ngoài khơi sử dụng 100% năng lượng tái tạo...
Trung Quốc đang tăng tốc mạnh mẽ để thống lĩnh lĩnh vực robot hình người. Đây là lĩnh vực Bắc Kinh xác định sẽ nắm vai trò dẫn dắt trong vòng 5 năm tới...