image Thứ Ba, 09/12/2025

AWS và OpenAI hợp tác trong thỏa thuận trị giá 38 tỷ USD, đưa hàng trăm nghìn GPU vào hoạt động

Sơn Trần

07/11/2025

Chia sẻ

Thỏa thuận giữa AWS và OpenAI không chỉ đánh dấu bước ngoặt trong cuộc đua hạ tầng AI toàn cầu mà còn cho thấy trong cuộc cách mạng trí tuệ nhân tạo, sức mạnh điện toán giờ đây quan trọng không kém thuật toán…

Thỏa thuận được xem là một trong những cam kết điện toán đám mây lớn nhất trong lịch sử
Thỏa thuận được xem là một trong những cam kết điện toán đám mây lớn nhất trong lịch sử

Mọi công ty AI đều đối mặt với một giới hạn căn bản: thuật toán có thông minh đến đâu cũng trở nên vô dụng nếu thiếu sức mạnh tính toán khổng lồ để vận hành.

Chính vì thế, thỏa thuận hợp tác vừa được hai bên công bố giữa Amazon Web Services (AWS) và OpenAI đã nhắm thẳng vào nút thắt này. AWS cam kết đầu tư tới 38 tỷ USD trong vòng bảy năm, cung cấp cho OpenAI quyền truy cập tức thì vào hàng trăm nghìn GPU Nvidia.

Thỏa thuận này được xem là một trong những cam kết điện toán đám mây lớn nhất trong lịch sử, giúp “cha đẻ” ChatGPT sở hữu nền tảng hạ tầng cần thiết để phát triển mô hình AI ngày càng tiên tiến hơn, theo Tech Wire Asia.

Với OpenAI, hạ tầng này đồng nghĩa với năng lực vận hành thực tế có thể đáp ứng hàng triệu lượt truy cập ChatGPT cùng lúc, đồng thời đào tạo mô hình AI thế hệ tiếp theo song song.

Kho tài nguyên tính toán không chỉ bao gồm GPU cho tác vụ xử lý AI chuyên sâu, mà còn có thể mở rộng đến hàng chục triệu CPU phục vụ “tác vụ đại diện”, tức những hệ thống AI có khả năng lập kế hoạch, suy luận và tự động thực hiện nhiệm vụ phức tạp.

Điểm đáng chú ý là khác với nhiều thỏa thuận chỉ mang tính “hứa hẹn tương lai”, OpenAI đã bắt đầu sử dụng hạ tầng AWS ngay khi công bố hợp tác. Nghĩa là hệ thống này đang hoạt động thật, từ việc trả lời truy vấn người dùng cho đến huấn luyện các phiên bản GPT nâng cao hơn.

HẠ TẦNG KỸ THUẬT KHỔNG LỒ: “TRÁI TIM” CỦA KỶ NGUYÊN AI

Cấu trúc hạ tầng mới sử dụng máy chủ Amazon EC2 UltraServers được trang bị GPU Nvidia GB200 và GB300, những con chip tiên tiến nhất hiện nay.

Các GPU này được liên kết trên cùng một mạng tốc độ cao, cho phép hàng nghìn bộ xử lý giao tiếp với độ trễ cực thấp, yếu tố tối quan trọng trong việc huấn luyện mô hình AI quy mô lớn.

Theo công bố, AWS sẽ triển khai hàng trăm nghìn GPU trước cuối năm 2026, với khả năng mở rộng tiếp sang năm 2027 và giai đoạn sau đó.

Các cụm máy chủ được thiết kế linh hoạt để thích ứng với nhu cầu liên tục thay đổi của OpenAI, hỗ trợ nhiều loại tác vụ khác nhau khi công nghệ AI phát triển.

“Khi OpenAI tiếp tục mở rộng ranh giới, hạ tầng hàng đầu thế giới của AWS là xương sống cho tham vọng AI đó”, ông Matt Garman, CEO AWS chia sẻ. “Quy mô và tốc độ sẵn có của hệ thống tính toán tối ưu chính là lý do AWS có vị thế độc nhất trong việc hỗ trợ khối lượng công việc khổng lồ của OpenAI”.

Niềm tin của ông Garman dựa trên kinh nghiệm dày dạn của AWS trong việc vận hành cụm hạ tầng AI quy mô cực lớn, vượt quá 500.000 con chip, điều mà rất ít nhà cung cấp điện toán đám mây khác có thể sánh kịp.

VÌ SAO HỢP TÁC DIỄN RA LÚC NÀY?

Thời điểm công bố hợp tác phản ánh một bước ngoặt quan trọng trong tiến trình phát triển AI. Khi các mô hình ngày càng tinh vi, nhu cầu tính toán cũng tăng theo cấp số nhân.

Việc huấn luyện mô hình tiên tiến nhất hiện nay đòi hỏi sự phối hợp hàng trăm nghìn bộ xử lý làm việc liên tục trong nhiều tuần, thậm chí nhiều tháng. Đây là thách thức kỹ thuật và tài chính lớn với nhiều công ty bởi phải đáp ứng nguồn vốn khổng lồ và năng lực vận hành ở quy mô toàn cầu.

“Để mở rộng AI ở cấp độ tiên phong, cần có sức mạnh tính toán khổng lồ và ổn định”, ông Sam Altman, đồng sáng lập kiêm CEO OpenAI nhấn mạnh. “Quan hệ đối tác với AWS giúp củng cố hệ sinh thái tính toán rộng lớn, mở đường cho kỷ nguyên AI và đưa công nghệ đến với mọi người”.

Ông Sam Altman, đồng sáng lập kiêm CEO OpenAI
Ông Sam Altman, đồng sáng lập kiêm CEO OpenAI

Trước đó, hai công ty đã từng hợp tác: đầu năm 2025, mô hình OpenAI mã nguồn mở được đưa lên Amazon Bedrock, nền tảng AI quản lý của AWS. Chỉ trong thời gian ngắn, OpenAI trở thành nhà cung cấp mô hình được sử dụng nhiều nhất trên hệ thống này, với hàng nghìn khách hàng như Peloton, Thomson Reuters và Verana Health, sử dụng cho mục đích đa dạng – từ hỗ trợ lập trình, nghiên cứu khoa học đến phân tích dữ liệu.

NHỮNG CÂU HỎI LỚN CHO NGÀNH AI

Thỏa thuận giữa AWS và OpenAI cho thấy xu hướng mới trong ngành: khả năng truy cập hạ tầng điện toán đang trở nên quan trọng không kém thuật toán. Cam kết 38 tỷ USD này thể hiện rõ thực tế rằng phát triển AI hiện đại cần nguồn vốn khổng lồ, và điều đó khiến sức mạnh AI ngày càng tập trung vào tay những tổ chức lớn có năng lực tài chính và hạ tầng vượt trội.

Với khách hàng doanh nghiệp đang dùng mô hình của OpenAI qua Amazon Bedrock, mối quan hệ mở rộng này đồng nghĩa với dịch vụ ổn định hơn, tốc độ phản hồi nhanh hơn và khả năng phát triển tính năng mới tốt hơn. Đặc biệt, những công ty đang áp dụng AI cho quy trình tự động, tính toán khoa học hay giải quyết bài toán phức tạp sẽ được hưởng lợi trực tiếp từ hạ tầng mở rộng này.

Tuy nhiên, thỏa thuận cũng đặt ra lo ngại về sự tập trung hóa quyền lực trong hạ tầng AI. Khi OpenAI phụ thuộc nhiều vào một nhà cung cấp đám mây duy nhất, rủi ro phụ thuộc và mất tính linh hoạt là điều không thể tránh khỏi, dù công ty có thể vẫn duy trì quan hệ với một số đối tác khác.

Việc ký kết kéo dài đến bảy năm cho thấy tầm nhìn dài hạn của hai bên, nhưng đồng thời cũng “khóa chặt” cả hai vào mối quan hệ bao trùm qua nhiều thế hệ công nghệ khác nhau.

Câu hỏi đặt ra là: việc tập trung phát triển AI trên nền tảng đám mây lớn sẽ thúc đẩy đổi mới hay kìm hãm cạnh tranh?

Dù câu trả lời còn bỏ ngỏ, điều rõ ràng là quyền truy cập vào hạ tầng điện toán tiên tiến giờ đây sẽ trở thành “tấm vé vào cửa” cho mọi tổ chức muốn tham gia vào cuộc đua AI. Trong tương lai, sự hợp tác giữa các ông lớn như AWS và OpenAI không chỉ định hình hướng phát triển công nghệ, mà còn tái cấu trúc toàn bộ cục diện cạnh tranh của ngành trí tuệ nhân tạo toàn cầu.


Intel đầu tư hơn 200 triệu USD vào Malaysia trong chuyến về thăm quê của CEO Lip-Bu Tan

Intel công bố khoản đầu tư 208 triệu USD vào Malaysia, khẳng định niềm tin vào Kế hoạch Tổng thể Công nghiệp Mới 2030, trong chuyến thăm của CEO Lip-Bu Tan.

14:21 09/12/2025
Lazada: Thị trường thương mại điện tử có tính xác thực dự kiến đạt 150 tỷ USD vào năm 2030

Thị trường thương mại điện tử dựa trên tính xác thực tại Đông Nam Á dự báo đạt 150 tỷ USD vào năm 2030, với nhu cầu gia tăng từ người tiêu dùng.

15:04 04/12/2025
Apple bổ nhiệm cựu Giám đốc Microsoft, Google làm Giám đốc AI

Apple tái cấu trúc đội ngũ AI, bổ nhiệm Amar Subramanya thay thế John Giannandrea trong bối cảnh cạnh tranh khốc liệt với Microsoft và Google.

14:58 04/12/2025
Doanh số iPhone của Apple lần đầu tiên vượt Samsung sau 14 năm

Dự báo Apple sẽ xuất xưởng 243 triệu iPhone trong năm 2025, vượt Samsung với 235 triệu thiết bị, nhờ sức mua mạnh từ dòng iPhone 17.

08:44 03/12/2025
Nền kinh tế số Malaysia dẫn đầu khu vực với tăng trưởng 19%

Nền kinh tế số Malaysia đạt 39 tỷ USD vào năm 2025, tăng 19% nhờ thương mại điện tử và du lịch số phục hồi mạnh mẽ.

11:06 29/11/2025
Được nhà đầu tư hậu thuẫn, startup robot Trung Quốc Era bắt đầu thực hiện nhiều đơn hàng lớn

Robot Era vừa huy động gần 140 triệu USD trong vòng Series A+, đẩy mạnh thương mại hóa với hơn 70 triệu USD đơn hàng cho năm 2025.

19:30 26/11/2025
Nvidia tăng trưởng bùng nổ, nhưng nỗi lo “bong bóng AI” vẫn chưa nguôi

Nvidia báo cáo doanh thu quý III tăng 60%, nhưng thị trường vẫn lo ngại về tính bền vững của đầu tư vào hạ tầng AI trong bối cảnh bong bóng có thể nổ.

19:30 26/11/2025
Những yếu tố nào đang quyết định sự bùng nổ của các trung tâm dữ liệu?

Các trung tâm dữ liệu AI đang tạo ra sức ép lớn lên lưới điện và tài nguyên môi trường, trong khi hứa hẹn mang lại hàng trăm nghìn việc làm tại Mỹ.

10:53 26/11/2025
Nhân viên Google phải tăng gấp đôi năng lực phục vụ AI sau mỗi 6 tháng

Ông Amin Vahdat từ Google cho biết công ty sẽ tăng gấp đôi năng lực AI sau mỗi 6 tháng, hướng tới mục tiêu 1.000 lần trong 4-5 năm tới.

09:58 26/11/2025
Làm thế nào để xây dựng chuỗi cung ứng bán dẫn có khả năng phục hồi?

Chuỗi cung ứng bán dẫn cần khả năng chống chịu để ứng phó với rủi ro, từ sự tập trung sản xuất đến chiến lược khu vực hóa và đầu tư công nghệ.

14:25 24/11/2025