08:00 26/01/2024

CEO ChatGPT đang đàm phán với các nhà đầu tư nào cho dự án chip AI tỷ USD?

Nguyễn Hà

Giám đốc điều hành OpenAI, Sam Altman đang nỗ lực huy động hàng tỷ USD từ các nhà đầu tư toàn cầu cho một dự án kinh doanh chip, nhằm mục đích sử dụng số tiền này để thành lập mạng lưới các nhà máy sản xuất chất bán dẫn…

Ông Altman đã có cuộc trò chuyện cùng một số nhà đầu tư tiềm năng lớn với hy vọng huy động được số tiền lớn cần thiết cho các nhà máy chế tạo chip, thường được gọi là fabs.

Việc sản xuất chip rất tốn kém, chúng cũng đòi hỏi một lượng lớn tài nguyên thiên nhiên, bên cạnh hàng tỷ USD tài trợ. Chi phí sản xuất đã tăng lên trong những năm qua khi công nghệ sản xuất chip được sử dụng trong các ứng dụng trí tuệ nhân tạo tiến bộ.

LO NGẠI KHI NGUỒN CUNG CHIP KHÔNG ĐỦ

Một số nguồn tin chia sẻ với Bloomberg rằng các công ty đã tổ chức thảo luận với CEO Altman bao gồm G42 có trụ sở tại Abu Dhabi và Tập đoàn SoftBank của Nhật Bản. Một số người cho biết dự án sẽ liên quan đến việc hợp tác với các nhà sản xuất chip hàng đầu và mạng lưới các nhà máy sẽ có phạm vi toàn cầu. Tuy nhiên, các cuộc đàm phán vẫn đang ở giai đoạn đầu và danh sách đầy đủ các đối tác và nhà tài trợ tham gia vẫn chưa được thiết lập.

Việc thúc đẩy gây quỹ của CEO Altman phản ánh mối lo ngại của ông rằng khi trí tuệ nhân tạo (AI) trở nên phổ biến hơn, sẽ không có đủ chip để triển khai rộng rãi. Một số dự báo hiện tại về sản xuất chip liên quan đến AI không đáp ứng được nhu cầu dự kiến.

OpenAI tập trung vào việc xây dựng và duy trì các cơ sở của riêng mình, phương pháp này đắt hơn so với cách tiếp cận của các đối thủ cạnh tranh. Amazon, Google của Alphabet và Microsoft – nhà đầu tư lớn nhất của OpenAI – thường tập trung vào việc thiết kế silicon tùy chỉnh của riêng họ và sau đó chuyển sản xuất cho các nhà cung cấp bên ngoài.

Việc xây dựng một nhà máy hiện đại có thể cần hàng chục tỷ đô la và việc tạo ra một mạng lưới các cơ sở như vậy sẽ phải mất nhiều năm. Chẳng hạn, việc xây dựng hai nhà máy của Intel ở Arizona dự kiến ​​có chi phí 15 tỷ USD mỗi nhà máy, trong khi TSMC dự đoán dự án nhà máy của họ nằm gần đó sẽ có giá trị khoảng 40 tỷ USD.

Trước đó, các cuộc đàm phán với G42 đã tập trung vào việc huy động từ 8 tỷ USD đến 10 tỷ USD. Ông Altman tin rằng ngành công nghiệp cần phải hành động ngay bây giờ để đảm bảo có đủ nguồn cung vào gần cuối thập kỷ này.

Kể từ khi OpenAI phát hành ChatGPT, sự quan tâm đến các ứng dụng AI đã tăng vọt trong các công ty và người tiêu dùng. Chính điều đó đã thúc đẩy nhu cầu lớn về sức mạnh tính toán, bộ xử lý cần thiết để xây dựng và chạy các chương trình AI đó. CEO Altman đã nhiều lần nói rằng hiện tại không có đủ lượng cung chip cho nhu cầu của công ty ông.

Altman đã làm việc chăm chỉ để phát triển dự án chip đến khi ông tạm thời bị cách chức Giám đốc điều hành OpenAI vào tháng 11. Khi trở về vị trí CEO, ông lại nhen nhóm lại những nỗ lực ấy. Altman cũng đã thăm dò ý kiến ​​của Microsoft về kế hoạch này và gã khổng lồ phần mềm cũng đang cân nhắc tham gia dự án.

CUỘC ĐUA SẢN XUẤT CHIP AI

Nếu không có đủ bộ xử lý để đào tạo và chạy các mô hình nhằm đáp ứng nhu cầu của người dùng, thì các dịch vụ từ xa có thể bị chậm hoặc triển khai bị hạn chế. Những người mong muốn sử dụng công nghệ này trên cơ sở hạ tầng của riêng mình có thể không dễ dàng tìm được những bộ phận họ cần.

TSMC có thể là ứng cử viên hàng đầu vì GPU và bộ tăng tốc AI của Nvidia, AMD, Intel đều được sản xuất tại các nhà máy của họ. Và, mặc dù Nvidia trước đây đã sử dụng cơ sở vật chất của Samsung cho một số bộ phận thế hệ cuối cùng của mình, nhưng những bộ phận đó vẫn chưa phụ thuộc nhiều vào công nghệ đóng gói tiên tiến.

Giá trị của Nvidia đã tăng trên 1 nghìn tỷ USD lần đầu tiên vào năm ngoái, một phần do sự độc quyền vì GPT-4, Gemini, Llama 2 và các mô hình ngôn ngữ lớn khác đều phụ thuộc nhiều vào GPU H100 phổ biến của công ty.

Các công ty khác đang phát triển mô hình AI cũng đã mạo hiểm sản xuất chip của riêng mình. Microsoft đã công bố vào tháng 11/2023 rằng họ đã xây dựng chip AI tùy chỉnh đầu tiên để đào tạo các mô hình, theo sát là Amazon công bố phiên bản mới của chip Trainium. Nhóm thiết kế chip của Google đang sử dụng DeepMind AI chạy trên máy chủ Google Cloud để thiết kế bộ xử lý AI như Bộ xử lý Tensor (TPU).

AWS, Azure và Google cũng sử dụng bộ xử lý H100 của Nvidia. Giám đốc điều hành Meta Mark Zuckerberg chia sẻ với The Verge rằng “Vào cuối năm nay, Meta sẽ sở hữu hơn 340.000 GPU H100 của Nvidia, khi công ty theo đuổi việc phát triển trí tuệ nhân tạo chung (AGI)”.

Gần đây, Nvidia đã công bố chip GH200 Grace Hopper thế hệ tiếp theo để mở rộng sự thống trị của mình, trong khi các đối thủ AMD, Qualcomm và Intel đã tung ra bộ xử lý được thiết kế để cung cấp năng lượng cho các mẫu AI chạy trên máy tính xách tay, điện thoại và các thiết bị khác.