Trong nhiều năm, cuộc chiến hạ tầng AI dường như chỉ diễn ra một chiều. Các nhà cung cấp đám mây lớn như Alphabet, Amazon, và Microsoft đã đổ hàng tỷ đô la vào thiết kế chip trung tâm dữ liệu tùy chỉnh, nhưng không ai có thể sánh bằng vị trí dẫn đầu ngành của Nvidia trong các đơn vị xử lý đồ họa (GPUs). Câu chuyện đó vừa mới thay đổi một cách đáng kể.
Vào ngày 18 tháng 11, Alphabet giới thiệu Gemini 3, mô hình AI mới nhất của họ, và câu chuyện thực sự không chỉ về hiệu suất—nó được cung cấp độc quyền trên các đơn vị xử lý tensor tùy chỉnh của Alphabet (TPUs). Cột mốc này đánh dấu một bước ngoặt tiềm năng trong cuộc chiến giành vị trí thống trị chip AI. Gemini 3 đã phù hợp hoặc vượt qua khả năng của các phiên bản mới nhất của OpenAI và Anthropic, chứng minh rằng các chip nội bộ có thể cạnh tranh ở cấp độ cao nhất.
Điều gì làm cho sự phát triển này đặc biệt quan trọng? Meta Platforms được cho là đang đàm phán để mua TPUs trực tiếp từ Alphabet, trong khi Anthropic vừa công bố mở rộng đáng kể việc sử dụng TPU thông qua Google Cloud. Sự chuyển đổi từ mối đe dọa lý thuyết sang nhu cầu thị trường thực sự đang diễn ra.
Hạn chế nguồn cung gặp phải nhu cầu bùng nổ
Google Cloud đang trải qua nhu cầu về năng lực tính toán chưa từng có. Trong Quý 3 năm 2025 (kết thúc ngày 30 tháng 9), nền tảng này đã tạo ra doanh thu 15,1 tỷ đô la—tăng 33,5% so với cùng kỳ năm ngoái, thậm chí còn tăng tốc so với quý trước. Tuy nhiên, có một hạn chế quan trọng: khả năng cung cấp TPU không thể theo kịp.
Hàng tồn đọng đơn đặt hàng về năng lực tính toán đã bùng nổ lên đến $155 tỷ đô la trong Quý 3, tăng 82% so với cùng kỳ năm ngoái. Theo Amin Vahdat, Tổng Giám đốc AI và Hạ tầng tại Google Cloud, sự mất cân bằng cung cầu này có thể kéo dài trong năm năm tới. Tình hình này mang lại sức mạnh định giá cho Alphabet trong khi gây ra sự thất vọng cho các nhà phát triển đang khát khao tài nguyên tính toán ngày nay.
Quy mô của nhu cầu tiềm năng thật đáng kinh ngạc. Khi Anthropic công bố sẽ truy cập tới 1 triệu TPU qua Google Cloud để huấn luyện các mô hình Claude của họ, hợp đồng đó đã thể hiện rõ quy mô của cơ hội này. Meta Platforms, hiện dựa vào GPU của Nvidia để huấn luyện mô hình Llama, dự kiến sẽ mua hàng tỷ đô la TPU bắt đầu từ năm 2027 cho các trung tâm dữ liệu của riêng họ.
Thử thách của Nvidia: Cạnh tranh nhưng chưa yếu (Chưa)
Áp lực cạnh tranh là có thật, nhưng vị trí của Nvidia chưa sụp đổ ngay lập tức. Nếu hàng tồn đọng đơn đặt hàng tiếp tục tăng trưởng, Nvidia có thể sẽ không cảm nhận được tác động đáng kể trong vài năm tới. Các nhà cung cấp đám mây cần đáp ứng nhu cầu của khách hàng sẽ tiếp tục lấy nguồn từ nhiều nhà cung cấp, bao gồm Nvidia, đơn giản để đáp ứng yêu cầu về công suất.
GPU vẫn là tiêu chuẩn mặc định cho hầu hết các tác vụ AI, phần lớn vì tính linh hoạt và độ trưởng thành của hệ sinh thái. Alphabet thiết kế TPU cho các mục đích cụ thể của mình—hiệu năng cao và tiết kiệm năng lượng, đúng vậy, nhưng không nhất thiết tối ưu cho mọi trường hợp sử dụng của nhà phát triển. Phần mềm độc quyền CUDA của Nvidia vẫn là ngôn ngữ lập trình được ưa chuộng trong ngành AI. Chuyển sang TPU có nghĩa là từ bỏ CUDA, tạo ra sự cản trở cho các nhà phát triển đã đầu tư vào hệ sinh thái Nvidia.
CEO Jensen Huang của Nvidia dự đoán chi tiêu cho trung tâm dữ liệu AI có thể đạt $4 nghìn tỷ đô la mỗi năm vào năm 2030. Với Nvidia dự kiến đạt $213 tỷ đô la doanh thu hàng năm (năm tài chính kết thúc tháng 1 năm 2026), dự báo của Huang còn nhiều dư địa để tăng trưởng ngay cả khi công ty nhường vị trí dẫn đầu thị trường.
Góc nhìn định giá cho nhà đầu tư
Xét về mặt định giá, cả hai công ty đều mang lại những cơ hội hấp dẫn. Tỷ lệ P/E của Nvidia là 44,6—giảm 37% so với trung bình 10 năm lịch sử là 61,2, cho thấy tiềm năng tăng giá cho các nhà đầu tư kiên nhẫn. Alphabet, mặc dù đã mang lại lợi nhuận 70% từ đầu năm đến nay, chỉ giao dịch với P/E là 31,2, thấp hơn một chút so với chỉ số Nasdaq-100 tổng thể.
Với dự đoán tiếp tục mở rộng chi tiêu cho hạ tầng AI, việc sở hữu cả hai công ty có thể nắm bắt các khía cạnh khác nhau của xu hướng tăng trưởng dài hạn này. Câu hỏi không phải là liệu chi tiêu AI có tiếp tục tăng tốc hay không—chắc chắn là có. Câu hỏi là cách cảnh quan cạnh tranh sẽ phát triển như thế nào và ai sẽ thu về nhiều giá trị nhất.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Alphabet đã tạo ra một cú đòn thay đổi cuộc chơi đối với sự thống trị của Nvidia trong lĩnh vực chip AI
Bước đột phá TPU thay đổi mọi thứ
Trong nhiều năm, cuộc chiến hạ tầng AI dường như chỉ diễn ra một chiều. Các nhà cung cấp đám mây lớn như Alphabet, Amazon, và Microsoft đã đổ hàng tỷ đô la vào thiết kế chip trung tâm dữ liệu tùy chỉnh, nhưng không ai có thể sánh bằng vị trí dẫn đầu ngành của Nvidia trong các đơn vị xử lý đồ họa (GPUs). Câu chuyện đó vừa mới thay đổi một cách đáng kể.
Vào ngày 18 tháng 11, Alphabet giới thiệu Gemini 3, mô hình AI mới nhất của họ, và câu chuyện thực sự không chỉ về hiệu suất—nó được cung cấp độc quyền trên các đơn vị xử lý tensor tùy chỉnh của Alphabet (TPUs). Cột mốc này đánh dấu một bước ngoặt tiềm năng trong cuộc chiến giành vị trí thống trị chip AI. Gemini 3 đã phù hợp hoặc vượt qua khả năng của các phiên bản mới nhất của OpenAI và Anthropic, chứng minh rằng các chip nội bộ có thể cạnh tranh ở cấp độ cao nhất.
Điều gì làm cho sự phát triển này đặc biệt quan trọng? Meta Platforms được cho là đang đàm phán để mua TPUs trực tiếp từ Alphabet, trong khi Anthropic vừa công bố mở rộng đáng kể việc sử dụng TPU thông qua Google Cloud. Sự chuyển đổi từ mối đe dọa lý thuyết sang nhu cầu thị trường thực sự đang diễn ra.
Hạn chế nguồn cung gặp phải nhu cầu bùng nổ
Google Cloud đang trải qua nhu cầu về năng lực tính toán chưa từng có. Trong Quý 3 năm 2025 (kết thúc ngày 30 tháng 9), nền tảng này đã tạo ra doanh thu 15,1 tỷ đô la—tăng 33,5% so với cùng kỳ năm ngoái, thậm chí còn tăng tốc so với quý trước. Tuy nhiên, có một hạn chế quan trọng: khả năng cung cấp TPU không thể theo kịp.
Hàng tồn đọng đơn đặt hàng về năng lực tính toán đã bùng nổ lên đến $155 tỷ đô la trong Quý 3, tăng 82% so với cùng kỳ năm ngoái. Theo Amin Vahdat, Tổng Giám đốc AI và Hạ tầng tại Google Cloud, sự mất cân bằng cung cầu này có thể kéo dài trong năm năm tới. Tình hình này mang lại sức mạnh định giá cho Alphabet trong khi gây ra sự thất vọng cho các nhà phát triển đang khát khao tài nguyên tính toán ngày nay.
Quy mô của nhu cầu tiềm năng thật đáng kinh ngạc. Khi Anthropic công bố sẽ truy cập tới 1 triệu TPU qua Google Cloud để huấn luyện các mô hình Claude của họ, hợp đồng đó đã thể hiện rõ quy mô của cơ hội này. Meta Platforms, hiện dựa vào GPU của Nvidia để huấn luyện mô hình Llama, dự kiến sẽ mua hàng tỷ đô la TPU bắt đầu từ năm 2027 cho các trung tâm dữ liệu của riêng họ.
Thử thách của Nvidia: Cạnh tranh nhưng chưa yếu (Chưa)
Áp lực cạnh tranh là có thật, nhưng vị trí của Nvidia chưa sụp đổ ngay lập tức. Nếu hàng tồn đọng đơn đặt hàng tiếp tục tăng trưởng, Nvidia có thể sẽ không cảm nhận được tác động đáng kể trong vài năm tới. Các nhà cung cấp đám mây cần đáp ứng nhu cầu của khách hàng sẽ tiếp tục lấy nguồn từ nhiều nhà cung cấp, bao gồm Nvidia, đơn giản để đáp ứng yêu cầu về công suất.
GPU vẫn là tiêu chuẩn mặc định cho hầu hết các tác vụ AI, phần lớn vì tính linh hoạt và độ trưởng thành của hệ sinh thái. Alphabet thiết kế TPU cho các mục đích cụ thể của mình—hiệu năng cao và tiết kiệm năng lượng, đúng vậy, nhưng không nhất thiết tối ưu cho mọi trường hợp sử dụng của nhà phát triển. Phần mềm độc quyền CUDA của Nvidia vẫn là ngôn ngữ lập trình được ưa chuộng trong ngành AI. Chuyển sang TPU có nghĩa là từ bỏ CUDA, tạo ra sự cản trở cho các nhà phát triển đã đầu tư vào hệ sinh thái Nvidia.
CEO Jensen Huang của Nvidia dự đoán chi tiêu cho trung tâm dữ liệu AI có thể đạt $4 nghìn tỷ đô la mỗi năm vào năm 2030. Với Nvidia dự kiến đạt $213 tỷ đô la doanh thu hàng năm (năm tài chính kết thúc tháng 1 năm 2026), dự báo của Huang còn nhiều dư địa để tăng trưởng ngay cả khi công ty nhường vị trí dẫn đầu thị trường.
Góc nhìn định giá cho nhà đầu tư
Xét về mặt định giá, cả hai công ty đều mang lại những cơ hội hấp dẫn. Tỷ lệ P/E của Nvidia là 44,6—giảm 37% so với trung bình 10 năm lịch sử là 61,2, cho thấy tiềm năng tăng giá cho các nhà đầu tư kiên nhẫn. Alphabet, mặc dù đã mang lại lợi nhuận 70% từ đầu năm đến nay, chỉ giao dịch với P/E là 31,2, thấp hơn một chút so với chỉ số Nasdaq-100 tổng thể.
Với dự đoán tiếp tục mở rộng chi tiêu cho hạ tầng AI, việc sở hữu cả hai công ty có thể nắm bắt các khía cạnh khác nhau của xu hướng tăng trưởng dài hạn này. Câu hỏi không phải là liệu chi tiêu AI có tiếp tục tăng tốc hay không—chắc chắn là có. Câu hỏi là cách cảnh quan cạnh tranh sẽ phát triển như thế nào và ai sẽ thu về nhiều giá trị nhất.