Cảnh quan đầu tư cho lãnh đạo trí tuệ nhân tạo đã trải qua một sự đảo chiều đột ngột. Trong khi những người hoài nghi còn đặt câu hỏi về khả năng của Alphabet trong lĩnh vực LLM chỉ vài tháng trước, thì công ty đã thay đổi hoàn toàn câu chuyện. Google không còn chỉ chơi trò bắt kịp—mà đang khẳng định vị thế như một lực lượng song song cả về xuất sắc trong mô hình AI lẫn cung cấp hạ tầng phần cứng, trực tiếp thách thức sự thống trị lâu dài của Nvidia trong lĩnh vực tính toán tăng tốc.
Điểm ngoặt xuất hiện gần đây khi Meta Platforms công bố kế hoạch mua lại và cho thuê năng lực TPU của Alphabet, báo hiệu một bước chuyển mình địa chấn trong cách các doanh nghiệp nguồn cung hạ tầng AI. Theo các đánh giá trong ngành, mối quan hệ hợp tác này có thể giúp Alphabet chiếm khoảng 10% doanh thu truyền thống của Nvidia—một sự xói mòn đáng kể trong sự tập trung thị trường của phần cứng AI.
Lợi thế tích hợp dọc
Điều làm nổi bật vị thế của Alphabet không chỉ là sự cạnh tranh về sản phẩm, mà còn là ưu thế kiến trúc thông qua thiết kế hệ thống tích hợp. Các chip TPU tùy chỉnh của Google được thiết kế đặc biệt cho các khối lượng công việc học máy quy mô lớn, mang lại hiệu suất trên watt vượt trội và giảm đáng kể chi phí hạ tầng. Quan trọng hơn, các bộ xử lý này hoạt động liền mạch trong hệ sinh thái Google Cloud, loại bỏ sự không phù hợp giữa phần cứng và phần mềm vốn gây ra nhiều vấn đề cho các lựa chọn khác.
Sự tích hợp dọc này—khi Alphabet kiểm soát silicon, phần mềm và cơ chế cung cấp đám mây—tạo ra một rào cản mà các đối thủ khó có thể sao chép. Các doanh nghiệp có thể tiếp cận các cụm TPU cấp doanh nghiệp mà không phải gánh chịu chi phí vốn của việc mua phần cứng độc quyền, từ đó thay đổi căn bản mô hình TCO cho triển khai AI.
Song song đó, Google ra mắt Gemini 3, phiên bản LLM mới nhất của họ, thể hiện những cải tiến đáng kể về khả năng lý luận, tính toán toán học, sinh mã và khả năng đa phương thức. Đặc biệt, Gemini hưởng lợi từ mạng lưới phân phối vô song của Google trải dài qua Search, Android, Workspace và hạ tầng quảng cáo—đến hàng tỷ người dùng hoạt động hàng ngày. Lợi thế hệ sinh thái này có nghĩa là khả năng AI có thể được tích hợp trực tiếp vào các sản phẩm mà người tiêu dùng và doanh nghiệp đã sử dụng, thay vì cạnh tranh như các dịch vụ độc lập.
Thị trường định giá kể câu chuyện
Thị trường cổ phiếu đã bắt đầu điều chỉnh lại cả hai công ty phù hợp. Alphabet hiện giao dịch ở mức 30.3x lợi nhuận dự kiến trong tương lai—cao hơn trung bình lịch sử là 22.6x—với kỳ vọng tăng trưởng đồng thuận 16.4% mỗi năm. Nvidia, giao dịch ở mức 41.8x nhân lợi nhuận dự kiến trong tương lai nhưng thấp hơn trung bình 5 năm là 50.8x, vẫn duy trì dự báo tăng trưởng phi thường 46.3% mỗi năm.
Mặc dù cả hai định giá đều có vẻ hợp lý so với quỹ đạo tăng trưởng của chúng, nhưng xu hướng chuyển động là không thể phủ nhận. Cổ phiếu Nvidia đã giảm trong khi Alphabet tăng mạnh nhờ các thông báo hợp tác hạ tầng. Bình luận gần đây từ lãnh đạo Salesforce—đặc biệt là quyết định của CEO Marc Benioff chuyển từ các mô hình của OpenAI sang Gemini—cũng củng cố nhận thức rằng khoảng cách về khả năng kỹ thuật đang thu hẹp.
Phối hợp chứ không phải ăn thịt lẫn nhau
Thay vì xem đây là cuộc cạnh tranh có tính chất zero-sum, thực tế mới nổi cho thấy Alphabet và Nvidia chiếm các vị trí khác nhau nhưng bổ sung lẫn nhau trong chuỗi giá trị AI. Nvidia vẫn giữ ưu thế trong tính toán tăng tốc đa mục đích, trong khi Alphabet đang thiết lập vị thế lãnh đạo trong hạ tầng chuyên dụng và cung cấp đám mây tích hợp.
Đối với các nhà đầu tư, câu hỏi chiến lược không phải là chọn lựa giữa hai công ty, mà là phân bổ tối ưu quy mô đầu tư. Cả hai tổ chức đều tiếp tục hưởng lợi từ nhu cầu cấu trúc về khả năng AI trong doanh nghiệp và tiêu dùng. Việc xây dựng hạ tầng để hỗ trợ việc áp dụng AI toàn cầu vẫn còn trong giai đoạn đầu, tạo ra cơ hội cho nhiều người chiến thắng với các vị thế khác biệt.
Sự chuyển giao lãnh đạo trong lĩnh vực AI ít liên quan đến việc thay thế hoàn toàn, mà nhiều hơn về việc chuyên môn hóa—mỗi công ty củng cố lợi thế cạnh tranh riêng trong một thị trường đang mở rộng.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Chuyển đổi Hạ tầng AI: Tại sao Chiến lược TPU của Google đang thách thức sự thống trị của Nvidia
Cảnh quan đầu tư cho lãnh đạo trí tuệ nhân tạo đã trải qua một sự đảo chiều đột ngột. Trong khi những người hoài nghi còn đặt câu hỏi về khả năng của Alphabet trong lĩnh vực LLM chỉ vài tháng trước, thì công ty đã thay đổi hoàn toàn câu chuyện. Google không còn chỉ chơi trò bắt kịp—mà đang khẳng định vị thế như một lực lượng song song cả về xuất sắc trong mô hình AI lẫn cung cấp hạ tầng phần cứng, trực tiếp thách thức sự thống trị lâu dài của Nvidia trong lĩnh vực tính toán tăng tốc.
Điểm ngoặt xuất hiện gần đây khi Meta Platforms công bố kế hoạch mua lại và cho thuê năng lực TPU của Alphabet, báo hiệu một bước chuyển mình địa chấn trong cách các doanh nghiệp nguồn cung hạ tầng AI. Theo các đánh giá trong ngành, mối quan hệ hợp tác này có thể giúp Alphabet chiếm khoảng 10% doanh thu truyền thống của Nvidia—một sự xói mòn đáng kể trong sự tập trung thị trường của phần cứng AI.
Lợi thế tích hợp dọc
Điều làm nổi bật vị thế của Alphabet không chỉ là sự cạnh tranh về sản phẩm, mà còn là ưu thế kiến trúc thông qua thiết kế hệ thống tích hợp. Các chip TPU tùy chỉnh của Google được thiết kế đặc biệt cho các khối lượng công việc học máy quy mô lớn, mang lại hiệu suất trên watt vượt trội và giảm đáng kể chi phí hạ tầng. Quan trọng hơn, các bộ xử lý này hoạt động liền mạch trong hệ sinh thái Google Cloud, loại bỏ sự không phù hợp giữa phần cứng và phần mềm vốn gây ra nhiều vấn đề cho các lựa chọn khác.
Sự tích hợp dọc này—khi Alphabet kiểm soát silicon, phần mềm và cơ chế cung cấp đám mây—tạo ra một rào cản mà các đối thủ khó có thể sao chép. Các doanh nghiệp có thể tiếp cận các cụm TPU cấp doanh nghiệp mà không phải gánh chịu chi phí vốn của việc mua phần cứng độc quyền, từ đó thay đổi căn bản mô hình TCO cho triển khai AI.
Song song đó, Google ra mắt Gemini 3, phiên bản LLM mới nhất của họ, thể hiện những cải tiến đáng kể về khả năng lý luận, tính toán toán học, sinh mã và khả năng đa phương thức. Đặc biệt, Gemini hưởng lợi từ mạng lưới phân phối vô song của Google trải dài qua Search, Android, Workspace và hạ tầng quảng cáo—đến hàng tỷ người dùng hoạt động hàng ngày. Lợi thế hệ sinh thái này có nghĩa là khả năng AI có thể được tích hợp trực tiếp vào các sản phẩm mà người tiêu dùng và doanh nghiệp đã sử dụng, thay vì cạnh tranh như các dịch vụ độc lập.
Thị trường định giá kể câu chuyện
Thị trường cổ phiếu đã bắt đầu điều chỉnh lại cả hai công ty phù hợp. Alphabet hiện giao dịch ở mức 30.3x lợi nhuận dự kiến trong tương lai—cao hơn trung bình lịch sử là 22.6x—với kỳ vọng tăng trưởng đồng thuận 16.4% mỗi năm. Nvidia, giao dịch ở mức 41.8x nhân lợi nhuận dự kiến trong tương lai nhưng thấp hơn trung bình 5 năm là 50.8x, vẫn duy trì dự báo tăng trưởng phi thường 46.3% mỗi năm.
Mặc dù cả hai định giá đều có vẻ hợp lý so với quỹ đạo tăng trưởng của chúng, nhưng xu hướng chuyển động là không thể phủ nhận. Cổ phiếu Nvidia đã giảm trong khi Alphabet tăng mạnh nhờ các thông báo hợp tác hạ tầng. Bình luận gần đây từ lãnh đạo Salesforce—đặc biệt là quyết định của CEO Marc Benioff chuyển từ các mô hình của OpenAI sang Gemini—cũng củng cố nhận thức rằng khoảng cách về khả năng kỹ thuật đang thu hẹp.
Phối hợp chứ không phải ăn thịt lẫn nhau
Thay vì xem đây là cuộc cạnh tranh có tính chất zero-sum, thực tế mới nổi cho thấy Alphabet và Nvidia chiếm các vị trí khác nhau nhưng bổ sung lẫn nhau trong chuỗi giá trị AI. Nvidia vẫn giữ ưu thế trong tính toán tăng tốc đa mục đích, trong khi Alphabet đang thiết lập vị thế lãnh đạo trong hạ tầng chuyên dụng và cung cấp đám mây tích hợp.
Đối với các nhà đầu tư, câu hỏi chiến lược không phải là chọn lựa giữa hai công ty, mà là phân bổ tối ưu quy mô đầu tư. Cả hai tổ chức đều tiếp tục hưởng lợi từ nhu cầu cấu trúc về khả năng AI trong doanh nghiệp và tiêu dùng. Việc xây dựng hạ tầng để hỗ trợ việc áp dụng AI toàn cầu vẫn còn trong giai đoạn đầu, tạo ra cơ hội cho nhiều người chiến thắng với các vị thế khác biệt.
Sự chuyển giao lãnh đạo trong lĩnh vực AI ít liên quan đến việc thay thế hoàn toàn, mà nhiều hơn về việc chuyên môn hóa—mỗi công ty củng cố lợi thế cạnh tranh riêng trong một thị trường đang mở rộng.