لسنوات، بدا أن معركة بنية تحتية الذكاء الاصطناعي كانت من جانب واحد. ضخ مزودو السحابة الكبار مثل Alphabet، أمازون، ومايكروسوفت مليارات الدولارات في تصميم شرائح مراكز البيانات المخصصة، لكن لم يتمكن أي منهم من مجاراة الموقع الرائد لصناعة وحدات معالجة الرسومات (GPUs) من Nvidia. لقد تغيرت هذه السردية بشكل دراماتيكي الآن.
في 18 نوفمبر، كشفت Alphabet عن Gemini 3، أحدث نماذج الذكاء الاصطناعي لديها، وكانت القصة الحقيقية ليست فقط حول الأداء—بل كانت تُقدم حصريًا على وحدات المعالجة tensor المخصصة من Alphabet (TPUs). هذا الإنجاز يمثل نقطة تحول محتملة في معركة السيادة على شرائح الذكاء الاصطناعي. تساوى أو تفوقت Gemini 3 على قدرات أحدث إصدارات OpenAI وAnthropic، مما يثبت أن الشرائح المحلية يمكنها المنافسة على أعلى مستوى.
ما الذي يجعل هذا التطور مهمًا بشكل خاص؟ يُقال إن Meta Platforms تجري محادثات لشراء TPUs مباشرة من Alphabet، بينما أعلنت Anthropic عن توسعة كبيرة لاعتمادها لـ TPU عبر Google Cloud. الانتقال من تهديد نظري إلى طلب سوقي حقيقي جارٍ الآن.
قيود الإمداد تلتقي بالطلب المتفجر
تواجه Google Cloud طلبًا غير مسبوق على قدرة الحوسبة. خلال الربع الثالث من 2025 (المنتهي في 30 سبتمبر)، حققت المنصة إيرادات بلغت 15.1 مليار دولار—زيادة بنسبة 33.5% على أساس سنوي، والتي تسارعت فعليًا من الربع السابق. ومع ذلك، هناك قيد حاسم: لا يمكن لتوافر TPU أن يواكب الطلب.
تضاعف الطلب على قدرة الحوسبة ليصل إلى $155 مليار خلال الربع الثالث، بزيادة 82% على أساس سنوي. وفقًا لأمين فهدات، المدير العام للذكاء الاصطناعي والبنية التحتية في Google Cloud، قد يستمر هذا التوازن بين العرض والطلب لمدة الخمس سنوات القادمة. هذا الديناميكية تمنح القوة السعرية لـ Alphabet بينما تخلق إحباطًا للمطورين الذين يائسون للحصول على موارد حوسبة اليوم.
حجم الطلب المحتمل مذهل. عندما أعلنت Anthropic أنها ستصل إلى ما يصل إلى مليون TPU عبر Google Cloud لتدريب نماذجها Claude، أظهر ذلك حجم الفرصة بشكل واضح. Meta Platforms، التي تعتمد حاليًا على وحدات GPU من Nvidia لتدريب نموذج Llama، تخطط لشراء مليارات الدولارات من TPU بدءًا من 2027 لمراكز بياناتها الخاصة.
تحدي Nvidia: تنافسي لكن ليس ضعيفًا (حتى)
الضغط التنافسي حقيقي، لكن موقع Nvidia ليس في حالة انهيار فوري. إذا استمر تراكم الطلبات، فمن المحتمل ألا تشعر Nvidia بتأثيرات كبيرة إلا بعد عدة سنوات. ستستمر مزودات السحابة في تلبية طلب العملاء من خلال مصادر متعددة، بما في ذلك Nvidia، فقط لتلبية متطلبات السعة.
لا تزال GPUs المعيار الافتراضي لمعظم أحمال العمل في الذكاء الاصطناعي، ويرجع ذلك بشكل كبير إلى مرونتها ونضج النظام البيئي الخاص بها. صممت Alphabet TPUs لأغراضها الخاصة—عالية الأداء وموفرة للطاقة، نعم، ولكنها ليست بالضرورة مثالية لكل حالة استخدام للمطورين. لا تزال برمجية CUDA المملوكة لـ Nvidia هي لغة البرمجة المفضلة في صناعة الذكاء الاصطناعي. التحول إلى TPUs يعني التخلي عن CUDA، مما يخلق احتكاكًا للمطورين الذين استثمروا بالفعل في منصة Nvidia.
يتوقع Jensen Huang، الرئيس التنفيذي لـ Nvidia، أن ينمو إنفاق مراكز البيانات في الذكاء الاصطناعي ليصل إلى $4 تريليون دولار سنويًا بحلول 2030. مع تتبع Nvidia لإيرادات سنوية تصل إلى $213 مليار دولار في السنة المالية التي تنتهي في يناير 2026(، تترك توقعات Huang مجالًا هائلًا للنمو حتى لو تنازلت الشركة عن قيادة السوق.
منظور التقييم للمستثمرين
من ناحية التقييم، تقدم كل من الشركتين فرصًا مثيرة. يبلغ معدل السعر إلى الأرباح لـ Nvidia 44.6—خصم بنسبة 37% من متوسطه التاريخي على مدى 10 سنوات البالغ 61.2، مما يشير إلى إمكانية ارتفاع للمستثمرين الصبورين. على الرغم من أن Alphabet حققت عائدًا بنسبة 70% منذ بداية العام، إلا أنها تتداول عند نسبة سعر إلى أرباح تبلغ 31.2، مما يجعلها أرخص قليلاً من مؤشر Nasdaq-100 بشكل عام.
نظرًا للتوسع المتوقع في إنفاق بنية تحتية الذكاء الاصطناعي، فإن امتلاك كلتا الشركتين يمكن أن يلتقط جوانب مختلفة من هذا الاتجاه النمو المستمر. السؤال ليس هل سيستمر إنفاق الذكاء الاصطناعي في التسارع—بل من المحتمل جدًا أن يفعل. السؤال هو كيف سيتطور المشهد التنافسي ومن سيحقق أكبر قدر من القيمة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
ألفابت توجه ضربة حاسمة لهيمنة شركة إنفيديا على شرائح الذكاء الاصطناعي
الاختراق في تقنية TPU الذي يغير كل شيء
لسنوات، بدا أن معركة بنية تحتية الذكاء الاصطناعي كانت من جانب واحد. ضخ مزودو السحابة الكبار مثل Alphabet، أمازون، ومايكروسوفت مليارات الدولارات في تصميم شرائح مراكز البيانات المخصصة، لكن لم يتمكن أي منهم من مجاراة الموقع الرائد لصناعة وحدات معالجة الرسومات (GPUs) من Nvidia. لقد تغيرت هذه السردية بشكل دراماتيكي الآن.
في 18 نوفمبر، كشفت Alphabet عن Gemini 3، أحدث نماذج الذكاء الاصطناعي لديها، وكانت القصة الحقيقية ليست فقط حول الأداء—بل كانت تُقدم حصريًا على وحدات المعالجة tensor المخصصة من Alphabet (TPUs). هذا الإنجاز يمثل نقطة تحول محتملة في معركة السيادة على شرائح الذكاء الاصطناعي. تساوى أو تفوقت Gemini 3 على قدرات أحدث إصدارات OpenAI وAnthropic، مما يثبت أن الشرائح المحلية يمكنها المنافسة على أعلى مستوى.
ما الذي يجعل هذا التطور مهمًا بشكل خاص؟ يُقال إن Meta Platforms تجري محادثات لشراء TPUs مباشرة من Alphabet، بينما أعلنت Anthropic عن توسعة كبيرة لاعتمادها لـ TPU عبر Google Cloud. الانتقال من تهديد نظري إلى طلب سوقي حقيقي جارٍ الآن.
قيود الإمداد تلتقي بالطلب المتفجر
تواجه Google Cloud طلبًا غير مسبوق على قدرة الحوسبة. خلال الربع الثالث من 2025 (المنتهي في 30 سبتمبر)، حققت المنصة إيرادات بلغت 15.1 مليار دولار—زيادة بنسبة 33.5% على أساس سنوي، والتي تسارعت فعليًا من الربع السابق. ومع ذلك، هناك قيد حاسم: لا يمكن لتوافر TPU أن يواكب الطلب.
تضاعف الطلب على قدرة الحوسبة ليصل إلى $155 مليار خلال الربع الثالث، بزيادة 82% على أساس سنوي. وفقًا لأمين فهدات، المدير العام للذكاء الاصطناعي والبنية التحتية في Google Cloud، قد يستمر هذا التوازن بين العرض والطلب لمدة الخمس سنوات القادمة. هذا الديناميكية تمنح القوة السعرية لـ Alphabet بينما تخلق إحباطًا للمطورين الذين يائسون للحصول على موارد حوسبة اليوم.
حجم الطلب المحتمل مذهل. عندما أعلنت Anthropic أنها ستصل إلى ما يصل إلى مليون TPU عبر Google Cloud لتدريب نماذجها Claude، أظهر ذلك حجم الفرصة بشكل واضح. Meta Platforms، التي تعتمد حاليًا على وحدات GPU من Nvidia لتدريب نموذج Llama، تخطط لشراء مليارات الدولارات من TPU بدءًا من 2027 لمراكز بياناتها الخاصة.
تحدي Nvidia: تنافسي لكن ليس ضعيفًا (حتى)
الضغط التنافسي حقيقي، لكن موقع Nvidia ليس في حالة انهيار فوري. إذا استمر تراكم الطلبات، فمن المحتمل ألا تشعر Nvidia بتأثيرات كبيرة إلا بعد عدة سنوات. ستستمر مزودات السحابة في تلبية طلب العملاء من خلال مصادر متعددة، بما في ذلك Nvidia، فقط لتلبية متطلبات السعة.
لا تزال GPUs المعيار الافتراضي لمعظم أحمال العمل في الذكاء الاصطناعي، ويرجع ذلك بشكل كبير إلى مرونتها ونضج النظام البيئي الخاص بها. صممت Alphabet TPUs لأغراضها الخاصة—عالية الأداء وموفرة للطاقة، نعم، ولكنها ليست بالضرورة مثالية لكل حالة استخدام للمطورين. لا تزال برمجية CUDA المملوكة لـ Nvidia هي لغة البرمجة المفضلة في صناعة الذكاء الاصطناعي. التحول إلى TPUs يعني التخلي عن CUDA، مما يخلق احتكاكًا للمطورين الذين استثمروا بالفعل في منصة Nvidia.
يتوقع Jensen Huang، الرئيس التنفيذي لـ Nvidia، أن ينمو إنفاق مراكز البيانات في الذكاء الاصطناعي ليصل إلى $4 تريليون دولار سنويًا بحلول 2030. مع تتبع Nvidia لإيرادات سنوية تصل إلى $213 مليار دولار في السنة المالية التي تنتهي في يناير 2026(، تترك توقعات Huang مجالًا هائلًا للنمو حتى لو تنازلت الشركة عن قيادة السوق.
منظور التقييم للمستثمرين
من ناحية التقييم، تقدم كل من الشركتين فرصًا مثيرة. يبلغ معدل السعر إلى الأرباح لـ Nvidia 44.6—خصم بنسبة 37% من متوسطه التاريخي على مدى 10 سنوات البالغ 61.2، مما يشير إلى إمكانية ارتفاع للمستثمرين الصبورين. على الرغم من أن Alphabet حققت عائدًا بنسبة 70% منذ بداية العام، إلا أنها تتداول عند نسبة سعر إلى أرباح تبلغ 31.2، مما يجعلها أرخص قليلاً من مؤشر Nasdaq-100 بشكل عام.
نظرًا للتوسع المتوقع في إنفاق بنية تحتية الذكاء الاصطناعي، فإن امتلاك كلتا الشركتين يمكن أن يلتقط جوانب مختلفة من هذا الاتجاه النمو المستمر. السؤال ليس هل سيستمر إنفاق الذكاء الاصطناعي في التسارع—بل من المحتمل جدًا أن يفعل. السؤال هو كيف سيتطور المشهد التنافسي ومن سيحقق أكبر قدر من القيمة.