Ark Invest: الحالة الراهنة والمستقبل للبنية التحتية للذكاء الاصطناعي

المصدر: فرانك داونينغ، ARK Invest؛ الترجمة: جينزي الإعلامية Claw

تزايد استثمارات البنية التحتية للذكاء الاصطناعي بشكل انفجاري

خلال السنوات الثلاث منذ إطلاق ChatGPT، شهدت الحاجة إلى الحوسبة المُسرِّعة نموًا انفجاريًا. قفزت الإيرادات السنوية لشركة Nvidia بنحو 8 مرات تقريبًا، من 27 مليار دولار في 2022 إلى 216 مليار دولار في 2025، ومن المتوقع بشكل إجماعي أن تنمو في 2026 بنسبة 62% إضافية لتصل إلى 350 مليار دولار. كما تسارع وتيرة الاستثمار في أنظمة مراكز البيانات العالمية (بما يشمل معدات الحوسبة والشبكات والتخزين) من معدل نمو سنوي متوسط قدره 5% خلال العقد حتى 2022 إلى 30% خلال السنوات الثلاث الماضية، ومن المتوقع أن يتجاوز 30% في 2026 ليصل إلى 653 مليار دولار.

تظهر أبحاث ARK أن الحوسبة المُسرِّعة (بالنسبة إلى وحدات المعالجة المركزية العامة CPU) والمُدارة بواسطة وحدات معالجة الرسوميات GPU والدوائر المتكاملة المصممة خصيصًا للذكاء الاصطناعي (ASIC) باتت اليوم تهيمن على استثمارات الخوادم، حيث تمثل 86% من مبيعات خوادم الحوسبة.

تراجع التكاليف يدفع إلى التبني بشكل أسرع

الدافع وراء الزيادة المستمرة في الإنفاق على البنية التحتية للحوسبة المُسرِّعة اللازمة لتشغيل نماذج الذكاء الاصطناعي يأتي من التوسع المستمر في حالات استخدام الذكاء الاصطناعي التوليدي على مستوى المستهلكين وعلى مستوى الشركات، ومن الحاجة إلى تدريب نماذج أساس أكثر ذكاءً أثناء السعي نحو “الذكاء الفائق”.

يؤدي الانخفاض السريع في التكاليف إلى تسريع نمو الطلب أكثر. وفقًا لأبحاثنا، تنخفض تكلفة تدريب نماذج الذكاء الاصطناعي بنسبة 75% سنويًا. ينخفض كذلك تكلفة الاستدلال بشكل أسرع — في اختبارات المعيار التي تتبعها Artificial Analysis، النماذج التي تتجاوز نسبتها 50% كانت لديها تخفيض سنوي متوسط للتكلفة يصل إلى 95%.

تعود الأسباب التي أدت إلى الانخفاض الكبير في التكاليف إلى قوتين تعملان معًا: أولًا، يطرح قادة الصناعة مثل Nvidia منتجات جديدة سنويًا، ما يجلب تحسينات في أداء العتاد عبر أجيال متتالية؛ وثانيًا، تحسنات على مستوى البرمجيات من خلال تحسينات الخوارزميات تجعل كفاءة التدريب والاستدلال على نفس العتاد تتزايد باستمرار.

إشارات طلب قوية من المستهلكين والشركات على حد سواء

تتبنى الأسر (المستهلكون) الذكاء الاصطناعي بسرعة تفوق بكثير سرعة اعتماد الإنترنت في حينه. توسع معدل انتشار الذكاء الاصطناعي خلال ثلاث سنوات إلى نحو 20%، أي أكثر من ضعفي سرعة انتقال المستهلكين إلى الإنترنت.

كما ينمو الطلب لدى الشركات بوتيرة مذهلة. فعلى سبيل المثال، وفقًا لبيانات OpenRouter، فمنذ ديسمبر 2024 تضاعف نمو الطلب على التوكنات 28 مرة.

خلال العامين الماضيين، حققت شركة Anthropic، التي حظيت بأكبر قدر من تفضيل العملاء من الشركات، نموًا في الإيرادات المفاجئة بنحو 100 مرة تقريبًا — من 100 مليون دولار من إيرادات التشغيل السنوية التقديرية بنهاية 2023، إلى ما بين 8 مليارات و10 مليارات دولار بنهاية 2025. وما يزال اتجاه نمو Anthropic في 2026 مستمرًا؛ إذ أعلنت في شهر فبراير أن إيراداتها السنوية قد بلغت 14 مليار دولار، كما أكملت جولة تمويل بقيمة 30 مليار دولار، بتقييم بلغ 380 مليار دولار.

وعلى جبهة المنافسة لدى كلٍّ من المستهلكين والشركات، تتمتع OpenAI أيضًا بنمو قوي بين المستخدمين من الشركات؛ فبحلول نوفمبر 2025 كان لديها مليون عميل من الشركات. ووفقًا لما ذكرته المديرة المالية Sarah Friar، فإن نمو إيرادات شركات OpenAI يفوق نمو أعمال المستهلكين، ويتوقع أن تمثل 50% من إجمالي إيرادات الشركة في 2026. وفي مدونة نشرتها Friar في يناير 2026، شرحت كذلك أسباب الاستثمار الإضافي في البنية التحتية: خلال السنوات الثلاث الماضية، ارتبطت إيرادات OpenAI ارتباطًا طرديًا بحجم قدراتها الحوسبية.

تمويل سوق رأس المال الخاص لبناء الذكاء الاصطناعي

لمواجهة إشارات الطلب القوية، أصبحت الاستثمارات الكبيرة في البنية التحتية ضرورة. ووفقًا لبيانات Crunchbase، تجاوز تمويل المختبرات الخاصة للذكاء الاصطناعي في 2025 مبلغ 200 مليار دولار، حيث تدفّق حوالي 80 مليار دولار إلى مطوري نماذج أساس مثل OpenAI وAnthropic وxAI. وفي الأسواق العامة، تستخدم شركات الحوسبة السحابية فائقة الحجم احتياطيات نقدية، وتسعى إلى أشكال تمويل أخرى لدعم خطط إنفاقها الرأسمالي على الذكاء الاصطناعي — إذ قد يصل حجم هذا الإنفاق في 2026 إلى 700 مليار دولار.

وبحسب التقارير، فإن صفقة بقيمة 30 مليار دولار بين Meta وBlue Owl تُعد أكبر صفقة رأس مال خاص على الإطلاق. وتم بناء الصفقة على شكل شركة مشتركة، وكان التمويل فيها يعتمد بشكل أساسي على الاقتراض بالديون؛ كما سيسمح هيكل مركبة الغرض الخاص (SPV) بأن لا يظهر دين المشروع في الميزانية العمومية لـ Meta، وقد أثار هذا بالفعل قدرًا كبيرًا من الجدل.

AMD ومصنّعون آخرون يصبحون تحدّيين قويين لـ Nvidia

بالإضافة إلى مراكز البيانات المادية، ظلّت شرائح الحوسبة في قلب الإنفاق الرأسمالي على الذكاء الاصطناعي. كانت Nvidia دائمًا في طليعة عصر الحوسبة المُسرِّعة، لكن الآن يحاول أكبر مشتري لشرائح الذكاء الاصطناعي رفع كمية القدرة الحوسبية للذكاء الاصطناعي التي يحصل عليها مقابل كل دولار يُستثمر. منذ الاستحواذ على ATI Technologies في 2006، كانت شركة Advanced Micro Devices (AMD) تعمل جنبًا إلى جنب مع Nvidia في بيع وحدات معالجة الرسوميات (GPU) في سوق المستهلكين، لكنها أصبحت الآن أيضًا منافسًا ناشئًا في سوق الشركات. ومنذ طرح معالجات سلسلة EPYC في 2017، تحولت حصة AMD في سوق معالجات الخوادم من نمو يكاد يكون صفريًا في 2017 إلى 40% في 2025.

وفيما يتعلق بالاستدلال لنماذج صغيرة، أصبحت وحدات معالجة الرسوميات AMD GPU متكافئة تقريبًا مع Nvidia من حيث الأداء مقارنة بالتكلفة الإجمالية لامتلاك النظام (TCO). تأخذ TCO في الاعتبار تكلفة شراء الشريحة مقدمًا (النفقات الرأسمالية) وتكلفة تشغيل الشريحة خلال فترة استخدامها (النفقات التشغيلية). تعتمد معايير الأداء على مؤشر InferenceMax من SemiAnalysis، مع اعتبار عدد التوكنات التي يعالجها كل GPU في الثانية كمقياس عند تحسين الإنتاجية؛ أما معيار التكلفة فيعتمد على تقديرات SemiAnalysis لتكاليف النفقات الرأسمالية والنفقات التشغيلية لكل ساعة.

على الرغم من أن AMD قد أصبحت “تلاحق” في أداء النماذج الصغيرة، فإن Nvidia لا تزال تحافظ على تفوق ملحوظ في أداء النماذج الكبيرة، كما هو موضح في الرسم أدناه.

ربطت حلول Nvidia على مستوى الرفوف Grace Blackwell ‏72 وحدة GPU من نوع Grace Blackwell (GB200) لتعمل وكأنها وحدة GPU عملاقة مشتركة الذاكرة. يرفع هذا الترابط الوثيق بين الشرائح من قدرة الاستدلال للنماذج الكبيرة — إذ تحتاج النماذج الكبيرة إلى توزيع أوزان النموذج عبر عدة وحدات GPU، بينما تحتاج النماذج الصغيرة إلى عرض نطاق تواصل أقل. ولتقليص الفجوة قبل إطلاق Nvidia Vera Rubin، تخطط AMD لطرح حلولها على مستوى الرفوف في النصف الثاني من 2026. حتى الآن، فازت AMD بطلبات لدى عملاء مثل Microsoft وMeta وOpenAI وxAI وOracle.

تتزعّم شركات الحوسبة السحابية فائقة الحجم ثورة الشرائح المصممة خصيصًا

بالإضافة إلى موردي وحدات GPU التجارية، تسعى شركات الحوسبة السحابية فائقة الحجم ومختبرات الذكاء الاصطناعي أيضًا إلى تقليل تأثير Nvidia عبر تطوير شرائحها داخليًا، وخفض تكلفة الحوسبة للذكاء الاصطناعي. وعلى مدى أكثر من عقد من الزمان، كانت Google تصمم دائمًا دوائر متكاملة مخصصة للذكاء الاصطناعي — وهي وحدات معالجة المصفوفات (Tensor Processing Units / TPU) — لتشغيل نماذج التوصية الخاصة بأعمال البحث لديها، وقد قامت بتحسين أداء الجيل الأحدث من TPU v7 للذكاء الاصطناعي التوليدي. وتقدّر SemiAnalysis أنه من خلال معالجة أحمال العمل الداخلية عبر TPU المصممة داخليًا، يمكن لجامعة Google خفض تكلفة كل عملية حسابية بنسبة 62% مقارنة بـ Nvidia. وتقوم Anthropic وMeta باستخدام توسعات TPU الخاصة بـ Google لتوسيع قدراتها الحوسبية، وهو ما قد يؤكد أن تقدير 62% قريب جدًا من الواقع.

يبدو أن شرائح Trainium من Amazon تمثل حلًا متقدمًا نسبيًا. بعد الاستحواذ على Annapurna Labs في 2015، طورت Amazon لأول مرة شرائح مخصصة لأعمالها السحابية، لتوسيع Graviton CPU المعتمد على بنية ARM ووحدة معالجة بيانات الشبكات (DPU) الخاصة بـ Nitro، بما يوفر دعماً للحوسبة الأساسية المهمة في Amazon Web Services (AWS). وأعلنت Amazon مؤخرًا أن Graviton في 2025 قدّم للمرة الثالثة على التوالي — ولأكثر من نصف — القدرة الجديدة لإضافة CPU ضمن AWS. وبالإضافة إلى استخدام TPU، تستخدم Anthropic كذلك AWS وTrainium كمنصات تدريب مفضلة لديها.

دخلت Microsoft إلى مجال الشرائح المصممة خصيصًا في 2023 فقط متأخرة عن الركب وأطلقت مسرّع الذكاء الاصطناعي Maia 100، لكنها لم تكن تركز حينها على الذكاء الاصطناعي التوليدي؛ والآن تُطرح منتجاتها من الجيل الثاني، مع التركيز أساسًا على سيناريوهات استدلال الذكاء الاصطناعي.

تتصدّر Broadcom سوق خدمات الشرائح المصممة خصيصًا

تتخصص Google وAmazon في تصميم الشرائح الأمامية (البنية والوظائف)، بينما يتولى شركاء تصميم الخلفية تحويل منطقهم إلى شرائح سيليكون، وإدارة التعبئة/التغليف المتقدم، والتنسيق مع مصانع أشباه الموصلات مثل TSMC لإنتاجها. وفي ظل التحديات التي تواجه أعمال تصنيع الرقائق لدى Intel، أصبحت TSMC الشريك المفضل لدى معظم مشروعات شرائح الذكاء الاصطناعي الرئيسية، بينما أصبحت Broadcom الشريك الرائد في تصميم الخلفية لشرائح Google TPU وMeta MTIA، وكذلك للشرائح المصممة خصيصًا التي من المقرر أن تطلقها OpenAI في 2026. وتقوم Apple تقليديًا بإنجاز تصميم كامل سلسلة شرائح الهواتف والـPC لديها بنفسها، لكن ورد أنها قد تعمل أيضًا مع Broadcom في تطوير شرائح الذكاء الاصطناعي. وتتوقع Citigroup أن إيرادات Broadcom من الذكاء الاصطناعي قد تنمو بمقدار خمسة أضعاف خلال العامين القادمين، من 20 مليار دولار في 2025 إلى 100 مليار دولار في 2027.

مسار تطوير Trainium من Amazon يبدو مميزًا جدًا مقارنةً بالآخرين — إذ ورد أن Trainium 2 تعاون مع Marvell، ثم بعد ضعف تنفيذ Marvell، انتقلت Trainium 3 وTrainium 4 إلى التعاون مع Alchip. إن قدرة Amazon على تبديل شركاء التصميم الخلفي تشير إلى أن التكامل العمودي يطرح بالفعل بعض المخاطر بالنسبة لشركات مثل Broadcom. وتجدر الإشارة إلى أن Apple وTesla تعملان مباشرة مع مصنعي أشباه الموصلات. وقد تسير Google على نمط مماثل في TPU v8 — إذ يحتوي هذا المنتج على SKU مزدوج: واحد يتم تصميمه بشكل مشترك مع Broadcom، والآخر من تصميم Google المستقل وإدارتها بمساندة من MediaTek.

ارتفاع نشاط شركات شرائح ناشئة

تشير أبحاثنا إلى أن “قوة الذيل الطويل” التي تتكون من شركات ناشئة تحاول أطرًا جديدة للهندسة المعمارية قد تستمر في تحدي المكانة السوقية الحالية لموردي الشرائح. تشتهر Cerebras بمحرك على مستوى الرقاقات (يتكون من شريحة سيليكون واحدة مصنعة، بحجم ضخم مثل صندوق البيتزا)، وتوفر أعلى معدلات معالجة للتوكنات في السوق كل ثانية، ومن المقرر — بحسب التقارير — طرحها للاكتتاب العام هذا العام. وأعلنت الشركة مؤخرًا عن تعاونها مع OpenAI لإطلاق نموذج برمجة عالي السرعة Codex Spark، وقد توصل الطرفان إلى اتفاق تعاون في شهر يناير من هذا العام. كما تتألق Groq أيضًا بفضل أدائها الاستثنائي في معالجة التوكنات في كل ثانية، وقد وقّعت مؤخرًا مع Nvidia اتفاق ترخيص غير حصري لملكية فكرية بقيمة 20 مليار دولار، يتضمن 90% من موظفي Groq، وكذلك الرئيس التنفيذي وCo-Founders لـ TPU Jonathan Ross. وهذا عمليًا بمثابة استحواذ على فريق Groq وتقنياتها؛ إذ أصبحت مثل هذه البنية في صفقات الاندماج والاستحواذ شائعة بشكل متزايد في السوق، لأن شركات التكنولوجيا العملاقة تتطلع إلى تجنب التأخيرات الناجمة عن التدقيق التنظيمي. وفي سياق آخر من تطورات الاستحواذات، يُذكر أن Intel، بعد فشل مفاوضات الاستحواذ — وفقًا للتقارير — تحولت إلى إقامة شراكة مع SambaNova. ومنذ 2014، قامت Intel بأربع عمليات استحواذ في مجال الذكاء الاصطناعي، لكنها لم تنجح في إطلاق منتج ذكاء اصطناعي حاز على قبول واسع في السوق؛ وهذا سجل يبعث على قدر كبير من الأسى.

آفاق المستقبل: حجم يصل إلى 1.4 تريليون دولار في 2030

استنادًا إلى أبحاثنا، فإن استمرار نمو الطلب في السنوات الخمس القادمة والتحسن المستمر في الأداء سيؤديان إلى تطور برامج وخدمات الذكاء الاصطناعي، وستشهد نفقات البنية التحتية للذكاء الاصطناعي نموًا بثلاثة أضعاف خلال السنوات الخمس القادمة — من 500 مليار دولار في 2025 إلى ما يقارب 1.5 تريليون دولار في 2030.

تستند توقعاتنا إلى ملاحظات تاريخية بشأن استثمارات أنظمة مراكز البيانات مقارنة بإيرادات البرمجيات. في أوائل فترة 2010، ومع صعود الحوسبة السحابية، كانت استثمارات الأنظمة تمثل حوالي 50% من الإنفاق العالمي على البرمجيات. وبحلول 2021، خفضت الاستثمارات المفرطة بعد جائحة كوفيد-19 وتحسينات العملاء نسبة استثمارات الأنظمة إلى الإنفاق على البرمجيات لتصل إلى ما دون 20% بقليل. تفترض توقعاتنا البالغة 1.5 تريليون دولار أن استثمارات 2030 ستساوي 20% من سيناريو تقدير محايد لاستثمارات البرمجيات العالمية (أي 7 تريليون دولار في يوليو 2030)، وهو افتراض شرحناه بالتفصيل في مدونة لدينا العام الماضي. نعتقد أن مستوى 20% يراعي بشكل كافٍ مخاطر الاستثمار المفرط المحتملة قبل 2030، واحتمال أن ينمو إنفاق البرمجيات بمعدل أبطأ من سيناريو التوقعات المحايد — وفي الحالة الأخيرة، نرى أن استثمارات البنية التحتية ستستمر في الحفاظ على نمو سريع، كما كان الحال في أوائل فترة 2010.

ومع استمرار نمو الطلب على القدرة الحوسبية المُدفوعة بالذكاء الاصطناعي، نتوقع أن ترتفع حصة الشرائح المصممة خصيصًا ضمن الإنفاق على الحوسبة — لأن الوقت والتمويل المطلوبين لتصميم شرائح موجهة لأحمال عمل محددة سيعكسان مزايا أداء أكبر لكل دولار مع عملية التوسع. نعتقد أنه بحلول 2030، قد تتجاوز حصة ASIC المصممة خصيصًا في سوق الحوسبة ثلث السوق.

بشكل شامل، تشير أبحاثنا إلى أن بناء البنية التحتية الجاري حاليًا ليس فقاعة مرشحة للانفجار، بل هو أساس تحول على مستوى المنصة لا يتكرر. تتوقع ARK أن تصل النفقات السنوية للبنية التحتية للذكاء الاصطناعي في 2030 إلى ما يقرب من 1.5 تريليون دولار، وأن هذا السوق مدفوع بطلب حقيقي ومستمر متسارع من المستهلكين والشركات، وأن التكاليف المتناقصة باستمرار تواصل التحقق من صحة هذه الفكرة وإطلاق حالات استخدام جديدة. نؤمن بأن الشركات التي ستبرز خلال السنوات الخمس القادمة ستكون تلك التي تستطيع تصميم أكثر الشرائح كفاءة، وبناء أقوى النماذج، ثم نشر كلٍّ من هذين على نطاق واسع وفعلي.

كما أوضح الرئيس التنفيذي لشركة Nvidia Huang Jen-hsun في مكالمة أرباح الربع الرابع للسنة المالية 2026، فإن الوكلاء الذكيين للذكاء الاصطناعي القابلة للاستخدام فعليًا لم يبدأوا في النشر على نطاق واسع سوى خلال الأشهر القليلة الماضية. فهم يستهلكون كميات هائلة من التوكنات، لكن قدراتهم تتجاوز بكثير ما اعتاد عليه أغلب المستخدمين من منتجات الذكاء الاصطناعي حتى الآن. إن توسيع نطاق هؤلاء الوكلاء ليصل إلى ملايين الشركات سيكون عملًا شديد الاعتماد على الحوسبة؛ لكن في رأينا، ستعوض مكاسب الإنتاجية الناتجة عن ذلك تمامًا هذه الاستثمارات.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.27Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.27Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • تثبيت