هل يمكن أن يهز سوقًا يتركز حول إنفيديا، بعد أن أعلنت جوجل علنًا عن فصل تعلم الذكاء الاصطناعي والاستنتاج عن معالجات TPU 8t·8i…؟

robot
إنشاء الملخص قيد التقدم

جوجل لتلبية “عصر الوكيل الذكي” غيرت استراتيجيتها في شرائح الذكاء الاصطناعي. تخلت عن الطريقة السابقة باستخدام شريحة عامة واحدة لمعالجة التعلم والاستنتاج في آن واحد، وأطلقت على التوالي “TPU 8t” للتعلم واسع النطاق و"TPU 8i" للاستنتاج عالي التوازي.

في 23 من الشهر (بتوقيتها المحلي)، كشفت جوجل في مؤتمر “Google Cloud Next 2026” الذي عُقد في لاس فيغاس بالولايات المتحدة عن اثنين من شرائح الذكاء الاصطناعي المخصصة. وأوضحت الشركة أن سوق الذكاء الاصطناعي يتقسم بسرعة إلى “مرحلة بناء النماذج” و"مرحلة تطبيق النماذج في الخدمة الفعلية"، وشرحت أن الطرازين الجديدين من TPU مصممان لتلبية هذا التغير في الطلب.

إذا كانت “Ironwood TPU” سابقًا منصة رائدة موجهة لمرحلة الاستنتاج، فإن الجيل الجديد يتميز ببنية ثنائية. وُصف ذلك بأنه، مع انتشار الذكاء الاصطناعي، تتزايد الحاجة إلى البنية التحتية لتدريب نماذج أكبر، وكذلك إلى بنية استنتاج سريعة لتشغيل هذه النماذج في السحابة.

TPU 8t: تعزيز أداء التدريب على نطاق واسع وكفاءة التكاليف

TPU 8t هو شريحة تركز على التدريب المسبق واسع النطاق والأعباء التي تركز على التضمين. ذكرت جوجل أن المنتج يستخدم بنية شبكة “دائرة ثلاثية الأبعاد” لتحسين قابلية التوسع لمجموعات الحوسبة الكبيرة. يمكن لعنقود واحد الاتصال بـ9600 شريحة، وهو أعلى من 9216 في Ironwood.

ويتمحور حول دعم “SparseCore” والحسابات العائمة ذات 4 بت. SparseCore هو معجل مخصص لمعالجة الوصول غير المنتظم للذاكرة الذي يظهر بشكل متكرر أثناء البحث في النماذج اللغوية الكبيرة. وتدعي جوجل أن الجمع بين العمليات ذات البتات المنخفضة يقلل من عبء عرض النطاق الترددي للذاكرة، مما يتيح الحفاظ على الدقة حتى مع ذاكرة أقل، مع مضاعفة الإنتاجية.

وهذا يتماشى مع الاتجاه التقني المعروف باسم “الكمية”. تقليل عدد البتات المطلوبة لكل معلمة يعني أنه يمكن تشغيل نماذج أكبر حتى على أنظمة ذات مواصفات منخفضة، مع تقليل استهلاك الطاقة والمساحة. وأشارت جوجل إلى أن TPU 8t في بيئة التدريب واسعة النطاق يحقق أداءً أعلى بمقدار 2.7 مرة لكل دولار مقارنة بـ Ironwood.

TPU 8i: التركيز على سرعة الاستنتاج والقدرة على المعالجة المتزامنة

تم تصميم TPU 8i خصيصًا لمرحلة الاستنتاج بعد تدريب النموذج. وهو مميز بشكل خاص في معالجة ما بعد النماذج الكبيرة والتعامل مع الطلبات المتزامنة من عدد كبير من المستخدمين.

وفقًا لجوجل، يزود TPU 8i بذاكرة وصول عشوائي ثابتة أكثر بثلاثة أضعاف من Ironwood، مما يمكنه من استيعاب “ذاكرة التخزين المؤقت للمفاتيح والقيم” الأكبر اللازمة لاستنتاج النماذج اللغوية الكبيرة، مما يعزز سرعة توليد النصوص. بالإضافة إلى ذلك، طورت جوجل نظام استنتاج يسمى “Collectives Acceleration Engine”، الذي يسرع عمليات التشفير التراجعي والتقريب في عمليات الاستنتاج وسلسلة التفكير.

كما أعيد تصميم بنية الربط بين الشرائح. أدخلت جوجل شبكة مخصصة تسمى “Boardfly ICI”، يمكنها ربط حتى 1152 شريحة. وهدف التصميم هو جعل جميع الشرائح أكثر كفاءة في التفاعل مع بعضها، وتقليل مسافة وعدد القفزات لنقل البيانات. وأشارت جوجل إلى أن تقليل عدد القفزات في اتصالات “الكل إلى الكل” الضرورية لنماذج اللغة الكبيرة ونماذج الاستنتاج المبنية على نماذج الخبراء المختلطين يمكن أن يصل إلى 50%.

كما يُركز على الكفاءة من حيث التكلفة. أوضحت جوجل أن تصميم TPU 8i يهدف إلى تحسين الأداء لكل دولار بنسبة تصل إلى 80% مقارنة بـ Ironwood في بيئة ذات زمن استجابة منخفض، وهو مفيد بشكل خاص لخدمات النماذج المتقدمة ذات الخبراء المختلطين الضخمين.

مفاتيح جوجل للفوز: هل يمكنها إحداث ثورة في سوق يسيطر عليه NVIDIA؟

أضافت جوجل أن أداء TPU 8t و TPU 8i لكل واط قد ارتفع بمقدار الضعف مقارنة بالجيل السابق. الكفاءة في استهلاك الطاقة هي عامل حاسم في ربحية مراكز البيانات الكبيرة للذكاء الاصطناعي، لذا فإن هذا التحسن ذو أهمية كبيرة.

إطلاقها لا يقتصر على تقديم شريحة جديدة فحسب، بل يرسل إشارة رسمية إلى أن جوجل تفصل استراتيجيتها للبنية التحتية للذكاء الاصطناعي إلى “تدريب” و"استنتاج". مع توجه السوق نحو التركيز على تكاليف التشغيل، وسرعة الاستجابة، والتوازي في المعالجة، تحاول جوجل تعزيز حضورها في خدمات السحابة عبر شرائح TPU.

يعتقد السوق أن العامل الحاسم في النجاح أو الفشل سيكون سرعة اعتماد العملاء الفعليين، والتوافق البرمجي مع النظام البيئي الذي يهيمن عليه NVIDIA. ومع انتشار الوكلاء الذكيين، تتزايد الطلبات على شرائح التدريب وشرائح الاستنتاج بشكل متزامن، ومن المحتمل أن تصبح استراتيجية TPU الثنائية لجوجل نقطة تحول مهمة في مستقبل المنافسة على البنية التحتية للذكاء الاصطناعي.

ملاحظات حول TPU: يستند هذا الملخص إلى نموذج لغة TokenPost.ai. قد يكون هناك نقص في التفاصيل أو عدم تطابق مع الحقائق في النص الأصلي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت