كشفت شركة Meta، عن الجيل التالي من برنامج Meta Training and Inference Accelerator (MTIA)، وهي مجموعة من الشرائح المصممة خصيصًا لأحمال عمل الذكاء الاصطناعي (AI)، وتأتي الترقية إلى مجموعة شرائح الذكاء الاصطناعي الخاصة بها بعد عام تقريبًا من طرح الشركة لأول شرائح الذكاء الاصطناعي.
وستعمل مسرعات الاستدلال هذه على تشغيل المنتجات والخدمات الحالية والمستقبلية لعملاق التكنولوجيا والذكاء الاصطناعي الموجود ضمن منصات الوسائط الاجتماعية الخاصة به، وعلى وجه الخصوص، أبرزت ميتا أنه سيتم استخدام قدرات مجموعة الشرائح لخدمة نماذج التصنيف والتوصيات الخاصة بها.
وقالت Meta، في إعلانها عبر منشور مدونتها: "يتم إنشاء الجيل التالي من البنية التحتية واسعة النطاق لشركة Meta مع وضع الذكاء الاصطناعي في الاعتبار، بما في ذلك دعم منتجات وخدمات الذكاء الاصطناعي التوليدية الجديدة (GenAI)، وأنظمة التوصية، وأبحاث الذكاء الاصطناعي المتقدمة. إنه استثمار نتوقع أن ينمو في السنوات المقبلة مع زيادة متطلبات الحوسبة لدعم نماذج الذكاء الاصطناعي جنبًا إلى جنب مع تطور النماذج.
توفر شريحة الذكاء الاصطناعي الجديدة تحسينات كبيرة في كل من توليد الطاقة والكفاءة بسبب التحسينات في بنيتها، وفقًا لـ Meta، ويعمل الجيل التالي من MTIA على مضاعفة النطاق الترددي للحوسبة والذاكرة مقارنة بالجيل السابق، ويمكنه أيضًا تقديم نماذج توصية Meta التي تستخدمها لتخصيص المحتوى لمستخدميه على منصات التواصل الاجتماعي الخاصة به.
وفيما يتعلق بأجهزة مجموعة الشرائح، قال ميتا إن النظام يحتوي على تصميم قائم على حامل يحمل ما يصل إلى 72 مسرعًا حيث تحتوي ثلاثة هياكل على 12 لوحة وكل منها يضم مسرعين. يعمل المعالج بسرعة 1.35 جيجا هرتز وهو أسرع بكثير من سابقه بسرعة 800 ميجا هرتز، ويمكنه أيضًا العمل بمخرج أعلى يبلغ 90 واط. تمت أيضًا ترقية النسيج بين المسرعات والمضيف إلى PCIe Gen5.
مكدس البرامج هو المكان الذي قامت فيه الشركة بإجراء تحسينات كبيرة. تم تصميم مجموعة الشرائح لتكون متكاملة تمامًا مع PyTorch 2.0 والميزات ذات الصلة، وأوضحت الشركة أن "المترجم ذو المستوى الأدنى لـ MTIA يأخذ المخرجات من الواجهة الأمامية وينتج كودًا عالي الكفاءة خاصًا بالجهاز".
تظهر النتائج حتى الآن أن شريحة MTIA هذه يمكنها التعامل مع نماذج التصنيف والتوصيات ذات التعقيد المنخفض (LC) والتعقيد العالي (HC) التي تعد مكونات لمنتجات Meta. عبر هذه النماذج، يمكن أن يكون هناك اختلاف ~10x-100x في حجم النموذج ومقدار الحوسبة لكل عينة إدخال.
ونظرًا لأننا نتحكم في المجموعة بأكملها، فيمكننا تحقيق كفاءة أكبر مقارنة بوحدات معالجة الرسومات المتاحة تجاريًا. يعد تحقيق هذه المكاسب جهدًا مستمرًا ونواصل تحسين الأداء لكل واط بينما نقوم ببناء ونشر شرائح MTIA في أنظمتنا.
مع ظهور الذكاء الاصطناعي، تركز العديد من شركات التكنولوجيا الآن على تصنيع شرائح الذكاء الاصطناعي المخصصة التي يمكنها تلبية احتياجاتها الخاصة.
توفر هذه المعالجات قوة حوسبة هائلة على الخوادم مما يمكنها من تقديم منتجات مثل روبوتات الدردشة العامة ذات الذكاء الاصطناعي وأدوات الذكاء الاصطناعي لمهام محددة.
تم أضافة تعليقك سوف يظهر بعد المراجعة