فشلت شركة Samsung في الحصول على أغلى بطاقة AI من Nvidia ولكنها تتفوق على Micron إلى ذاكرة HBM3E بسعة 36 جيجابايت – هل يمكن لهذه التقنية الجديدة تشغيل B100، خليفة H200؟ – التقنية اليوم
النشرة الإخبارية
Sed ut perspiciatis unde.
تقول شركة Samsung إنها طورت أول ذاكرة HBM3E 12H DRAM مكونة من 12 حزمة في الصناعة، متفوقة على تقنية Micron ومن المحتمل أن تمهد الطريق للجيل القادم من بطاقات الذكاء الاصطناعي من Nvidia.
يوفر HBM3E 12H من عملاق التكنولوجيا الكوري الجنوبي عرض نطاق ترددي يصل إلى 1280 جيجابايت/ثانية وسعة رائدة في الصناعة تبلغ 36 جيجابايت، وهو ما يمثل تحسنًا بأكثر من 50% مقارنة بـ HBM3 8H المكون من 8 مكدسات.
يستخدم HBM3E 12H المكون من 12 حزمة فيلمًا متقدمًا غير موصل للضغط الحراري (TC NCF)، والذي يسمح للمنتجات المكونة من 12 طبقة بتلبية متطلبات حزمة HBM الحالية مع الحفاظ على نفس مواصفات الارتفاع مثل المنتجات المكونة من 8 طبقات. وقد أدت هذه التطورات إلى زيادة الكثافة الرأسية بنسبة 20% مقارنة بمنتج سامسونج HBM3 8H.
المعركة تشتد
قال يونج تشول باي، نائب الرئيس التنفيذي لتخطيط منتجات الذاكرة في شركة سامسونج للإلكترونيات: “يتطلب مقدمو خدمات الذكاء الاصطناعي في الصناعة بشكل متزايد HBM بسعة أعلى، وقد تم تصميم منتجنا الجديد HBM3E 12H لتلبية هذه الحاجة”. “يشكل حل الذاكرة الجديد هذا جزءًا من توجهنا نحو تطوير التقنيات الأساسية لـ HBM عالي التكديس وتوفير الريادة التكنولوجية لسوق HBM عالي السعة.”
وفي الوقت نفسه، بدأت Micron الإنتاج الضخم لوحدة HBM3E سعة 24 جيجابايت 8H، والتي سيتم استخدامها في أحدث وحدات معالجة الرسوميات H200 Tensor Core من Nvidia. تدعي شركة Micron أن جهاز HBM3E الخاص بها يستهلك طاقة أقل بنسبة 30% من منافسيها، مما يجعلها مثالية لتطبيقات الذكاء الاصطناعي التوليدية.
على الرغم من فقدان أغلى بطاقة AI من Nvidia، فإن ذاكرة Samsung HBM3E 12H بسعة 36 جيجابايت تتفوق على ذاكرة Micron بسعة 24 جيجابايت 8H HBM3E من حيث السعة وعرض النطاق الترددي. مع استمرار نمو تطبيقات الذكاء الاصطناعي، سيكون 12H HBM3E من سامسونج خيارًا واضحًا للأنظمة المستقبلية التي تتطلب المزيد من الذاكرة، مثل Nvidia’s B100 Blackwell AI powerhouse الذي من المتوقع أن يصل بحلول نهاية هذا العام.
وقد بدأت سامسونج بالفعل في أخذ عينات من HBM3E 12H سعة 36 جيجا بايت للعملاء، ومن المتوقع أن يبدأ الإنتاج الضخم في النصف الأول من هذا العام. من المقرر أن تبدأ شركة Micron في شحن HBM3E سعة 24 جيجابايت 8H في الربع الثاني من عام 2024. ومن المتوقع أن تشتد المنافسة بين عملاقي التكنولوجيا في سوق HBM مع استمرار ارتفاع الطلب على حلول الذاكرة عالية السعة في عصر الذكاء الاصطناعي.