إنفيديا تكشف عن وحدة معالجة الرسوميات H100 لمهام الذكاء الاصطناعي والتي تتضمن 80 مليار ترانزستور 

إضافة إلى العمل على بناء أسرع حاسوب خارق في العالم

565

أعلنت شركة إنفيديا Nvidia عن مجموعة كبيرة من المنتجات المخصصة للمؤسسات التي تركز على الذكاء الاصطناعي في مؤتمرها السنوي GTC.

وهي تشمل الكشف عن تفاصيل معمارية السيليكون الجديدة الخاصة بها والتي تحمل الاسم هوبر Hopper، إضافة إلى أول وحدة معالجة رسومات مخصصة لمراكز البيانات تم إنشاؤها باستخدام هذه البنية، وتحمل الاسم H100 .

كما وأعلنت عن وحدة المعالجة المركزية الجديدة Grace، وخطط مستقبلية لبناء ما تدعي الشركة أنه سيكون أسرع كمبيوتر عملاق للذكاء الاصطناعي في العالم، وسيحمل الاسم Eos.

لقد استفادت Nvidia بشكل كبير من طفرة الذكاء الاصطناعي في العقد الماضي، حيث أثبتت وحدات معالجة الرسومات الخاصة بها أنها تطابق تماماً أساليب التعلم العميق الشائعة كثيفة البيانات.

ومع نمو طلب قطاع الذكاء الاصطناعي على حوسبة البيانات، كما تقول Nvidia، فإنها تريد توفير المزيد من القوة لهذا القطاع.

وعلى وجه الخصوص أكدت الشركة على شعبية نوع من نظام التعلم الآلي المعروف باسم Transformer.

يعتبر هذه النوع مفيد للغاية بشكل لا يصدق، حيث قامت بتشغيل كل شيء بدءاً من النماذج اللغوية مثل GPT-3 من OpenAI إلى الأنظمة الطبية مثل DeepMind’s AlphaFold.

وقال مدير إدارة المنتجات في Nvidia، في مؤتمر صحفي أن تدريب مثل هذه النماذج العملاقة يستغرق شهوراً.

كما اعتبر أن إحدى التحديات الرئيسية لتقليل وقت التدريب تتمحور في أن مكاسب الأداء تبدأ في الانخفاض مع زيادة عدد وحدات معالجة الرسومات في مركز البيانات.

واعتبرت الشركة أن معمارية هوبر Hopper الجديدة سيساعد في تخفيف هذه التحديات.

حيث تم تسميتها على اسم عالم الكمبيوتر الرائد والأدميرال البحري الأمريكي جريس هوبر، وقد تخصص التصميم لتسريع تدريب طرز Transformer على وحدات معالجة الرسومات H100 بمقدار ستة أضعاف مقارنة بشرائح الجيل السابق.

تحتوي وحدة معالجة الرسومات H100 نفسها على 80 مليار ترانزستور وهي أول وحدة معالجة رسومات تدعم PCle Gen5 وتستخدم HBM3، مما يتيح عرض نطاق ذاكرة يبلغ 3 تيرابايت / ثانية.

تقول Nvidia إن وحدة معالجة الرسومات H100 أسرع بثلاث مرات من الجيل السابق A100 في حوسبة FP16 و FP32 و FP64، وست مرات أسرع في حساب الفاصلة العائمة 8 بت.

أعلنت الشركة أيضاً عن وحدة معالجة مركزية جديدة للبيانات، وهي Grace CPU Superchip، والتي تتكون من وحدتي CPU متصلتين مباشرة عبر NVLink-C2C بزمن وصول منخفض جديد.

وحدة المعالجة المركزية Grace CPU Superchip

وتمّ تصميم الشريحة “لخدمة تطبيقات HPC و AI على نطاق واسع جنباً إلى جنب مع وحدات معالجة الرسومات الجديدة المستندة إلى Hopper، ويمكن استخدامها لأنظمة وحدة المعالجة المركزية فقط أو الخوادم المسرَّعة بواسطة وحدة معالجة الرسومات.

تحتوي هذه الوحدة على 144 نواة ذراع و 1 تيرابايت / ثانية من عرض النطاق الترددي للذاكرة.

بالإضافة إلى أخبار الأجهزة والبنية التحتية، فقد أعلنت الشركة أيضاً عن تحديث خدمات برامج الذكاء الاصطناعي المختلفة الخاصة بها، بما في ذلك Maxine وذلك لتقديم تحسينات في الصوت والفيديو.

حيث تهدف إلى تشغيل أشياء مثل الصور الرمزية الافتراضية وبرمجية Riva التي تستخدم للتعرف على الكلام وتحويل النص إلى كلام.

أخيراً فقد سلطت الشركة الضوء أيضاً على بناء حاسوب عملاق جديد يعمل بالذكاء الاصطناعي، والذي تدعي أنه سيكون الأسرع في العالم عند نشره.

سيتم بناء الكمبيوتر العملاق، المسمى Eos، باستخدام بنية Hopper ويحتوي على حوالي 4600 وحدة معالجة رسومات H100 لتقديم 18.4 exaflops من أداء الذكاء الاصطناعي.

وسيتم استخدام النظام في البحث الداخلي لشركة Nvidia فقط، وقالت الشركة إنه سيكون متاحًا على الإنترنت في غضون بضعة أشهر.

مقالات قد تعجبك

واتساب تطرح ميزة ردود الفعل التعبيرية على التطبيق التجريبي في أندرويد
إنستغرام ستتيح لجميع المستخدمين تمييز المنتجات التجارية في منشوراتهم من خلال وضع علامة
ريلمي تكشف عن هاتف GT Neo3 المتميز بسرعة شحن 150 واط
كيفية إلغاء اشتراك نتفليكس Netflix
لماذا ترتفع أسعار خدمات البث التلفازي مثل نتفليكس Netflix؟
ما فائدة تطبيقات أندرويد الخفيفة Lite؟ وما أفضلها؟

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept