ارتق بقدراتك الذكاء الاصطناعي باستخدام رقائق AWS المتطورة وشراكة Nvidia

ارتق بقدراتك الذكاء الاصطناعي باستخدام رقائق AWS المتطورة وشراكة Nvidia

الامازون كشفت خدمات الويب (AWS) النقاب عن أحدث عروضها في مجال الذكاء الاصطناعي (الذكاء الاصطناعي) مع إدخال شرائح جديدة مصممة لتطوير وتنفيذ تطبيقات الذكاء الاصطناعي. بالإضافة إلى ذلك ، تم تعيين AWS لتوفير الوصول إلى شرائح Nvidia المتطورة ، مما يزيد من توسيع مجموعة خدماتها.

في خطوة استراتيجية لوضع نفسها كمزود سحابي تنافسي، لا تقصر AWS عروضها على المنتجات الداخلية. وعلى غرار سوق البيع بالتجزئة المتنوع عبر الإنترنت، ستعرض AWS منتجات من الدرجة الأولى من بائعين مشهورين، بما في ذلك وحدات معالجة الرسومات (GPUs) المرغوبة من شركة Nvidia الرائدة في تصنيع شرائح الذكاء الاصطناعي.

ارتفع الطلب على وحدات معالجة الرسومات Nvidia ، لا سيما منذ إطلاق روبوت الدردشة ChatGPT من OpenAI ، والذي جذب الانتباه لقدرته الرائعة على تلخيص المعلومات وإنشاء نص يشبه الإنسان. أدت هذه الزيادة في الطلب إلى نقص في رقائق Nvidia حيث سارعت الشركات إلى دمج تقنيات الذكاء الاصطناعي التوليدية المماثلة في منتجاتها.

لتلبية هذا الطلب والتنافس مع منافس الحوسبة السحابية الرئيسي Microsoft ، تبنت AWS استراتيجية مزدوجة لتطوير رقائقها الخاصة مع تزويد العملاء أيضا بإمكانية الوصول إلى أحدث شرائح Nvidia. كانت Microsoft قد كشفت سابقا عن شريحة الذكاء الاصطناعي الافتتاحية ، Maia 100 ، وأعلنت عن خطط لدمج وحدات معالجة الرسومات Nvidia H200 في سحابة Azure.

تم الإعلان عن هذه الإعلانات في مؤتمر Reinvent في لاس فيجاس ، حيث كشفت AWS عن نيتها توفير الوصول إلى أحدث وحدات معالجة الرسومات H200 الذكاء الاصطناعي من Nvidia. بالإضافة إلى ذلك، طرحت AWS شريحة Trainium2 الذكاء الاصطناعي الجديدة ومعالج Graviton4 متعدد الاستخدامات.

تتفوق وحدة معالجة الرسومات Nvidia التي تمت ترقيتها ، H200 ، على سابقتها ، H100 ، والتي استخدمتها OpenAI لتدريب نموذج اللغة المتقدم ، GPT-4. دفع الطلب المرتفع على هذه الرقائق الشركات الكبرى والشركات الناشئة والوكالات الحكومية إلى البحث عن مزودي الخدمات السحابية مثل AWS لتأجير الرقائق.

تدعي Nvidia أن H200 ستوفر إنتاجا أسرع مرتين تقريبا من H100.

تم تصميم شرائح Trainium2 من AWS خصيصا لتدريب نماذج الذكاء الاصطناعي ، بما في ذلك تلك المستخدمة من قبل الذكاء الاصطناعي روبوتات محادثة مثل ChatGPT من OpenAI. تخطط الشركات الناشئة مثل Databricks و Anthropic المدعومة من Amazon للاستفادة من الأداء المحسن لرقائق Trainium2 ، والتي تعد بأداء أفضل بأربع مرات من النموذج الأصلي.

توفر معالجات Graviton4 ، المستندة إلى بنية Arm ، كفاءة في استخدام الطاقة مقارنة بشرائح Intel أو AMD . تؤكد AWS أن Graviton4 يوفر أداء أفضل بنسبة 30٪ من شرائح Graviton3 الحالية، مما يوفر مخرجات محسنة بسعر تنافسي. يستخدم أكثر من 50,000 عميل من عملاء AWS بالفعل شرائح Graviton.

كجزء من تعاونها الموسع مع Nvidia ، أعلنت AWS عن تشغيل أكثر من 16000 شريحة Nvidia GH200 Grace Hopper Superchips. تدمج هذه الرقائق الفائقة وحدات معالجة الرسومات Nvidia والمعالجات للأغراض العامة المستندة إلى Arm ، مما يوفر لكل من مجموعة البحث والتطوير في Nvidia وعملاء AWS إمكانات بنية تحتية محسنة.

منذ إنشائها في عام 2006، أطلقت AWS أكثر من 200 منتج سحابي. على الرغم من أن جميعها لم تحقق نجاحا واسع النطاق ، إلا أن AWS تواصل الاستثمار في برامج Graviton و Trainium ، مما يشير إلى الاعتراف بالطلب المستمر.

بينما لم يتم الكشف عن تواريخ إصدار مثيلات الجهاز الظاهري مع شرائح Nvidia H200 والمثيلات التي تعتمد على سيليكون Trainium2 ، يمكن للعملاء البدء في اختبار مثيلات Graviton4 للآلة الافتراضية مع توقع التوافر التجاري في الأشهر المقبلة.

Related Posts