- الحوسبة›
- Amazon EC2›
- كُتَل السعة
Amazon EC2 Capacity Blocks for ML
احجز مثيلات الحوسبة المسرّعة في Amazon EC2 UltraClusters لتشغيل أحمال عمل تعلم الآلة (ML)
ما سبب أهمية EC2 Capacity Blocks for ML؟
باستخدام كتل سعة Amazon Elastic Compute Cloud (Amazon EC2) للتعلم الآلي، يمكنك بسهولة حجز مثيلات الحوسبة المسرّعة لتاريخ بدء مستقبلي. تدعم كتل السعة مثيلات Amazon EC2 P6e-GB200 وP6-B200 وP5eN وP5e وP5 وP4d ، والتي يتم تسريعها بواسطة أحدث وحدات معالجة الرسومات NVIDIA Blackwell ووحدات معالجة الرسومات NVIDIA H200 Tensor Core ووحدات معالجة الرسومات NVIDIA A100 Tensor Core، على التوالي، بالإضافة إلى مثيلات Trn2 وTrn1 المدعومة من AWS Trainium. يتم تجميع كتل سعة EC2 في مجموعات Amazon EC2 UltraClusters المصممة لأحمال عمل التعلم الآلي عالية الأداء (ML). يمكنك حجز مثيلات الحوسبة المسرّعة لمدة تصل إلى ستة أشهر بأحجام مجموعات من واحد إلى 64 مثيلاً (512 وحدة معالجة رسومات «GPUs» أو 1024 رقائق Trainium)، مما يمنحك المرونة لتشغيل مجموعة واسعة من أحمال عمل تعلم الآلة (ML). يمكن حجز كتل سعة EC2 Capacity Blocks حتى ثمانية أسابيع مقدمًا.
الفوائد
خطط لتطوير تعلم الآلة (ML) بثقة من خلال ضمان السعة المتاحة في المستقبل لمثيلات الحوسبة المُسرَّعة.
احصل على اتصال شبكة بمعدل نقل عالي وزمن انتقال منخفض من خلال تحديد الموقع المشترك في Amazon EC2 UltraClusters للتدريب الموزع.
احصل على وصول يمكن التنبؤ به إلى مثيلات الحوسبة المُسرَّعة ذات أعلى أداء في Amazon EC2 لتعلم الآلة.
حالات الاستخدام
احصل على وصول غير منقطع إلى مثيلات الحوسبة المُسرَّعة التي تحجزها لإكمال التدريب على نموذج ML والضبط الدقيق.
بدعم من Capacity Blocks، تساعدك خطط التدريب المرنة Amazon SageMaker HyperPod على تلبية الجداول الزمنية للتدريب والميزانيات النموذجية عن طريق حجز مهام التدريب وتشغيلها تلقائيًا عبر مجموعات متعددة من سعة الحوسبة بناءً على متطلبات التدريب.
قم بإجراء التجارب وإنشاء نماذج أولية تتطلب مثيلات الحوسبة المُسرَّعة لفترات قصيرة.
قم بتلبية احتياجات النمو الخاصة بك عن طريق حجز الكمية المناسبة من السعة لخدمة عملائك.
NVIDIA
«يزداد الطلب على الحوسبة المتسارعة بشكل كبير حيث تتبنى الشركات في جميع أنحاء العالم الذكاء الاصطناعي التوليدي لإعادة تشكيل أعمالها. باستخدام وحدات سعة EC2 الجديدة للتعلم الآلي من AWS، يمكن لشركات الذكاء الاصطناعي في العالم الآن استئجار H100 ليس فقط خادمًا واحدًا في كل مرة ولكن على نطاق مخصص متاح بشكل فريد على AWS - مما يتيح لها تدريب نماذج اللغات الكبيرة بسرعة وفعالية من حيث التكلفة وتشغيل الاستدلال في السحابة عندما يحتاجون إليه بالضبط. «
إيان باك، نائب رئيس الحوسبة عالية الأداء، NVIDIA
آرسي
«توفر Arcee منصة ذكاء اصطناعي تتيح تطوير وتطوير ما نصنفه باسم SLMS - نماذج لغوية صغيرة ومتخصصة وآمنة وقابلة للتطوير. تعد كُتَل سعة Amazon EC2 Capacity Blocks for ML جزءًا مهمًا من حوسبة ML لتدريب نماذج SLMs على AWS لأنها توفر لنا وصولاً موثوقًا إلى سعة وحدة معالجة الرسومات (GPU) عندما نحتاج إليها. وهذا بدوره يعني استفادة كل من فريقنا الداخلي وعملائنا من المرونة. إن معرفة أننا نستطيع الحصول على مجموعة من وحدات معالجة الرسومات في غضون يومين وبدون التزام طويل الأجل قد غيرت قواعد اللعبة بالنسبة لنا. «
Mark McQuade، الرئيس التنفيذي والمؤسس المشارك (CEO and Co-Founder) لشركة Arcee
شركاء Amplify
«لقد عقدنا شراكة مع العديد من المؤسسين الذين يستفيدون من التعلم العميق ونماذج اللغات الكبيرة لتقديم ابتكارات رائدة إلى السوق. نعتقد أن الوصول الذي يمكن التنبؤ به وفي الوقت المناسب إلى سعة حوسبة GPU أمر أساسي لتمكين المؤسسين ليس فقط من إحياء أفكارهم بسرعة ولكن أيضًا الاستمرار في تكرار رؤيتهم وتقديم قيمة متزايدة لعملائهم. يعد توفر ما يصل إلى 512 وحدة معالجة رسومات NVIDIA H100 GPUs عبر كُتَل سعة EC2 Capacity Blocks بمثابة تغيير لقواعد اللعبة في البيئة الحالية المقيدة بالعرض، حيث نعتقد أنها ستزود الشركات الناشئة بسعة حوسبة GPU التي تحتاجها، عندما تحتاج إليها، دون تقديم التزامات رأسمالية طويلة الأجل. نتطلع إلى دعم المؤسسين الذين يعتمدون على AWS من خلال الاستفادة من كتل سعة وحدة معالجة الرسومات ومحفظتها الرائدة في الصناعة للتعلم الآلي وخدمات الذكاء الاصطناعي التوليدية. «
Mark LaRosa، الشريك التشغيلي (Operating Partner) لـ Amplify Partners
Canva
«اليوم، تعمل Canva على تمكين أكثر من 150 مليون مستخدم نشط شهريًا لإنشاء أصول مرئية جذابة يمكن نشرها في أي مكان. لقد استخدمنا مثيلات EC2 P4de لتدريب النماذج متعددة الوسائط التي تعمل على تشغيل أدوات الذكاء الاصطناعي المولّد الجديدة، مما يسمح لمستخدمينا بتجربة الأفكار بحرية وسرعة. بينما نتطلع إلى تدريب نماذج أكبر، نحتاج إلى القدرة على توسيع نطاق مئات وحدات معالجة الرسومات بشكل متوقع أثناء جولاتنا التدريبية. من المثير رؤية AWS تطلق كتل سعة EC2 Capacity Blocks مع دعم مثيلات P5. يمكننا الآن الحصول على وصول يمكن التنبؤ به إلى ما يصل إلى 512 وحدة معالجة رسومات NVIDIA H100 في EC2 UltraClusters بزمن انتقال منخفض لتدريب نماذج أكبر من ذي قبل. '
Greg Roodt، رئيس منصات البيانات (Head of Data Platforms)، في Canva
داشتون
«تمزج Dashtoon بين الذكاء الاصطناعي المتطور والإبداع لتحويل رواة القصص إلى فنانين يمكنهم إنشاء رسوم هزلية رقمية بغض النظر عن مهاراتهم الفنية أو معرفتهم التقنية، وكسر الحواجز التقليدية في إنشاء المحتوى المصور. لدينا أكثر من 80 ألف مستخدم نشط شهريًا (MAUs) يستخدمون تطبيقنا لاستهلاك القصص المصورة، بينما ينتج منشئونا أكثر من 100 ألف صورة يوميًا على Dashtoon Studio. نحن نستخدم AWS منذ البداية، ونستخدم مثيلات Amazon EC2 P5 لتدريب النماذج متعددة الوسائط وضبطها بدقة، بما في ذلك Stable Diffusion XL وGroundingDINO وSegment Anything. لقد شهدنا تحسنًا في الأداء بمقدار 3 أضعاف أثناء استخدام مثيلات P5، المدعومة بوحدات معالجة الرسومات NVIDIA H100 GPUs، مقارنة باستخدام مثيلات P4d المكافئة، المدعومة بوحدات معالجة الرسومات NVIDIA A100 GPUs. تختلف مجموعات بيانات التدريب الخاصة بنا من حيث الحجم، وبينما نتطلع إلى توسيع نطاق التدريب النموذجي لدينا، تتيح لنا كُتَل السعة Amazon EC2 Capacity Blocks for ML التحلي بالمرونة في تلبية احتياجات وحدة معالجة الرسومات (GPU) الخاصة بنا مع فترات زمنية منخفضة يمكن التنبؤ بها (في أقرب وقت في اليوم التالي)، مما يساعدنا على تقليل الوقت لإطلاق قدرات جديدة لمستخدمينا. نحن متحمسون لمواصلة الاستفادة من كتل سعة EC2 لتسريع ابتكاراتنا. «
Soumyadeep Mukherjee، المؤسس المشارك والرئيس التنفيذي للتكنولوجيا (Co-Founder and Chief Technology Officer) في Dashtoon
Leonardo.Ai
«يستفيد فريقنا في Leonardo من الذكاء الاصطناعي التوليدي لتمكين المحترفين المبدعين والمتحمسين من إنتاج أصول مرئية بجودة وسرعة واتساق لا مثيل لها في الأسلوب. يعتمد أساسنا على مجموعة من نماذج الذكاء الاصطناعي التي تم ضبطها بدقة والأدوات القوية، مما يوفر تحكمًا دقيقًا قبل وبعد بدء التشغيل. نحن نستفيد من مجموعة واسعة من خدمات AWS ليس فقط لبناء نماذجنا وتدريبها، ولكن أيضًا لاستضافتها لدعم الاستخدام من ملايين العملاء النشطين شهريًا. نحن سعداء بإطلاق كتل سعة EC2 لتعلم الآلة (ML). إنها تمكننا من الوصول بمرونة إلى سعة وحدة معالجة الرسومات للتدريب والتجريب مع الحفاظ على خيار التبديل إلى مثيلات EC2 المختلفة التي قد تلبي متطلبات الحوسبة لدينا بشكل أفضل. «
Peter Runham، المدير التنفيذي (CTO) لشركة Leonardo.Ai
أوكتوأي
«في OctoAI، نقوم بتمكين منشئي التطبيقات من تشغيل الذكاء الاصطناعي التوليدي وضبطه وتوسيع نطاقه بسهولة، وتحسين تنفيذ النماذج واستخدام الأتمتة لتوسيع نطاق خدماتهم وتقليل العبء الهندسي. تعد قدرتنا على زيادة سعة وحدة معالجة الرسومات لفترات قصيرة أمرًا بالغ الأهمية، خاصة وأننا نعمل مع العملاء الذين يسعون إلى توسيع نطاق تطبيقات ML الخاصة بهم بسرعة من صفر إلى ملايين المستخدمين كجزء من إطلاق منتجاتهم. تتيح لنا كتل سعة EC2 لـ ML إمكانية تدوير أحجام مختلفة من مجموعات وحدات معالجة الرسومات التي تتوافق مع عمليات التوسعة المخطط لها لعملائنا، مع توفير وفورات محتملة في التكاليف مقارنة بالتزامات السعة طويلة الأجل أو النشر في الموقع. «
Luis Ceze، الرئيس التنفيذي (CEO) لشركة OctoAI
سنوركل
«تساعد منصة تطوير بيانات الذكاء الاصطناعي من Snorkel الشركات على إنشاء واستخدام الذكاء الاصطناعي بسرعة. وبشكل متزايد، يتضمن ذلك استخلاص المعلومات من نماذج LLMs كثيفة الحوسبة إلى نماذج متخصصة أصغر، مما يتطلب دفعات قصيرة المدى من الحوسبة أثناء التطوير. تتمتع كتل سعة EC2 Capacity Blocks for ML بالقدرة على تقديم تحسين كبير على الخيارات الحالية للحصول على سعة GPU. يعد الوصول المضمون إلى سعة GPU قصيرة المدى والأداء الشبكي العالي لـ EC2 UltraClusters من عوامل التمكين الحاسمة لسير عمل تطوير الذكاء الاصطناعي الذي تحتاج الشركات إلى دعمه اليوم وفي السنوات القادمة. «
Braden Hancock، المؤسس المشارك ورئيس قسم التكنولوجيا (Co-Founder and Head of Technology) في Snorkel