مثيلات Amazon EC2 Inf1

أداء عالٍ وتكلفة أقل لعمليات استدلال تعلم الآلة في السحابة

يتجه العملاء في مختلف القطاعات إلى تعلم الآلة من أجل التعامل مع حالات الاستخدام مثل تقديم توصيات التسوق المخصصة، وتحسين المحتوى الوارد عبر الإنترنت، وتحسين تفاعل العملاء مع برامج الدردشة الآلية chatbots. وعلى الرغم من أن نماذج تعلم الآلة أصبحت أكثر قدرة إلاّ أنها أصبحت أكثر تعقيدًا. يؤدي هذا الأمر إلى زيادة الحاجة إلى الحوسبة مما يؤدي إلى زيادة التكاليف. وفي بعض الحالات، هناك ما يصل إلى 90% من إنفاق البنية التحتية لتطوير تطبيق ML وتشغيله في الاستدلال، مما يجعل الحاجة إلى البنية التحتية لاستدلال ML عالي الأداء وذي تكلفة فعّالة أمرًا بالغ الأهمية.

توفر مثيلات Amazon EC2 Inf1 إنتاجية أعلى بنسبة تصل إلى 30٪ وتكلفة أقل لكل استنتاج بنسبة تصل إلى 45٪ عن مثيلات Amazon EC2 G4، والتي كانت بالفعل أقل تكلفة لاستدلال تعلم الآلة في السحابة. صُمِّمت مثيلات Inf1 من الألف إلى الياء لدعم تطبيقات استدلال تعلم الآلة. تأتي هذه المثيلات بما يصل إلى 16 رقاقة من نوع AWS Inferentia، وهي رقاقات من تصميم وإنشاء AWS تتميز بالأداء العالي ومخصصة لإجراء عمليات استدلال تعلم الآلة. إضافةً إلى ذلك، تتضمن مثيلات Inf1 بأحدث معالجات Intel® Xeon® المخصصة القابلة للتوسيع من الجيل الثاني، فضلاً عما يصل إلى 100 جيجابت في الثانية من الاتصال الشبكي لتمكين إنشاء استدلال في معدل نقل عالٍ. باستخدام مثيلات Inf1، يستطيع العملاء تشغيل تطبيقات عمليات استدلال تعلم الآلة على نطاق واسع، مثل تطبيقات توصيات البحث والرؤية الحاسوبية والتعرف على الكلام ومعالجة اللغة الطبيعية وإضفاء الطابع الشخصي واكتشاف العمليات الاحتيالية، وكل ذلك مقابل أقل تكلفة في السحابة.

يمكن للمطورين نشر نماذج تعلم الآلة الخاصة بهم في مثيلات Inf1 باستخدام حزمة تطوير برامج (SDK) الخاصة بـ AWS Neuro، والتي تتكامل مع أطر عمل شهيرة لتعلم الآلة مثل TensorFlow وPyTorch وMXNet. تتكون من محول برمجي، ووقت التشغيل، وأدوات جمع المعلومات لتحسين أداء الاستدلال علىAWS Inferentia. الطريقة الأسهل والأسرع لبدء استخدام مثيلات Inf1 هي عبر Amazon SageMaker، وهي خدمة مُدارة بشكل كامل، تمكّن المطورين من بناء نماذج تعلم الآلة وتعلمها ونشرها على نحو سريع. يمكن للمطورين الذين يفضلون إدارة منصات تطوير تطبيقات تعلم الآلة الخاصة بهم البدء إما بإطلاق مثيلات Inf1 مع AWS Deep Learning AMIs، والتي تتضمن Neuron SDK، أو استخدام مثيلات Inf1 عبر خدمة Amazon Elastic Kubernetes (EKS) أو خدمة Amazon Elastic Container (ECS) لتشغيل تطبيقات ML الحاوية.

SiteMerch-EC2-Instances_accelerated-trial_2up

إصدار مجاني: يصل إلى 10000 USD من أرصدة AWS لمثيلات أجهزة EC2 المتسارعة، مثالي لتطبيقات ML وHPC وGraphics.

انقر هنا للتطبيق 
مثيلات Inf1 من Amazon EC2 وفقاً لـ AWS Inferentia (2:51)

الفوائد

تكلفة أقل بمقدار 45% لكل استدلال

إن معدل الانتقال العالي لمثيلات Inf1 يتيح إجراء كل عملية استدلال في السحابة مقابل أقل تكلفة، حيث يجعل تكلفة كل استدلال أقل بنسبة تصل إلى 45% بالمقارنة مع مثيلات Amazon EC2 G4، والتي بالفعل كانت المثيلات الأقل تكلفة لإجراء استدلالات تعلم الآلة في السحابة. وبما أن عمليات استدلال تعلم الآلة تمثل ما يصل إلى 90% من إجمالي التكاليف التشغيلية المطلوبة لتشغيل أعباء العمل الخاصة بتعلم الآلة، فإن هذا يؤدي إلى تحقيق وفورات كبيرة.

توفر إنتاجية أعلى بمقدار 30%

تحقق مثيلات Inf1 معدل انتقال أعلى مع تطبيقات الاستدلال الجماعية، حيث أصبح معدل الانتقال أعلى بمقدار 30% بالمقارنة مع مثيلات Amazon EC2 G4. وتعد تطبيقات الاستدلال الجماعية، مثل عمليات الإشارة في الصور، حساسةً لمعدل انتقال الاستدلال أو عدد الاستدلالات التي تمكن معالجتها في الثانية الواحدة. تم تحسين مثيلات Inf1 لتوفير أداء عالٍ للدفعات الصغيرة، وهو أمر بالغ الأهمية للتطبيقات التي تتطلب وقت استجابة شديدًا. تستطيع مثيلات Inf1، بوجود 1 إلى 16 رقاقة AWS Inferentia لكل مثيل، الرفع من مستوى الأداء بمعدل يصل إلى 2000 تيرا من العمليات في الثانية الواحدة (TOPS).

زمن انتقال منخفض للغاية

توفر مثيلات Inf1 زمن انتقال منخفضًا للتطبيقات في الوقت الفعلي. وتحتاج التطبيقات الاستدلالية التي تعمل في الوقت الفعلي، مثل تطبيقات التعرف على الكلام والبحث، إلى إنشاء الاستدلالات بالاستجابة سريعًا إلى ما يدخله المستخدم، كما تعد هذه التطبيقات حساسة لزمن انتقال الاستدلال. كما أن الذاكرة الكبيرة المتوفرة على رقاقات AWS Inferentia المستخدمة في مثيلات Inf1، تتيح إمكانية تخزين نماذج تعلم الآلة مؤقتًا على الرقاقة بشكل مباشر. يحد هذا من الحاجة إلى الوصول إلى موارد الذاكرة الخارجية في أثناء عملية الاستدلال، ما يحقق زمن انتقال منخفضًا من دون التأثير في النطاق الترددي.

استدلال تعلم الآلة لمجموعة واسعة من حالات الاستخدام

يمكن للمطورين الاستفادة من الأداء العالي، وانخفاض في زمن وصول الرسالة، والاستدلال المنخفض التكلفة مع مثيلات Inf1 لمجموعة واسعة من تطبيقات تعلم الآلة القابلة للتطبيق عبر قطاعات أعمال متنوعة بما في ذلك تحليل الصور والفيديو، ووكلاء المحادثة، وكشف الاحتيال، والتنبؤ المالي، وأتمتة الرعاية الصحية، ومحركات التوصية، وتحليلات النص والنسخ.

سهولة الاستخدام وإمكانية التعليمات البرمجية

نظرًا لإدماج Neuron SDK مع أطر تعلم الآلة الشائعة مثل TensorFlow وPyTorch، يمكن للمطورين نشر نماذجهم الحالية في مثيلات EC2 Inf1 مع الحد الأدنى من تغييرات التعليمات البرمجية. يمنحهم هذا حرية الاستمرار في استخدام إطار عمل تعلم الآلة من اختيارهم، واختيار النظام الأساسي للحوسبة الذي يلبي متطلبات أداء السعر على أفضل وجه، والاستفادة من أحدث التقنيات دون الارتباط بمكتبات البرامج الخاصة بالبائع.

دعم لمختلف نماذج تعلم الآلة وأنواع بياناتها

تستخدم مثيلات Inf1 حزمة AWS Neuron، وتدعم الكثير من نماذج تعلم الآلة شائعة الاستخدام، مثل أداة التحقق من اللقطات المفردة (SSD) وResNet للتعرف على الصور وتصنيفها، فضلاً عن Transformer وBERT لمعالجة اللغة الطبيعية وترجمتها. تكون أنواع البيانات المتعددة، بما في ذلك INT8 وBF16 وFP16 بدقة مختلطة؛ مدعومة أيضًا من أجل دعم مجموعة واسعة من النماذج واحتياجات الأداء.

الميزات

يتم دعمها من AWS Inferentia

AWS Inferentia هي عبارة عن رقاقة عمليات استدلال تعلم الآلة، وقد صممتها وطورتها AWS لتقديم أداء عالٍ مقابل تكلفة منخفضة. توفر كل شريحة AWS Inferentia ما يصل إلى 128 TOPS (تريليونات من العمليات في الثانية) من الأداء، ودعمًا لأنواع بيانات FP16 وBF16 وINT8. تتميز رقاقات AWS Inferentia بكم كبير من ذاكرة الرقاقة التي يمكن استخدامها للتخزين المؤقت لنماذج كبيرة، التي تعد مفيدة بوجه خاص للنماذج التي تتطلب الوصول المتكرر للذاكرة.

تتكون حزمة تطوير برامج AWS Neuron من أدوات محول برمجي ووقت التشغيل وأدوات جمع المعلومات. وتمكّن من تنفيذ نماذج الشبكات العصبية المعقدة التي يتم تطويرها وتدريبها في أطر عمل شهيرة مثل Tensorflow وPyTorch وMXNet باستخدام مثيلاتInf1. تدعم AWS Neuron أيضًا القدرة على تقسيم النماذج الكبيرة للتنفيذ عبر رقاقات Inferentia متعددة باستخدام الربط البيني الفعلي عالي السرعة بين الرقائق، لتوفير معدل انتقال للاستدلال عالٍ مقابل تكلفة منخفضة.

اتصال شبكي وتخزين عاليا الأداء

توفر مثيلات Inf1 ما يصل إلى 100 جيجابت في الثانية من معدل نقل الشبكة للتطبيقات التي تتطلب الوصول إلى الشبكات عالية السرعة. يوفر الجيل التالي من تقنيةElastic Network Adapter (ENA) وNVM Express (NVMe) مثيلات Inf1 التي تتسم بإنتاجية عالية وواجهات منخفضة التأخر للاتصالات الشبكية وAmazon Elastic Block Store (Amazon EBS).

مصمم وفق نظام AWS Nitro

نظام AWS Nitro هو مجموعة غنية من كتل الإنشاء التي تقوم بتفريغ العديد من الوظائف الافتراضية التقليدية في الجهاز المخصص والبرنامج المخصص لتقديم أداءٍ عالٍ والتوافر بدرجة عالية وحماية عالية بينما تعمل أيضًا على خفض النفقات الافتراضية.

كيفية العمل

كيفية استخدام Inf1 وAWS Inferentia

شهادات العملاء

SkyWatch
«نحن ندمج تعلم الآلة (ML) في جوانب عديدة في Snapchat، ويُعد استكشاف الابتكارات في هذا المجال أولوية قصوى. وما أن سمعنا بـ Inferentia بدأنا في التعاون مع AWS لتبني مثيلات Inf1/Inferentia لتساعدنا في نشر ML بما يشمل الأداء والتكلفة. بدأنا بنماذج التوصية الخاصة بنا، ونتطلع لتبني المزيد من النماذج باستخدام مثيلات Inf1 في المستقبل».

نيما خاجهنوري، نائب مدير الهندسة بشركة Snap Inc.

Anthem
تُعد Anthem إحدى أكبر شركات الإعانات الصحية في البلاد، بما تقدمه من احتياجات الرعاية الصحية لأكثر من 40 مليون عضو في عشرات الولايات. «يشهد سوق المنصات الصحية الرقمية نموًا بوتيرة ملحوظة. ويعد جمع المعلومات حول هذا السوق مهمة صعبة بسبب الكم الهائل لبيانات آراء العملاء وطبيعتها غير المنظمة. يقوم تطبيقنا بأتمتة إنشاء رؤى قابلة للتنفيذ من آراء العملاء عبر نماذج لغة طبيعية من التعلم العميق (المحولات). يتميز تطبيقنا بأنه كثيف حوسبيًا ويحتاج لنشره بطريقة عالية الأداء. ونحن ننشر أعباء عمل استدلال التعلم العميق بسلاسة على مثيلات Amazon EC2 Inf1 المشغّلة بواسطة معالج AWS Inferentia. توفر مثيلات Inf1 الجديدة معدل انتقال مضاعف إلى مثيلات مستندة إلى GPU كما سمحت لنا بتبسيط أعباء عمل الاستدلال لدينا».

نومان لانايت، حاصل على دكتوراه في الفلسفة، عالم رئيسي في مجال الذكاء الاصطناعي (AI)/البيانات وميرو ميهايلوف، حاصل على دكتوراه في الفلسفة، عالم رئيسي في مجال الذكاء الاصطناعي (AI)/البيانات

Anthem
«يقوم Autodesk بتطوير التكنولوجيا الإدراكية للمساعد الافتراضي المشغّل عن طريق الذكاء الاصطناعي، Autodesk Virtual Agent (AVA)، باستخدام Inferentia. يجيب AVA على أكثر من 100000 سؤال من العملاء في الشهر عن طريق تطبيق أساليب فهم اللغة الطبيعية (NLU) والتعلم العميق لاستخراج السياق والقصد والمعنى وراء الاستفسارات. وبتجربة Inferentia، استطعنا الحصول على معدل انتقال أعلى بنسبة 4.9 من G4dn لنماذج NLU الخاصة بنا، ونتطلع لتشغيل المزيد من أعباء العمل على مثيلات Inf1 القائمة على Inferentia».

بينغوي أويانغ، عالم بيانات أول، Autodesk

Condé Nast
«تشمل المجموعة العالمية لشركة Condé Nast ما يزيد عن 20 علامة تجارية رائدة في مجال الإعلام، بما في ذلك Wired وVogue وVanity Fair. في خلال أسابيع قليلة، استطاع فريق عملنا دمج محرك التوصيات الخاص بنا مع رقاقات AWS Inferentia. ويساهم هذا الاتحاد في تمكين إجراء العديد من عمليات تحسين وقت التشغيل لنماذج اللغات الطبيعية الحديثة والمتطورة عبر مثيلات Inf1 من SageMaker. ونتيجة لذلك، لاحظنا انخفاضًا في التكلفة بنسبة 72% عن مثيلات وحدة معالجة الرسوميات التي تم نشرها سابقًا».

بول فرايزل، المهندس الرئيسي، البنية الأساسية للذكاء الاصطناعي (AI)

Asahi Shimbun
«تُعد The Asahi Shimbun واحدة من أكثر الصحف اليومية شعبية في اليابان. تتمثَّل مهام Media Lab، تم تأسيسه بوصفه أحد أقسام شركتنا، في البحث عن أحدث التكنولوجيات، وخاصة الذكاء الاصطناعي (AI)، وتوصيل التكنولوجيات المتطورة للشركات الجديدة. مع إطلاق مثيلات AWS Inferentia المستندة إلى Amazon EC2 Inf1 في طوكيو، وقد اختبرنا تطبيق الذكاء الاصطناعي (AI) لتلخيص النص المستند إلى PyTorch على هذه المثيلات. يعالج هذا التطبيق قدرًا كبيرًا من النصوص ويُنشِئ العناوين وجمل الملخص التي تم تدريبها على مقالات من آخر 30 عامًا. باستخدام Inferentia، خفضنا التكاليف بترتيب من حيث المقدار على المثيلات المستندة إلى وحدة المعالجة المركزية. سيمكننا ذلك التخفيض الكبير في التكاليف من نشر أكثر النماذج تعقيدًا مع قابلية التكيف، والتي اعتقدنا سابقًا أنها ليست مجدية اقتصاديًا»

هيدياكي تاموري، حاصلة على الدكتوراه، كبيرة المسؤولين، Media Lab، شركة The Asahi Shimbun

CS Disco
«CS Disco تُعيد ابتكار التكنولوجيا القانونية باعتبارها شركة موفرة رائدة لحلول الذكاء الاصطناعي (AI) الخاصة بميزة الاكتشاف الإلكتروني التي تم تطويرها من جانب المحامين من أجل المحامين. تعمل خاصية الذكاء الاصطناعي (AI) لدى شركة Disco على تسريع المهمة الصعبة المتمثلة في البحث عبر وحدات التيرابايت من البيانات وتسريع أوقات المراجعة وتحسين دقة المراجعة من خلال الاستفادة من نماذج معالجة اللغات الطبيعية المعقدة، والتي تعد باهظة الثمن حسابيًا وباهظة التكلفة. لقد وجدت Disco أنَّ مثيلات Inf1 القائمة على AWS Inferentia تقلل من تكلفة الاستدلال في خاصية الذكاء الاصطناعي (AI) لدى شركة Disco بنسبة لا تقل عن 35% بالمقارنة مع مثيلات وحدة معالجة الرسوميات الموجودة اليوم. وبناءً على هذه التجربة الإيجابية مع مثيلات Inf1، سوف تقوم CS Disco باكتشاف فرص الترحيل إلى Inferentia».

آلان لوكيت الأب مدير قسم الأبحاث في شركة CS Disco

Talroo
«في Talroo، نوفر لعملائنا منصة قائمة على البيانات تمكنهم من جذب مرشحي الوظائف المميزين، حتى يتمكنوا من تعيينهم. نحن نستكشف باستمرار تكنولوجيات جديدة لضمان تقديم أفضل المنتجات والخدمات إلى عملائنا. باستخدام Inferentia، نستخرج النظرات المتعمقة من مجموعة من البيانات النصية لتحسين تكنولوجيا البحث والمطابقة التي تعمل بالذكاء الاصطناعي (AI). تستخدم Talroo مثيلات Amazon EC2 Inf1 لإنشاء نماذج فهم اللغة الطبيعية ذات معدل النقل المرتفع باستخدام SageMaker. يُظهر الاختبار الأولي من Talroo أن مثيلات Amazon EC2 Inf1 توفر زمن انتقال استدلاليًا أقل بنسبة 40% ومعدل نقل أعلى بمقدار ضعفين مقارنة بالمثيلات المستندة إلى G4dn GPU. استنادًا إلى هذه النتائج، تتطلع Talroo إلى استخدام مثيلات Amazon EC2 Inf1 كجزء من البنية التحتية لـ AWS».

جانيت هو، مهندس برمجيات، Talroo

Digital Media Professionals (DMP)
تقدم Digital Media Professionals (DMP) صورة للمستقبل من خلال منصة ZIA في الوقت الفعلي استنادًا إلى الذكاء الاصطناعي (AI). تُستخدم تقنيات تصنيف الرؤية الحاسوبية الفعّالة من DMP لبناء رؤية على كم كبير من بيانات الصور في الوقت الفعلي، مثل ملاحظة الظروف ومنع الجرائم ومنع الحوادث. ونعمل حاليًا على تقييم مثيلات Inf1 على خيارات بديلة، حيث نؤمن بأن Inferentia ستمنحنا هيكل الأداء والتكلفة الذي نحتاجه لنشر تطبيقات الذكاء الاصطناعي (AI) على نطاق واسع». 

هيرويكوكي يوميدا - رئيس ومدير عام، مجموعة المبيعات والتسويق بشركة Digital Media Professionals

Hotpot.ai
Hotpot.ai تمكّن غير المصممين من إنشاء رسومات جذابة وتساعد المصممين المحترفين على أتمتة المهام المتكررة. «نظرًا لأن تعلم الآلة جزء أساسي في إستراتيجيتنا، فنحن متحمسون لتجربة مثيلات Inf1 المستندة إلى AWS Inferentia. وجدنا أن مثيلات Inf1 سهلة التكامل مع مسار الأبحاث والتطوير لدينا. والأهم من كل هذا، أننا لاحظنا مكاسب مذهلة من حيث الأداء مقارنةً بمثيلات G4dn المستندة إلى GPU. من خلال نموذجنا الأول، قدمت مثيلات Inf1 معدل انتقال أعلى بنسبة 45% وتكلفة أقل لكل مثيل بنسبة 50% تقريبًا. وننوي العمل عن كثب مع فريق AWS لنقل نماذج أخرى وتحويل معظم البنية التحتية الخاصة باستدلال تعلم الآلة لدينا إلى AWS Inferentia».

كلارينس هو، مؤسس Hotpot.ai

INGA
«تتمثل مهمة INGA في إنشاء حلول متقدمة لتلخيص النصوص استنادًا إلى تقنيتي الذكاء الاصطناعي والتعلم العميق التي يمكن دمجهما بسهولة في مسارات الأعمال الحالية. نعتقد أن تلخيص النص سيكون بالغ الأهمية في مساعدة الشركات على استخلاص رؤى ذات مغزى من البيانات. لقد عززنا بسرعة مثيلات Amazon EC2 Inf1 المستندة إلى AWS Inferentia ودمجناها في مجرى سير التطوير لدينا. كان التأثير فوريًا وبارزًا. توفر مثيلات Inf1 أداءً عاليًا، مما يمكننا من تحسين كفاءة وفعالية مجاري سير نموذج الاستدلال. وخارج النطاق، شهدنا إنتاجية أعلى بمقدار 4 أضعاف، وانخفاض تكاليف مجاري سير الأعمال الإجمالية بنسبة 30٪ مقارنةً بمجرى سير الأعمال السابق المستند إلى وحدة معالجة الرسومات. "

ياروسلاف شاكولا، الرئيس التنفيذي لتطوير الأعمال، تقنيات INGA

SkyWatch
"تعالج SkyWatch مئات التريليونات من وحدات البكسل من بيانات رصد الأرض، التي يتم التقاطها من الفضاء يوميًا. كان اعتماد مثيلات Inf1 المستندة إلى AWS Inferentia الجديدة باستخدام Amazon SageMaker لاكتشاف السحابة في الوقت الفعلي وتسجيل جودة الصورة سريعًا وسهلاً. كان الأمر كله يتعلق بتبديل نوع المثيل في تكوين التوزيع الخاص بنا. قمنا بتحسين الأداء بنسبة 40٪ وخفض التكاليف الإجمالية بنسبة 23٪، من خلال تبديل أنواع المثيلات إلى Inf1 المستندة إلى Inferentia. شكَّل هذا مكسبًا كبيرًا. لقد مكننا ذلك من خفض تكاليف التشغيل الإجمالية مع الاستمرار في تقديم صور عالية الجودة عبر الأقمار الصناعية لعملائنا، مع الحد الأدنى من النفقات الهندسية. نحن نتطلع إلى نقل جميع نقاط نهاية الاستدلال وعمليات ML الجماعية لاستخدام مثيلات Inf1 لزيادة تحسين موثوقية بياناتنا وتجربة العملاء."

أدلر سانتوس، المدير الهندسي، SkyWatch

خدمات Amazon باستخدام مثيلات Amazon EC2 Inf1

Amazon Alexa

تم بيع أكثر من 100 مليون جهاز من أجهزة Alexa على مستوى العالم، وترك العملاء أيضًا أكثر من 400000 تقييم 5 نجوم لأجهزة Echo على Amazon. قال توم تايلور، نائب الرئيس الأول في Amazon Alexa "الذكاء المستند إلى AI و ML من Amazon Alexa، المدعوم من Amazon Web Services، متاح على أكثر من 100 مليون جهاز اليوم - ونعد العملاء بأن Alexa أصبحت دائمًا أكثر ذكاءً، وأكثر تحادثية، وأكثر استباقية، وأكثر بهجة». "يتطلب الوفاء بهذا الوعد تحسينات مستمرة في أوقات الاستجابة وتكاليف البنية التحتية لتعلم الآلة، ولهذا السبب نحن متحمسون لاستخدام Amazon EC2 Inf1 لتقليل زمن انتقال الاستدلال وتكلفة الاستدلال على تحويل النص إلى كلام Alexa. مع Amazon EC2 Inf1، سنتمكن من تحسين الخدمة لعشرات الملايين من العملاء الذين يستخدمون Alexa كل شهر. "

Amazon Alexa
«Amazon Rekognition هو تطبيق بسيط وسهل لتحليل الصور ومقاطع الفيديو يساعد العميل على التعرف على العناصر والأشخاص والنصوص والأنشطة. ويحتاج Amazon Rekognition إلى بنية تعلم عميق عالية الأداء يمكن من خلالها تحليل مليارات الصور ومقاطع الفيديو يوميًا لعملائنا. باستخدام مثيلات Inf1 القائمة على AWS Inferentia، نتج عن تشغيل نماذج Rekognition مثل تصنيف العناصر انخفاضًا في زمن الانتقال بثمانية أضعاف ومضاعفة معدل الانتقال مقارنةً بتشغيل هذه النماذج على وحدات معالجة الرسوميات. وبناءً على هذه النتائج، سوف ننقل Rekognition إلى Inf1، بما يمكن عملاءنا من الحصول على نتائج دقيقة على نحو أسرع».
 
راجنيش سينغ، مدير هندسة البرمجيات، Rekognition and Video

التسعير

*الأسعار المعروضة في منطقة AWS في شرق الولايات المتحدة (شمال فرجينيا). أسعار المثيلات المحجوزة لمدة عام و3 أعوام هي لخيارات الدفع "مقدمًا جزئيًا" أو "بدون مقدم" للحالات التي لا تحتوي على خيار مقدم جزئي.

تتوفر مثيلات Amazon EC2 Inf1 في شرق الولايات المتحدة (شمال فرجينيا) أو مناطق AWS في غرب الولايات المتحدة (أوريغون) كمثيلات حسب الطلب أو محجوزة أو فورية.

بدء الاستخدام

استخدام Amazon SageMaker

ستسهل Amazon SageMakerمن التحويل البرمجي والنشر لنموذج تعلم الآلة المدرَّب الخاص بك في مرحلة الإنتاج على مثيلات Amazon Inf1؛ بحيث يمكنك بدء إنشاء التنبؤات في الوقت الحقيقي في زمن انتقال أقل. يندمج AWS Neuron، المحول البرمجي لـ AWS Inferentia، مع Amazon SageMaker Neo لتمكينك من التحويل البرمجي لنماذج تعلم الآلة المدربة لديك لتعمل بشكل محسّن على مثيلات Inf1. باستخدام Amazon SageMaker يمكنك أن تختار بسهولة تشغيل نماذجك على مجموعات توسيع تلقائي لمثيلات Inf1 والتي تنتشر عبر العديد من مناطق التوافر لتوفير استدلال في الوقت الحقيقي يتميز بكل من الأداء العالي والتوافر العالي. تعرَّف على طريقة النشر إلى Inf1 باستخدام Amazon SageMaker من خلال أمثلة على Github.

استخدام AWS Deep Learning AMI

تقدم نسخAWS Deep Learning AMIs لمتدربي وباحثي تعلم الآلة البنية التحتية والأدوات لتسريع التعلم العميق في السحابة على أي نطاق. تأتي AWS Neuron SDK مثبتة مسبقًا فيAWS Deep Learning AMIs لتجميع نماذج تعلم الآلة وتشغيلها على النحو الأمثل في مثيلات Inf1. للمساعدة في إرشادك عبر عملية بدء الاستخدام، تفضل بزيارةدليل اختبار AMI والمزيد من موارد التعلم العميق. يرجى الرجوع إلى دليل البدء في AWS DLAMI للتعرف على كيفية استخدام DLAMI مع Neuron.

استخدام حاويات التعلم العميق

يمكن للمطورين الآن نشر مثيلات Inf1 في Amazon Elastic Kubernetes Service (EKS)، وهي خدمة Kubernetes مُدارة بالكامل، وكذلك في Amazon Elastic Container Service (ECS)، وهي خدمة تنسيق حاويات مُدارة بالكامل من Amazon. تعرَّف على المزيد حول بدء استخدام Inf1 على Amazon EKS في هذه المدونة. يتوفر المزيد من التفاصيل حول تشغيل الحاويات في مثيلات Inf1 في صفحة البرنامج التعليمي لأدوات حاوية Neuron . يتوفر دعم Inf1 لحاويات AWS DL قريبًا.