AMIs للتعلم العميق من AWS
بيئات التشغيل سابقة التكوين لبناء تطبيقات التعلم العميق بسرعة
تقدم AWS Deep Learning AMIs لمتدربي وباحثي تعلم الآلة البنية التحتية والأدوات لتسريع التعلم العميق في السحابة على أي نطاق. يمكنك أن تطلق بسرعة مثيلات Amazon EC2 المثبتة سابقًا مع أطر عمل وواجهات شهيرة للتعلم العميق مثل TensorFlow وPyTorch وApache MXNet وChainer وGluon وHorovod وKeras لتدريب نماذج الذكاء الاصطناعي المعقدة والمخصصة أو التجريب مع الحلول الحسابية أو تعلم مهارات وآليات جديدة.
سواء كنت تحتاج إلى مثيلات وحدة معالجة رسومات أو وحدة معالجة مركزية Amazon EC2، فلا توجد رسوم إضافية على Deep Learning AMIs - لا تدفع إلا مقابل موارد AWS المطلوبة لتخزين تطبيقاتك وتشغيلها.
اختيار Deep Learning AMI الخاصة بـ AWS
حتى مع ممارسي تعلم الآلة الخبراء، يمكن أن يكون البدء بالتعلم العميق مستهلكًا للوقت ومرهقًا. AMIs التي نقدمها تدعم الاحتياجات المتعددة لدى المطورين. للمساعدة في إرشادك عبر عملية بدء الاستخدام، قم أيضًا بزيارة دليل اختيار AMI والمزيد من موارد التعلم العميق.
Conda AMI
للمطورين الذين يريدون حزم pip سابقة التثبيت من أطر عمل التعلم العميق في بيئات افتراضية منفصلة، يتوفر AMI المستند إلى Conda بإصدارات Ubuntu، وAmazon Linux وWindows 2016
تعرف على المزيد حول مزايا Conda AMI وابدأ باستخدام هذا الدليل التفصيلي.
Base AMI
للمطورين الذين يريدون حالة فارغة لإعداد مستودعات محركات تعلم عميق خاصة أو أبنية مخصصة لمحركات التعلم العميق، يتوفر Base AMI بإصدارين Ubuntu وAmazon Linux
تعرف على المزيد حول مزايا Base AMI وابدأ باستخدام هذا الدليل التفصيلي.
دعم لأطر عمل التعلم العميق
AWS Deep Learning AMIs تدعم كل أطر عمل التعلم العميق الشهيرة مما يتيح لك إمكانية تعريف النماذج ثم تدريبها على نطاق. تم بناء AMIs لنظامي Amazon Linux وUbuntu حيث تأتي بتهيئة سابقة مع TensorFlow وPyTorch وApache MXNet وChainer وMicrosoft Cognitive Toolkit وGluon وHorovod وKeras، مما يتيح لك أن تقوم بتوزيع وتشغيل أيًا من أطر العمل والأدوات هذه على نطاق.








تسريع تدريب نموذجك
لتسريع تطويرك وتدريب نموذجك، تشمل AWS Deep Learning AMIs أحدث تسريع لوحدة معالجة رسومات من NVIDIA من خلال برنامجي التشغيل CUDA وcuDNN المجهزين سابقًا إلى جانب Intel Math Kernel Library (MKL) بالإضافة إلى تثبيت حزم Python الشهيرة ونظام Anaconda الأساسي.
مثيلات وحدة معالجة الرسوميات

توفر مثيلات P3 أداء أفضل 14 مرة من الجيل السابق من مثيلات حوسبة وحدة معالجة الرسوميات الخاصة بـ Amazon EC2. بالإضافة إلى ما يصل إلى ثمانية من وحدات معالجة الرسوميات NVIDIA Tesla V100، توفر مثيلات P3 ما يصل إلى بيتافلوب واحدة مختلطة الدقة و125 تيرافلوب أحادية الدقة و62 تيرافلوب بأداء النقطة العائمة مزدوج الدقة.
الحوسبة القوية

تعمل مثيلات C5 بواسطة معالجات Intel Xeon Scalable التي تبلغ سعتها 3.0 جيجا هرتز، وتسمح بنواة واحدة لتشغيل ما يصل إلى 3.5 جيجا هرتز باستخدام تقنية Intel Turbo Boost. توفر مثيلات C5 ذاكرة أعلى لمعدل وحدة المعالجة المركزية الافتراضية وتقدم تحسنًا بنسبة 25% في السعر والأداء مقارنةً بمثيلات C4، وتعد مثالية لتطبيقات الاستنتاج كثيرة المتطلبات.
حزم Python

تأتي AWS Deep Learning AMIs مثبتة مع دفاتر Jupyter المحملة مع Python 2.7 وPython 3.5 kernels إلى جانب حزم Python الشهيرة، بما في ذلك مجموعة مطوري برمجيات AWS لـ Python.
النظام الأساسي Anaconda

لتبسيط إدارة الحزم وتوزيعها، يقوم AWS Deep Learning AMIs بتثبيت النظام الأساسي لعلوم البيانات Anaconda2 وAnaconda3 لمعالجة البيانات على نطاق كبير والتحليلات التنبؤية والحوسبة العلمية.
ابدأ في التعلم العميق على AWS
Amazon SageMaker من أجل تعلم الآلة
إن Amazon SageMaker خدمة تتم إدارتها بالكامل لتمكين المطورين وعلماء البيانات من بناء نماذج تعلم الآلة، والتدريب عليها وتوزيعها بسرعة وسهولة على أي نطاق. يعمل Amazon SageMaker على إزالة جميع الحدود التي عادةً ما تؤدي إلى إبطاء المطورين الذين يرغبون في استخدام تعلم الآلة.