Llama 3.3 70B متوفرة الآن على AWS عبر Amazon SageMaker JumpStart
يمكن لعملاء AWS الآن الوصول إلى طراز Llama 3.3 70B من Meta من خلال Amazon SageMaker JumpStart. يوازن طراز Llama 3.3 70B بين الأداء العالي والكفاءة الحوسبية. كما أنها توفر جودة إخراج مماثلة لإصدارات Llama الأكبر حجمًا بينما تتطلب موارد أقل بكثير، مما يجعلها خيارًا ممتازًا لعمليات نشر الذكاء الاصطناعي الفعالة من حيث التكلفة.
يتميز Llama 3.3 70B بآلية انتباه محسّنة تقلل بشكل كبير من تكاليف الاستدلال. تم تدريب النموذج على ما يقرب من 15 تريليون رمز، بما في ذلك المحتوى المأخوذ من الويب والأمثلة التركيبية، وخضع النموذج لضبط دقيق مكثف تحت الإشراف والتعلم المعزز من الملاحظات البشرية (RLHF). يعمل هذا النهج على مواءمة المخرجات بشكل وثيق مع التفضيلات البشرية مع الحفاظ على معايير الأداء العالية. وفقًا لـ Meta، تُترجم مكاسب الكفاءة هذه إلى عمليات استدلال أكثر فعالية من حيث التكلفة بخمس مرات تقريبًا، مما يجعلها خيارًا جذابًا لعمليات نشر الإنتاج.
يمكن للعملاء نشر Llama 3.3 70B من خلال واجهة مستخدم SageMaker JumpStart أو برمجيًا باستخدام SageMaker Python SDK. تساعد إمكانات الاستدلال المتقدمة لـ SageMaker AI على تحسين الأداء وكفاءة التكلفة لعمليات النشر لديك، مما يتيح لك الاستفادة الكاملة من الكفاءة المتأصلة في Llama 3.3 70B مع الاستفادة من عملية نشر مبسطة.
يتوفر طراز Llama 3.3 70B في جميع مناطق AWS حيث يتوفر ذكاء الاصطناعي من Amazon SageMaker. لمعرفة المزيد حول نشر Llama 3.3 70B على Amazon SageMaker JumpStart، راجع الوثائق أو اقرأ المدونة.