Publié le: Apr 18, 2024
À compter d'aujourd'hui, la prochaine génération de modèles de Meta Llama, Llama 3, est désormais disponible via Amazon SageMaker JumpStart, un hub de machine learning (ML) qui propose des modèles préentraînés, des algorithmes intégrés et des solutions prédéfinies pour vous aider à démarrer rapidement avec le ML. Vous pouvez déployer et utiliser les modèles de fondation Llama 3 en quelques clics dans SageMaker Studio ou par programmation via le SDK Python de SageMaker.
Llama 3 est disponible dans une gamme de tailles de paramètres (8B et 70B) et peut être utilisé pour prendre en charge un large éventail de cas d'utilisation, améliorant ainsi le raisonnement, la génération de code et le suivi des instructions. Llama 3 utilise une architecture de transformateur à décodeur uniquement et un nouveau générateur de jetons qui améliore les performances du modèle. En outre, les procédures post-formation améliorées de Meta ont considérablement réduit les taux de faux refus, amélioré l'alignement et accru la diversité des réponses des modèles. Vous pouvez désormais bénéficier des avantages combinés des performances de Llama 3 et des contrôles MLOps grâce aux fonctionnalités d’Amazon SageMaker telles que SageMaker Pipelines, SageMaker Debugger ou les journaux de conteneurs. Le modèle sera déployé dans un environnement sécurisé AWS sous le contrôle de votre VPC, afin de garantir la sécurité des données.
Les modèles de fondation Llama 3 sont disponibles aujourd'hui dans SageMaker JumpStart, initialement dans les régions AWS USA Est (Ohio), USA Ouest (Oregon), USA Est (Virginie du Nord), Asie-Pacifique (Tokyo) et Europe (Irlande). Pour commencer à utiliser les modèles de fondation Llama 3 via SageMaker JumpStart, consultez la documentation et le blog.