Publié le: Jul 27, 2021
AWS Solutions a mis à jour AWS MLOps Framework, une implémentation de solutions AWS qui rationalise le processus de déploiement du pipeline et applique les bonnes pratiques d'architecture pour la productivisation de modèles de machine learning (ML). Cette solution résout les problèmes opérationnels courants auxquels les clients sont confrontés lors de l'adoption de plusieurs outils d'automatisation de flux travail de ML.
Cette mise à jour étend les capacités de déploiement multicomptes de la solution par l'utilisation des StackSets AWS Organizations et AWS CloudFormation, en permettant aux clients d'allouer plusieurs environnements (par ex. le développement, la préparation et la production) dans leur organisation via un compte administrateur délégué. Elle améliore la gouvernance et la sécurité du déploiement des applications de ML tout en protégeant les données de production avec les mesures de contrôles appropriées. Cette nouvelle version s'enrichit également de l'option permettant d'utiliser Registre de modèles Amazon SageMaker pour déployer des modèles gérés par versions. Le registre des modèles vous permet de cataloguer les modèles pour la production, de gérer les versions des modèles, d'associer des métadonnées aux modèles, de gérer le statut d'approbation d'un modèle, de déployer les modèles en production et d'automatiser le déploiement des modèles avec CI/CD.
Cette solution offre les fonctions clés suivantes :
- Lance un pipeline préconfiguré via un appel d'API ou un référentiel Git
- Déploie automatiquement un modèle formé et fournit un point de terminaison d'inférence
- Surveille en permanence les modèles de machine learning déployés et détecte tout écart de qualité
- Prend en charge l'exécution de vos propres tests d'intégration pour vous assurer que le modèle déployé répond aux attentes
- Permet l'approvisionnement de plusieurs environnements pour la prise en charge du cycle de vie de votre modèle de ML
- L'option d'utilisation du registre de modèles Amazon SageMaker pour déployer des modèles gérés par versions
- Prise en charge de comptes multiples pour « apportez votre propre modèle » et les pipelines de contrôle de modèles
- Autorise les clients à créer et enregistrer des images Docker pour les algorithmes personnalisés à utiliser lors du déploiement des modèles sur un point de terminaison Amazon Sagemaker.
D'autres solutions AWS sont disponibles sur la page web Implémentations de solutions AWS où les clients peuvent explorer les solutions par catégorie de produit ou par secteur d'activité pour trouver les mises en œuvre de référence AWS approuvées, automatisées et clé en main adaptées à leurs besoins professionnels.