Orchestrateur de charge de travail MLOps

Déployez un pipeline robuste qui utilise des outils d'automatisation gérés et des services de ML pour simplifier le développement et la production de modèles de ML

Présentation

La solution d'orchestrateur de charges de travail MLOps vous permet de simplifier et d'appliquer les bonnes pratiques d'architecture pour la production de modèles de machine learning (ML). Cette solution est un cadre extensible qui fournit une interface standard de gestion des pipelines ML pour les services AWS ML et tiers. Le modèle de la solution permet aux clients de :

  • Entraîner des modèles
  • Charger les modèles entraînés (également appelés « apportez votre propre modèle » [BYOM])
  • Configurer l'orchestration du pipeline
  • Surveiller les opérations du pipeline

Cette solution augmente l'agilité et l'efficacité de votre équipe en lui permettant de répéter des processus réussis à grande échelle.

 

Avantages

Utilisez un pipeline de machine learning pré-configuré.
Utilisez l'architecture de référence de la solution pour lancer un pipeline préconfiguré par le biais d'un appel API ou d'un référentiel Git.
Déploiement automatique d'un modèle entraîné et d'un point de terminaison d'inférence
Utilisez le framework de la solution pour automatiser le pipeline de Model Monitor ou le pipeline BYOM Amazon SageMaker. Fournissez un point de terminaison d'inférence avec détection de la dérive du modèle, empaqueté comme un micro-service sans serveur.
Afficher vos ressources dans un tableau de bord

Utilisez le tableau de bord du modèle Amazon SageMaker pour afficher les ressources Amazon SageMaker créées par votre solution (telles que les modèles, les points de terminaison, les cartes de modèle et les tâches de transformation par lots).

Détails techniques

Afin de s'adapter aux différents cas d'utilisation et besoins professionnels, la solution fournit deux modèles AWS CloudFormation :

  1. Utilisez le modèle monocompte pour déployer tous les pipelines de la solution dans le même compte AWS. Cette option est idéale pour les charges de travail d'expérimentation, de développement et/ou de production à petite échelle.
  2. Utilisez le modèle multicompte pour allouer plusieurs environnements (par exemple pour le développement, le prédéploiement et la production) sur différents comptes AWS. Cette approche offre de nombreux avantages : amélioration de la gouvernance, renforcement de la sécurité et du contrôle du déploiement du pipeline ML, expérimentation sûre, innovation plus rapidement et sécurité et disponibilité des données et des charges de travail de production garanties à des fins de continuité des activités.
  • Option 1 – Déploiement monocompte
  • Option 2 : Déploiement sur plusieurs comptes
Étude de cas
L'Orchestrateur de cycle de vie de modèle MLOps de Cognizant accélère le déploiement des modèles de machine learning de plusieurs semaines à quelques heures grâce aux solutions AWS

En collaboration avec les équipes AWS Partner Solutions Architect et la Bibliothèque de solutions AWS, Cognizant a créé sa solution MLOps « Orchestrateur de cycle de vie de modèle » à partir de la solution MLOps « Orchestrateur de charge de travail ».

Lire l'étude de cas 
À propos de ce déploiement
Version
2.2.0
Date de publication
08/2023
Auteur
AWS
Temps de déploiement estimé
3 min
Estimation du coût
Code source  Modèles CloudFormation  S'abonner au flux RSS 
Options de déploiement
Prêt à vous lancer ?
Déployer cette solution en la lançant dans votre console AWS

Vous avez besoin d'aide ? Déployez avec un partenaire.
Trouvez un expert tiers certifié AWS pour vous aider dans ce déploiement
Cette solution AWS vous a-t-elle aidé ?
Donner mon avis