Orchestrateur de charge de travail MLOps sur AWS

Déployez un pipeline robuste qui utilise des outils d’automatisation gérés et des services de ML pour simplifier le développement et la production de modèles de ML

Présentation

L’orchestrateur de charge de travail des opérations de machine learning (MLOps) rationalise le déploiement des modèles de machine learning et applique les pratiques exemplaires en matière de capacité de mise à l’échelle, de fiabilité et d’efficacité. Cette solution AWS est un cadre extensible doté d’une interface standard pour gérer les pipelines de ML au sein des services AWS ML et tiers.

Cette solution inclut un modèle AWS CloudFormation. Ce modèle permet l’entraînement des modèles, le chargement de modèles préentraînés (également appelés Bring your own model ou BYOM), la configuration de l’orchestration du pipeline et la surveillance du fonctionnement du pipeline. En mettant en œuvre cette solution, votre équipe peut accroître son agilité et son efficacité, en répétant les processus réussis à grande échelle.

Avantages

Lancement avec un pipeline de ML préconfiguré

Lancez un pipeline préconfiguré via un appel d’API ou un compartiment Amazon S3.

Déploiement automatique d’un modèle entraîné et d’un point de terminaison d’inférence

Automatisez la surveillance des modèles avec Amazon SageMaker BYOM et offrez un point de terminaison d’inférence sans serveur avec détection de dérive.

Visibilité centralisée de vos ressources de machine learning

Utilisez le tableau de bord des modèles Amazon SageMaker pour afficher, rechercher et explorer toutes vos ressources Amazon SageMaker, notamment les modèles, les points de terminaison, les cartes de modèle et les tâches de transformation par lots.

Détails techniques

Vous pouvez déployer automatiquement cette architecture à l’aide du guide d’implémentation et du modèle AWS CloudFormation qui l’accompagne. Afin de s’adapter aux différents cas d’utilisation et besoins professionnels, la solution fournit deux modèles AWS CloudFormation :

  1. Utilisez le modèle monocompte pour déployer tous les pipelines de la solution dans le même compte AWS. Cette option est idéale pour les charges de travail d’expérimentation, de développement et/ou de production à petite échelle.
  2. Utilisez le modèle multicompte pour allouer plusieurs environnements (par exemple pour le développement, le prédéploiement et la production) sur différents comptes AWS. Cette approche offre de nombreux avantages : amélioration de la gouvernance, renforcement de la sécurité et du contrôle du déploiement du pipeline ML, expérimentation sûre, innovation plus rapide et sécurité et disponibilité des données et des charges de travail de production garanties à des fins de continuité des activités.
  • Option 1 – Déploiement monocompte
  • Option 2 – Déploiement sur plusieurs comptes
Étude de cas
L'Orchestrateur de cycle de vie de modèle MLOps de Cognizant accélère le déploiement des modèles de machine learning de plusieurs semaines à quelques heures grâce aux solutions AWS

En collaboration avec les équipes AWS Partner Solutions Architect et la Bibliothèque de solutions AWS, Cognizant a créé sa solution MLOps « Orchestrateur de cycle de vie de modèle » à partir de la solution MLOps « Orchestrateur de charge de travail ».

Lire l’étude de cas 
Cas d’utilisation de cette solution AWS
  • Titre
Plus...
À propos de ce déploiement
  • Date de publication
Options de déploiement
Prêt à vous lancer ?
Déployer cette solution en la lançant dans votre console AWS

Vous avez besoin d'aide ? Déployez avec un partenaire.
Trouvez un expert tiers certifié AWS pour vous aider dans ce déploiement

Cette page vous a-t-elle été utile ?