À quoi sert cette solution AWS ?

La solution d'orchestrateur de charges de travail MLOps vous permet de simplifier et d'appliquer les bonnes pratiques d'architecture pour la production de modèles de machine learning (ML). Cette solution est un cadre extensible qui fournit une interface standard de gestion des pipelines de ML pour les services de ML AWS et les services tiers. Le modèle de la solution permet aux clients d'entraîner leurs modèles, de charger leurs modèles entraînés (également appelés Bring Your Own Model, BYOM), de configurer l'orchestration du pipeline et de surveiller les opérations de ce dernier. Cette solution augmente l'agilité et l'efficacité de votre équipe en lui permettant de répéter des processus réussis à grande échelle.

Avantages

Utilisez un pipeline de machine learning pré-configuré.

Utilisez l'architecture de référence de la solution pour lancer un pipeline préconfiguré par le biais d'un appel API ou d'un référentiel Git.

Avantages

Déployez automatiquement un modèle entraîné et un point de terminaison d'inférence.

Utilisez le framework de la solution pour automatiser le pipeline de Model Monitor ou le pipeline BYOM Amazon SageMaker. Fournissez un point de terminaison d'inférence avec détection de la dérive du modèle, empaqueté comme un micro-service sans serveur.

Présentation de la solution AWS

Les diagrammes ci-dessous présentent les architectures sans serveur que vous pouvez déployer automatiquement à l'aide du guide d'implémentation de la solution et du modèle AWS CloudFormation fourni.

  • Option 1 – Déploiement monocompte
  • Option 2 : Déploiement sur plusieurs comptes
  • Option 1 – Déploiement monocompte
  • AWS MLOps Framework | Diagramme de l'architecture de référence
     Cliquer pour agrandir

    Architecture de référence de l'orchestrateur de charges de travail MLOps (déploiement monocompte)

    Utilisez le modèle monocompte pour déployer tous les pipelines de la solution dans le même compte AWS. Cette option est idéale pour les charges de travail d'expérimentation, de développement et/ou de production à petite échelle.

    Le modèle de compte unique de cette solution fournit les composants et les flux de travail suivants :

    1. L'orchestrateur (propriétaire de la solution ou ingénieur DevOps) lance la solution dans le compte AWS et sélectionne les options souhaitées (par exemple en utilisant le registre Amazon SageMaker ou en fournissant un compartiment Amazon S3 existant).
    2. L'orchestrateur charge les ressources requises pour le pipeline cible (par exemple l'artefact du modèle, les données d'entraînement et/ou le fichier zip de l'algorithme personnalisé) dans le compartiment des ressources Amazon S3. Si le registre de modèles Amazon SageMaker est utilisé, l'orchestrateur (ou un pipeline automatisé) doit enregistrer le modèle à l'aide du registre de modèles.
    3. Une instance AWS CodePipeline monocompte est approvisionnée en envoyant un appel d'API à Amazon API Gateway ou en effectuant un commit du fichier mlops-config.json dans le référentiel Git. En fonction du type de pipeline, la fonction AWS Lambda de l'orchestrateur regroupe en package le modèle AWS CloudFormation cible et ses paramètres/configurations à l'aide du corps de l'appel d'API ou du fichier mlops-config.json. Elle utilise ensuite ce package comme étape source pour l'instance AWS CodePipeline.
    4. L'étape DeployPipeline prend le package constitué du modèle CloudFormation et de ses paramètres/configurations et déploie le pipeline cible dans le même compte.
    5. Une fois le pipeline cible provisionné, les utilisateurs peuvent avoir accès à ses fonctionnalités. Une notification Amazon Simple Notification Service (Amazon SNS) est envoyée à l'e-mail fourni dans les paramètres de lancement de la solution.

    Orchestrateur de charge de travail MLOps

    Version 2.0.0
    Date de publication : 05/2022
    Auteur : AWS

    Temps de déploiement estimé : 3 min

    Estimation du coût 
    Utilisez le bouton ci-dessous pour vous abonner aux mises à jour de la solution.

    Remarque : pour vous abonner aux mises à jour RSS, vous devez activer un plug-in RSS pour le navigateur que vous utilisez.  

    Cette implémentation de solutions vous a-t-elle été utile ?
    Donner mon avis 
  • Option 2 : Déploiement sur plusieurs comptes
  • AWS MLOps Framework | Diagramme de l'architecture de référence
     Cliquer pour agrandir

    Architecture de référence de l'orchestrateur de charges de travail MLOps (déploiement sur plusieurs comptes)

    Utilisez le modèle multicompte pour approvisionner plusieurs environnements (par exemple pour le développement, le prédéploiement et la production) sur différents comptes AWS. Cette approche offre de nombreux avantages : amélioration de la gouvernance, renforcement de la sécurité et du contrôle du déploiement du pipeline ML, expérimentation sûre, innovation plus rapidement et sécurité et disponibilité des données et des charges de travail de production garanties à des fins de continuité des activités.

    Le modèle multicompte de cette solution offre les meilleurs composants et flux de travail suivants :

    1. L'orchestrateur (le propriétaire de la solution ou l'ingénieur DevOps avec un accès de type administrateur au compte de l'orchestrateur) fournit les informations AWS Organizations (par exemple les identifiants d'unités d'organisation de développement, de prédéploiement et de production ainsi que les numéros de comptes). Il spécifie également les options souhaitées (par exemple en utilisant le registre Amazon SageMaker ou en fournissant un compartiment S3 existant) et lance ensuite la solution dans son compte AWS.
    2. L'orchestrateur charge les ressources requises pour le pipeline cible (par exemple l'artefact du modèle, les données d'entraînement et/ou le fichier zip de l'algorithme personnalisé) dans le compartiment des ressources Amazon S3 au sein du compte AWS de l'orchestrateur. Si le registre de modèles Amazon SageMaker est utilisé, l'orchestrateur (ou un pipeline automatisé) doit enregistrer le modèle à l'aide du registre de modèles.
    3. Une instance AWS CodePipeline multicompte est provisionnée en envoyant un appel d'API à Amazon API Gateway ou en effectuant un commit du fichier mlops-config.json dans le référentiel Git. En fonction du type de pipeline, la fonction AWS Lambda de l'orchestrateur regroupe en packages le modèle AWS CloudFormation cible et ses paramètres/configurations pour chaque étape à l'aide du corps de l'appel d'API ou du fichier mlops-config.json. Elle utilise ensuite ce package comme étape source pour l'instance AWS CodePipeline.
    4. L'étape DeployDev prend le package constitué du modèle CloudFormation et de ses paramètres/configurations et déploie le pipeline cible dans le compte de développement.
    5. Une fois le pipeline cible provisionné dans le compte de développement, le développeur peur effectuer des itérations sur ce pipeline.
    6. Une fois le développement terminé, l'orchestrateur (ou un autre compte autorisé) approuve manuellement l'action DeployStaging afin de passer à l'étape DeployStaging.
    7. L'étape DeployStaging déploie le pipeline cible dans le compte de prédéploiement à l'aide de la configuration de prédéploiement.
    8. Les testeurs effectuent différents tests sur le pipeline ainsi déployé.
    9. Une fois que le pipeline a passé avec succès les tests, l'orchestrateur peut approuver l'action DeployProd.
    10. L'étape DeployProd déploie le pipeline cible (avec les configurations de production) dans le compte de production.
    11. Pour finir, le pipeline cible réside en direct dans l'environnement de production. Une notification Amazon Simple Notification Service (Amazon SNS) est envoyée à l'e-mail fourni dans les paramètres de lancement de la solution.

    Orchestrateur de charge de travail MLOps

    Version 2.0.0
    Date de publication : 05/2022
    Auteur : AWS

    Temps de déploiement estimé : 3 min

    Estimation du coût 
    Utilisez le bouton ci-dessous pour vous abonner aux mises à jour de la solution.

    Remarque : pour vous abonner aux mises à jour RSS, vous devez activer un plug-in RSS pour le navigateur que vous utilisez.  

    Cette implémentation de solutions vous a-t-elle été utile ?
    Donner mon avis 
Icône Créer
Déployer vous-même votre solution

Parcourez notre bibliothèque des implémentations des solutions AWS pour obtenir des réponses aux problèmes d'architecture courants.

En savoir plus 
Rechercher un partenaire APN
Rechercher un partenaire APN

Trouvez des partenaires consultants et technologiques certifiés AWS pour vous aider à commencer.

En savoir plus 
Icône Explorer
Explorer les offres de conseil pour les solutions

Parcourez notre portefeuille d'offres de conseil pour obtenir une aide approuvée AWS au déploiement de solutions.

En savoir plus