À quoi sert cette implémentation de solutions AWS ?

La solution AWS MLOps Framework simplifie et permet d'appliquer les bonnes pratiques d'architecture pour la production en masse de modèles de machine learning (ML). Cette solution est un framework extensible qui fournit une interface standard de gestion des pipelines ML pour les services ML AWS et les services tiers. Le modèle de la solution permet aux clients de charger leurs modèles entraînés (également appelés Bring Your Own Model, BYOM), de configurer l'orchestration du pipeline et de surveiller les opération de ce dernier. Cette solution augmente l'agilité et l'efficacité de votre équipe en lui permettant de répéter des processus réussis à grande échelle.

Avantages

Utilisez un pipeline de machine learning pré-configuré.

Utilisez l'architecture de référence de la solution pour lancer un pipeline préconfiguré par le biais d'un appel API ou d'un référentiel Git.

Avantages

Déployez automatiquement un modèle entraîné et un point de terminaison d'inférence.

Utilisez le framework de la solution pour automatiser le pipeline de Model Monitor ou le pipeline BYOM Amazon SageMaker. Fournissez un point de terminaison d'inférence avec détection de la dérive du modèle, empaqueté comme un micro-service sans serveur.

Présentation de l'implémentation des solutions AWS

Les diagrammes ci-dessous présentent l'architecture sans serveur que vous pouvez déployer automatiquement à l'aide du guide d'implémentation de la solution et du modèle AWS CloudFormation fourni.

  • Option 1 : Déploiement sur un seul compte
  • Option 2 : Déploiement sur plusieurs comptes
  • Option 1 : Déploiement sur un seul compte
  • AWS MLOps Framework | Diagramme de l'architecture de référence
     Cliquer pour agrandir

    Architecture de référence AWS MLOps Framework (déploiement sur un seul compte)

    Utilisez le modèle de compte unique pour déployer tous les pipelines de la solution dans le même compte AWS. Cette option est idéale pour les charges de travail d'expérimentation, de développement, et/ou de production à petite échelle.

    Le modèle de compte unique de cette solution fournit les composants et les flux de travail suivants :

    1. L'orchestrateur (propriétaire de la solution ou ingénieur DevOps) lance la solution dans le compte AWS et sélectionne les options souhaitées (par exemple, en utilisant le registre Amazon SageMaker ou en fournissant un compartiment Amazon S3 existant).
    2. L'orchestrateur charge les ressources requises pour le pipeline cible (par exemple l'artefact du modèle, les données d'entraînement et/ou le fichier zip de l'algorithme personnalisé) dans le compartiment Amazon S3 des ressources. Si le registre Amazon SageMaker est utilisé, l'orchestrateur (ou un pipeline automatisé) doit enregistrer le modèle à l'aide du registre de modèles.
    3. Une instance AWS CodePipeline à compte unique est provisionnée en envoyant un appel d'API à Amazon API Gateway ou en effectuant un commit du fichier mlops-config.json dans le référentiel Git. En fonction du type de pipeline, la fonction AWS Lambda de l'orchestrateur regroupe en package le modèle AWS CloudFormation cible et ses paramètres/configurations à l'aide du corps de l'appel d'API ou du fichier mlops-config.json. Elle utilise ensuite ce package comme étape source pour l'instance AWS CodePipeline.
    4. L'étape DeployPipeline prend le package constitué du modèle CloudFormation et de ses paramètres/configurations et déploie le pipeline cible dans le même compte.
    5. Une fois le pipeline cible provisionné, les utilisateurs peuvent avoir accès à ses fonctionnalités. Une notification Amazon Simple Notification Service (Amazon SNS) est envoyée à l'e-mail fourni dans les paramètres de lancement de la solution.
    Utilisez le bouton ci-dessous pour vous abonner aux mises à jour de la solution.

    Remarque : pour vous abonner aux mises à jour RSS, vous devez activer un plug-in RSS pour le navigateur que vous utilisez.  

    Cette mise en oeuvre de solutions vous a-t-elle aidé ?
    Donner mon avis 
  • Option 2 : Déploiement sur plusieurs comptes
  • AWS MLOps Framework | Diagramme de l'architecture de référence
     Cliquer pour agrandir

    Architecture de référence AWS MLOps Framework (déploiement sur plusieurs comptes)

    Utilisez le modèle multicompte pour provisionner plusieurs environnements (par exemple pour le développement, le prédéploiement et la production) sur différents comptes AWS. Cette approche offre de nombreux avantages : améliorer la gouvernance, renforcer la sécurité et le contrôle du déploiement du pipeline ML, fournir une expérimentation sûre, permettre d'innover plus rapidement et garantir la sécurité et la disponibilité des données et des charges de travail de production à des fins de continuité des activités.

    Le modèle multicompte de cette solution offre les meilleurs composants et flux de travail suivants :

    1. L'orchestrateur (le propriétaire de la solution ou l'ingénieur DevOps avec un accès de type administrateur au compte de l'orchestrateur) fournit les informations AWS Organizations (par exemple les identifiants d'unités d'organisation de développement, de prédéploiement et de production ainsi que les numéros de comptes). Il spécifie également les options souhaitées (par exemple en utilisant le registre Amazon SageMaker ou en fournissant un compartiment S3 existant) et lance ensuite la solution dans le compte AWS.
    2. L'orchestrateur charge les ressources requises pour le pipeline cible (par exemple l'artefact du modèle, les données d'entraînement et/ou le fichier zip de l'algorithme personnalisé) dans le compartiment Amazon S3 des ressources au sein du compte AWS de l'orchestrateur. Si le registre Amazon SageMaker est utilisé, l'orchestrateur (ou un pipeline automatisé) doit enregistrer le modèle à l'aide du registre de modèles.
    3. Une instance AWS CodePipeline multicompte est provisionnée en envoyant un appel d'API à Amazon API Gateway ou en effectuant un commit du fichier mlops-config.json dans le référentiel Git. En fonction du type de pipeline, la fonction AWS Lambda de l'orchestrateur regroupe en package le modèle AWS CloudFormation cible et ses paramètres/configurations pour chaque étape à l'aide du corps de l'appel d'API ou du fichier mlops-config.json. Elle utilise ensuite ce package comme étape source pour l'instance AWS CodePipeline.
    4. L'étape DeployDev prend le package constitué du modèle CloudFormation et de ses paramètres/configurations et déploie le pipeline cible dans le compte de développement.
    5. Une fois le pipeline cible provisionné dans le compte de développement, le développeur peur effectuer des itérations sur ce pipeline.
    6. Une fois le développement terminé, l'orchestrateur (ou un autre compte autorisé) approuve manuellement l'action DeployStaging afin de passer à l'étape DeployStaging.
    7. L'étape DeployStaging déploie le pipeline cible dans le compte de prédéploiement à l'aide de la configuration de prédéploiement.
    8. Les testeurs effectuent différents tests sur le pipeline ainsi déployé.
    9. Une fois que le pipeline a passé avec succès les tests, l'orchestrateur peut approuver l'action DeployProd.
    10. L'étape DeployProd déploie le pipeline cible (avec les configurations de production) dans le compte de production.
    11. Pour finir, le pipeline cible réside en direct dans l'environnement de production. Une notification Amazon Simple Notification Service (Amazon SNS) est envoyée à l'e-mail fourni dans les paramètres de lancement de la solution.

    Utilisez le bouton ci-dessous pour vous abonner aux mises à jour de la solution.

    Remarque : pour vous abonner aux mises à jour RSS, vous devez activer un plug-in RSS pour le navigateur que vous utilisez.  

    Cette mise en oeuvre de solutions vous a-t-elle aidé ?
    Donner mon avis 
Vidéo
Résoudre les problèmes avec des solutions AWS : AWS ML Ops Framework
Retour en haut de la page 
Icône Créer
Déployer vous-même votre solution

Parcourez notre bibliothèque des implémentations des solutions AWS pour obtenir des réponses aux problèmes d'architecture courants.

En savoir plus 
Rechercher un partenaire APN
Rechercher un partenaire APN

Trouvez des partenaires consultants et technologiques certifiés AWS pour vous aider à commencer.

En savoir plus 
Icône Explorer
Explorer les offres de conseil pour les solutions

Parcourez notre portefeuille d'offres de conseil pour obtenir une aide approuvée AWS au déploiement de solutions.

En savoir plus