Accélérer le développement de modèles

Fournir des environnements normalisés pour la science des données

La standardisation des environnements de développement ML augmente la productivité des experts en mégadonnées et, en fin de compte, le rythme de l'innovation en facilitant le lancement de nouveaux projets, la rotation de ces experts entre les projets et la mise en œuvre des meilleures pratiques ML. Amazon SageMaker Projects propose des modèles permettant de fournir rapidement des environnements standardisés pour les experts en mégadonnées, avec des outils et des bibliothèques à jour et bien testés, des dépôts de contrôle des sources, du code standard et des pipelines CI/CD.

Collaborer avec les équipes d’experts des données sur les expériences

La construction de modèles ML est un processus itératif qui implique l'entraînement de centaines de modèles différents à la recherche du meilleur algorithme, de la meilleure architecture de modèle et des meilleurs paramètres pour atteindre le niveau de précision de prédiction requis. Vous pouvez suivre les entrées et les sorties à travers ces itérations de formation pour améliorer la répétabilité des essais et la collaboration entre les experts des données en utilisant Amazon SageMaker Experiments, une fonction de gestion des expériences ML entièrement gérée.

SageMaker Experiments assure le suivi des paramètres, des métriques, des ensembles de données et d'autres artefacts liés à vos travaux de formation de modèles. Il offre une interface unique où vous pouvez visualiser vos travaux de formation en cours, partager des expériences avec des collègues et déployer des modèles directement à partir d'une expérience.

Automatiser les flux de formation ML

L'automatisation des flux de formation vous aide à créer un processus reproductible afin d'orchestrer les étapes de développement du modèle pour une expérimentation rapide et une nouvelle formation du modèle. Vous pouvez automatiser l'ensemble du flux de travail de création de modèles, y compris la préparation des données, l'ingénierie des fonctionnalités, l'apprentissage du modèle, le réglage du modèle et la validation du modèle, en utilisant Amazon SageMaker Pipelines. Vous pouvez configurer SageMaker Pipelines pour qu'il s'exécute automatiquement à intervalles réguliers ou lorsque certains événements sont déclenchés, ou vous pouvez l'exécuter manuellement selon les besoins.

Déployez et gérez facilement les modèles en production

Reproduire rapidement vos modèles pour le dépannage

Souvent, vous devez reproduire des modèles en production pour dépanner le comportement du modèle et déterminer la cause racine. Pour vous aider, Amazon SageMaker enregistre chaque étape de votre flux de travail, créant une piste d'audit des artefacts du modèle, tels que les données d'entraînement, les paramètres de configuration, les paramètres du modèle et les gradients d'apprentissage. Grâce au suivi du lignage, vous pouvez recréer des modèles pour déboguer les problèmes potentiels.

Suivre et gérer les versions de modèles de façon centralisée

La construction d'une application ML implique le développement de modèles, de pipelines de données, de pipelines d'entraînement et de tests de validation. Grâce à Amazon SageMaker Model Registry, vous pouvez suivre les versions des modèles, leurs métadonnées, telles que le regroupement des cas d'utilisation, et les bases des mesures de performance des modèles dans un référentiel central où il est facile de choisir le bon modèle à déployer en fonction des exigences de votre entreprise. En outre, SageMaker Model Registry enregistre automatiquement les flux d'approbation à des fins d'audit et de conformité.

Définir l'infrastructure ML par un code

L'orchestration de l'infrastructure par le biais de fichiers de configuration déclaratifs, communément appelée infrastructure en tant que code (infrastructure-as-code), est une approche populaire pour provisionner l'infrastructure ML et mettre en œuvre l'architecture de la solution exactement comme spécifié par les pipelines CI/CD ou les outils de déploiement. Grâce à Amazon SageMaker Projects, vous pouvez écrire une infrastructure en tant que code à l'aide de fichiers modèles préétablis.

Automatisation des flux d'intégration et de déploiement (CI/CD)

Les flux de développement du ML doivent s'intégrer aux flux d'intégration et de déploiement afin de fournir rapidement de nouveaux modèles pour les applications de production. Amazon SageMaker Projects apporte les pratiques CI/CD à ML, telles que le maintien de la parité entre les environnements de développement et de production, le contrôle des sources et des versions, les tests A/B et l'automatisation de bout en bout. Ainsi, vous mettez un modèle en production dès qu'il est approuvé et gagnez en efficacité. 

En outre, Amazon SageMaker offre des garanties intégrées pour vous aider à maintenir la disponibilité des points de terminaison et à minimiser les risques de déploiement. Pour vous aider à identifier automatiquement les problèmes à un stade précoce et à prendre des mesures correctives avant qu'ils n'aient un impact significatif sur la production, SageMaker se charge de mettre en place et d'orchestrer les meilleures pratiques de déploiement telles que les déploiements Bleu/Vert pour maximiser la disponibilité et leur intègration aux mécanismes de mise à jour des points de terminaison, tels que les mécanismes de retour en arrière automatique.

Reconditionner continuellement les modèles pour maintenir la qualité des prédictions

Une fois qu'un modèle est en production, vous devez surveiller ses performances en configurant des alertes afin qu'un expert des données d'astreinte puisse résoudre le problème et déclencher une nouvelle formation. Amazon SageMaker Model Monitor vous aide à maintenir la qualité en détectant la dérive du modèle et du concept en temps réel et en vous envoyant des alertes pour que vous puissiez prendre des mesures immédiates. SageMaker Model Monitor surveille en permanence les caractéristiques de performance des modèles, telle que la précision, qui mesure le nombre de prédictions correctes par rapport au nombre total de prédictions, afin que vous puissiez remédier aux anomalies. SageMaker Model Monitor est intégré à SageMaker Clarify pour améliorer la visibilité des biais potentiels.

Optimiser le déploiement du modèle en termes de performances et de coûts

Amazon SageMaker permet de déployer facilement des modèles ML pour l'inférence à haute performance et à faible coût pour tous les cas d'utilisation. Il offre une large sélection d'options d'infrastructure et de déploiement de modèles ML pour répondre à tous vos besoins d'inférence ML.

Témoignage client

NWG_LOGO_HZ_POS_RGB_forpsd

NatWest Group, une grande institution de services financiers, a standardisé son processus de développement et de déploiement de modèles de ML à travers l'organisation, réduisant le cycle de rotation pour créer de nouveaux environnements de ML de 40 jours à 2 jours et accélérant le temps de valeur pour les cas d'utilisation de ML de 40 à 16 semaines.

AstraZeneca

« Plutôt que de créer de nombreux processus manuels, nous pouvons automatiser la majeure partie du processus de développement du machine learning simplement au sein d'Amazon SageMaker Studio. » 

Cherry Cabading, architecte en chef d’entreprise mondial – AstraZeneca

Janssen

Grâce aux services AWS, dont Amazon SageMaker, Janssen a mis en œuvre un processus MLOps automatisé qui a amélioré la précision des prédictions du modèle de 21 % et augmenté la vitesse de l'ingénierie des fonctionnalités d'environ 700 %, aidant ainsi Janssen à réduire ses coûts tout en augmentant son efficacité.

qualtrics

« Amazon SageMaker améliore l'efficacité de nos équipes MLOps grâce aux outils nécessaires pour tester et déployer des modèles de machine learning à l'échelle. »

Samir Joshi, Ingénieur ML – Qualtrics

Ressources

Nouveautés

Soyez informés des dernières nouveautés de SageMaker MLOps

Blog

Feuille de route des fondations MLOps pour les entreprises

Webinaire

Épisode SageMaker Friday: Automatiser les flux de travail ML

Vidéo

Détecter la dérive des données NLP à l'aide de SageMaker Model Monitor

Blog

Créez des flux de travail MLOps avec SageMaker Projects et les pipelines GitLab

Commencez par une démonstration

Regardez cette démonstration pour apprendre à automatiser les MLOps avec SageMaker Projects.

Regarder la vidéo 
Didacticiel de mise en route avec Amazon Pinpoint
Essayer un didacticiel pratique

Suivez ce tutoriel étape par étape pour automatiser un flux de travail ML.

En savoir plus 
Commencez à créer sur la console

Commencez à créer à l'aide de SageMaker dans la console de gestion AWS.

Se connecter 

Nouveautés

  • Date (de la plus récente à la plus ancienne)
Aucun résultat correspondant
1