Amazon SageMaker for IT Ops

Amazon SageMaker for IT Ops

ML Ops

Amazon SageMaker permet aux ingénieurs informatiques de déployer facilement des modèles de ML en production. Vous pouvez créer et automatiser des flux de travail pour prendre en charge le développement de milliers de modèles avec une infrastructure évolutive et des pipelines d'intégration continue et de livraison continue (CI/CD). 

CI/CD pour ML

Collecter et préparer des données d'entraînement

Amazon SageMaker a tout ce dont vous avez besoin pour agréger des données provenant de sources de données disparates afin de les rendre prêtes pour le machine learning. 

Connecter facilement aux sources de données

En utilisant Amazon SageMaker Data Wrangler, vous pouvez vous connecter à des sources de données, telles que Amazon Athena, Amazon Redshift, AWS Lake Formation et Amazon S3, et importer facilement des données dans différents formats de fichiers, tels que des fichiers CSV, des fichiers JSON non structurés et des tables de base de données directement dans SageMaker. Vous pouvez également créer facilement un pipeline de données en quelques clics.

En savoir plus »
SageMaker Data Wrangler

Sécurisé

Amazon SageMaker vous permet de travailler dans un environnement de ML entièrement sécurisé dès le premier jour. Vous pouvez utiliser un ensemble complet de fonctionnalités de sécurité, notamment la sécurité de l'infrastructure, le contrôle d'accès, la protection des données et les certifications de conformité à jour dans un large éventail de secteurs d'activité.

En savoir plus »
SageMaker Security

Créer des modèles

Alors que le machine learning prolifère dans les différentes entités de l'entreprise, Amazon SageMaker garantit que votre infrastructure peut s'adapter à la création de centaines voire de milliers de modèles. 

Blocs-notes Jupyter en un clic

Les blocs-notes Amazon SageMaker Studio sont des blocs-notes Jupyter en un clic qui peuvent être démarrés rapidement. Les ressources de calcul sous-jacentes sont entièrement élastiques, de sorte que vous pouvez facilement augmenter ou diminuer les ressources disponibles et que les changements s'effectuant automatiquement en arrière-plan sans interrompre votre travail. Les blocs-notes peuvent être partagés en un seul clic, vos collègues obtiennent exactement le même bloc-notes, enregistré au même endroit. 

Mise en route »
Bloc-notes Jupyter

Entraîner et ajuster les modèles

Amazon SageMaker vous aide à gérer la croissance exponentielle des données d'entraînement, en s'adaptant facilement à une gestion efficace et rentable de pétaoctets de données.

Entraînement en un clic

Lorsque vous êtes prêt à entraîner dans Amazon SageMaker, il vous suffit de spécifier l'emplacement de vos données dans Amazon S3, d'indiquer le type et la quantité d'instances de SageMaker ML dont vous avez besoin et de démarrer d'un simple clic. SageMaker configure un cluster de calcul distribué, effectue l'entraînement, transmet le résultat à Amazon S3, puis supprime le cluster une fois terminé. 

Mise en route »
Entraînement en un clic

Entraînement Spot géré

Amazon SageMaker propose Entraînement Spot géré pour vous aider à réduire les coûts d'entraînement jusqu'à 90 %. Cette solution utilise des instances Spot Amazon EC2, qui constitue une réserve de capacité de calcul d’AWS. Les tâches d'entraînement sont automatiquement exécutées lorsque la capacité de calcul devient disponible et sont rendues résilients aux interruptions causées par les modifications dans la capacité, ce qui vous permet de faire des économies puisque vous avez la possibilité de choisir le moment où vous voulez exécuter les tâches d'entraînement.

Mise en route »
Entraînement Spot géré

Déployer les modèles en production

Amazon SageMaker dispose de tous les outils nécessaires pour créer des flux de travail évolutifs et sécurisés.

Flux de travail automatisés

Amazon SageMaker Pipelines vous aide à créer, automatiser et gérer des flux de travail de ML de bout en bout à l'échelle en utilisant les pratiques de CI/CD. Une fois que les flux de travail sont créés, ils peuvent être visualisés et gérés dans SageMaker Studio. SageMaker Pipelines s'occupe de toutes les tâches lourdes liées à la gestion des dépendances entre chaque étape du flux de travail de ML. Vous pouvez à tout moment exécuter à nouveau des flux de travail complets avec des données mises à jour pour que vos modèles restent précis, et partager les flux de travail avec d'autres équipes pour collaborer sur des projets. 

En savoir plus »
SageMaker Pipelines

Intégration avec Kubernetes

Vous pouvez utiliser les capacités de gestion intégrée d'Amazon SageMaker pour le machine learning, tout en continuant à utiliser Kubernetes pour l'orchestration et la gestion des pipelines. SageMaker permet aux utilisateurs d'entraîner et de déployer des modèles en utilisant Kubernetes Operators for SageMaker. En plus, vous pouvez utiliser Amazon SageMaker Components for Kubeflow Pipelines qui vous permet de profiter des puissantes fonctionnalités de SageMaker telles que l'étiquetage des données, l'ajustement des hyperparamètres à grande échelle entièrement géré et les tâches d'entraînement distribuées, le déploiement de modèles sécurisés et évolutifs en un clic, sans avoir besoin de configurer et de gérer les clusters Kubernetes pour exécuter spécifiquement les tâches de machine learning. 

En savoir plus »

Calcul supplémentaire pour l'inférence

Amazon Elastic Inference vous permet de joindre la quantité appropriée d'accélération d'inférence alimentée par GPU à tout type d'instance Amazon SageMaker sans modification de code. Vous pouvez choisir le type d'instance le mieux adapté aux besoins globaux de votre application en matière de processeur et de mémoire, puis configurer séparément la quantité d'accélération d'inférence dont vous avez besoin pour utiliser efficacement les ressources et réduire les coûts d'exécution d'inférence. 

Mise en route »

Déploiement en un clic

Amazon SageMaker facilite le déploiement en production du modèle formé : en un seul clic,vous pouvez commencer à générer des prédictions concernant les données en temps réel ou par lot. En un clic,vous pouvez déployer vos modèles sur des instances de machine learning Amazon à scalabilité automatique dans de nombreuses zones de disponibilité, pour obtenir une forte redondance. SageMaker lance les instances, déploie votre modèle et configure le point de terminaison HTTPS sécurisé pour votre application.

Mise en route »

Points de terminaison à plusieurs modèles

Amazon SageMaker offre un moyen évolutif et rentable de déployer un grand nombre de modèles de machine learning personnalisés. SageMaker Multi-Model Endpoints vous permet de déployer plusieurs modèles en un seul clic sur un seul point de terminaison et de les servir en utilisant un seul conteneur de service.

Mise en route »