Publié le: Dec 1, 2019

Avec les opérateurs Amazon SageMaker pour Kubernetes, il est facile pour les développeurs et les spécialistes des données de former, d’ajuster et de déployer des modèles de machine learning (ML) dans Amazon SageMaker.

Les clients utilisent Kubernetes, un système d’orchestration de conteneurs d’utilisation courante, pour installer des pipelines reproductibles et maintenir un meilleur contrôle et une meilleure portabilité sur leurs charges de travail. Mais lorsqu’ils exécutent des charges de travail de ML dans Kubernetes, les clients doivent aussi gérer et optimiser l’infrastructure de ML sous-jacente, s’assurer que la disponibilité et la fiabilité sont suffisamment élevées, fournir les outils de ML permettant aux spécialistes des données d’être plus productifs et satisfaire les critères appropriés de sécurité et de réglementation. Grâce à Amazon SageMaker pour Kubernetes, les clients peuvent faire appel à SageMaker en utilisant l’API Kubernetes ou des outils Kubernetes comme kubectl pour créer et interagir avec leurs tâches de ML dans SageMaker. Cela permet aux clients Kubernetes de bénéficier de la portabilité et de la standardisation de Kubernetes et EKS, ainsi que de services de ML entièrement gérés avec Amazon SageMaker.

Les clients peuvent utiliser les opérateurs Amazon SageMaker pour la formation de modèles, pour l’optimisation des hyperparamètres des modèles, pour l’inférence en temps réel et pour l’inférence par lot. Les clients Kubernetes peuvent à présent tirer profit de tous les avantages de la formation de modèles de ML entièrement gérée dans SageMaker, notamment Managed Spot Training, pour économiser jusqu’à 90 % des coûts. Ils peuvent également profiter de la formation distribuée pour réduire les temps de formation en effectuant une mise à l’échelle sur plusieurs nœuds GPU. Les ressources de calcul sont mises à disposition uniquement sur demande, mises à l’échelle selon les besoins et fermées automatiquement lorsque les tâches sont terminées, ce qui garantit une utilisation proche de 100 %. Pour l’ajustement des hyperparamètres, les clients peuvent utiliser le réglage de modèle automatique de SageMaker, ce qui permet d’éviter aux spécialistes des données de passer des jours, voire des semaines, à améliorer la précision du modèle. Les clients peuvent également utiliser l’instance Spot pour le réglage de modèle automatique. Pour l’inférence, les clients peuvent utiliser les opérateurs SageMaker pour déployer les modèles formés dans SageMaker dans des clusters entièrement gérés à scalabilité automatique et pour s’étendre sur plusieurs zones de disponibilité, afin de garantir la performance et la disponibilité élevées nécessaires à la prédiction en temps réel ou par lot.

Actuellement, les opérateurs Amazon SageMaker pour Kubernetes sont généralement disponibles dans les régions USA Est (Ohio), USA Est (Virginie du Nord), USA Ouest (Oregon) et UE (Irlande). Faites vos premiers pas avec les tutoriels étape par étape de notre guide de l’utilisateur et du dépôt GitHub.