Publié le: Nov 28, 2018

Amazon Sagemaker prend désormais en charge le déploiement de pipelines d'inférence afin que vous puissiez transmettre des données d'entrée brutes et exécuter des pré-traitements, des prédictions et des post-traitements sur des demandes d'inférence en temps réel et par lots. SageMaker prend également en charge deux nouveaux frameworks machine learning : Scikit-learn et Spark ML. Cela facilite la création et le déploiement de pipelines de prétraitement des fonctionnalités avec une suite de transformateurs de fonctionnalités disponibles dans les nouveaux conteneurs de framework SparkML et scikit-learn dans Amazon SageMaker. Ces nouvelles fonctionnalités vous permettent également d'écrire le code SparkML et Scikit-learn une seule fois et de le réutiliser pour la formation et l'inférence, ce qui assure la cohérence des étapes de pré-traitement et facilite la gestion de vos processus machine learning.

Généralement, beaucoup de temps est requis pour nettoyer et à préparer les données avant de les utiliser pour former des modèles de machine learning. Les mêmes étapes doivent également être appliquées lors de l'inférence. Auparavant, les données d'entrée pour les demandes d'inférence nécessitaient l'exécution d'étapes de traitement des données et d'ingénierie de fonctionnalités dans l'application client avant leur envoi vers Amazon SageMaker à des fins de prédiction, ou pour être incluses dans le conteneur d'inférence. Avec les nouveaux pipelines d'inférence, vous pouvez regrouper et exporter vos étapes de pré-traitement et de post-traitement utilisées dans la formation et les déployer dans le cadre d'un pipeline d'inférence. Les pipelines d'inférence peuvent être composés de n’importe quel framework de machine learning, algorithme intégré ou conteneurs personnalisés utilisables sur Amazon SageMaker.

Toutes ces améliorations sont disponibles dans toutes les régions AWS dans lesquelles Amazon SageMaker est disponible en ce moment. Pour en savoir plus, consultez la documentation.