Publié le: Nov 29, 2023
Nous sommes ravis de vous annoncer la sortie de nouveaux outils et améliorations qui permettent à nos clients de réduire de plusieurs jours à quelques heures le temps nécessaire pour déployer à grande échelle des modèles de machine learning (y compris des modèles de fondation, ou FM) sur Amazon SageMaker for Inference. En particulier, la nouvelle bibliothèque Python SDK simplifie le processus d'empaquetage et de déploiement sur SageMaker d'un modèle de machine learning, qui passe de sept étapes à une seule avec une option d'inférence locale. En outre, Amazon SageMaker propose de nouvelles expériences d'interface utilisateur interactive dans Amazon SageMaker Studio. Nos clients pourront ainsi déployer en seulement trois clics leur modèle de machine learning ou leur FM entraîné à l'aide de configurations performantes et rentables.
Grâce à la nouvelle bibliothèque Amazon SageMaker Python SDK, nos clients peuvent convertir n'importe quel artefact de modèle de framework ou modèle FM en un modèle de machine learning déployable d'un seul appel de fonction. Par ailleurs, quelques minutes leur suffisent pour valider, optimiser et mettre en œuvre localement des modèles de machine learning sur Amazon SageMaker à partir de leur environnement IDE local ou de leur bloc-notes. Les nouvelles expériences interactives de SageMaker Studio permettent de créer facilement un modèle de machine learning déployable, en sélectionnant la version du framework souhaitée et en chargeant des artefacts de modèle préentraînés. D'autres clients peuvent choisir un ou plusieurs modèles de machine learning et modèles FM et les déployer en quelques clics.
Pour plus d'informations sur les régions AWS où Amazon SageMaker Inference est disponible, consultez le tableau des régions AWS.
Pour en savoir plus, consultez la documentation de l'interface ModelBuilder d'Amazon SageMaker Python et les flux de travail de déploiement guidés de Studio.