Publicado en: Nov 29, 2023

Nos complace anunciar nuevas herramientas y mejoras que permiten a los clientes reducir el tiempo, de días a horas, que toma implementar modelos de machine learning (ML), incluidos los modelos fundacionales (FM) en Amazon SageMaker para inferencias a escala. Esto incluye una nueva biblioteca del SDK de Python que simplifica el proceso en el que se empaqueta e implementa un modelo de ML en SageMaker de siete pasos a uno, con la opción de realizar inferencias locales. Además, Amazon SageMaker ofrece nuevas experiencias de interfaz de usuario interactivas en Amazon SageMaker Studio que ayudarán a los clientes a implementar rápidamente los modelos de ML o FM entrenados mediante configuraciones rentables y optimizadas con tan solo tres clics.

Con la nueva biblioteca Amazon SageMaker Python SDK, los clientes pueden tomar cualquier artefacto del modelo de marco o FM públicas y convertirlos fácilmente en un modelo de ML desplegable con una sola llamada a una función. Además, los clientes pueden validar, optimizar e implementar localmente modelos de ML en Amazon SageMaker en pocos minutos desde sus IDE o cuadernos locales. Las nuevas experiencias interactivas de SageMaker Studio permitirán a los clientes crear fácilmente un modelo de ML desplegable mediante la selección de la versión de marco que prefieran y la carga de artefactos de modelo previamente entrenados. Otros clientes pueden seleccionar uno o más de sus modelos de ML o FM desplegables e implementarlos con solo un par de clics. 

Para obtener más información sobre las regiones de AWS en las que está disponible Amazon SageMaker Inference, consulte la tabla Región de AWS.

Para obtener más información, consulte la documentación de la interfaz Python de Amazon SageMaker ModelBuilder y los flujos de trabajo de implementación guiados en Studio.