Publicado en: Nov 28, 2018
Amazon Sagemaker ahora admite la implementación de canalizaciones de inferencia para que pueda pasar datos de entrada sin procesar y ejecutar el procesamiento previo, las predicciones y el procesamiento posterior en solicitudes de inferencia por lotes y en tiempo real. SageMaker también admite dos nuevos marcos de aprendizaje automático: Scikit-learn y Spark ML. Esto facilita la creación e implementación de canalizaciones de procesamiento previo de características con un conjunto de transformadores de características disponibles en los nuevos contenedores de los marcos SparkML y scikit-learn en Amazon SageMaker. Estas nuevas capacidades también le permiten escribir código SparkML y Scikit-learn una vez y reutilizarlo para formación e inferencia, lo que ofrece consistencia en los pasos del procesamiento previo y una administración más sencilla de los procesos de aprendizaje automático.
Por lo general, se dedica mucho tiempo a limpiar y preparar los datos antes de formar modelos de aprendizaje automático. Los mismos pasos también deben aplicarse durante la inferencia. Anteriormente, los datos de entrada para las solicitudes de inferencia requerían que se ejecutaran los pasos para el procesamiento de datos y el diseño de características en la aplicación cliente antes de enviarlos a Amazon SageMaker para realizar predicciones, o para que se los incluya en el contenedor de inferencia. Con las nuevas canalizaciones de inferencias, puede agrupar y exportar los pasos anteriores y posteriores del procesamiento que se utilizan en la formación e implementarlos como parte de una de ellas. Las canalizaciones de inferencia pueden estar compuestas por cualquier marco de aprendizaje automático, algoritmo incorporado o contenedores personalizados que se puedan usar en Amazon SageMaker.
Todas estas mejoras están disponibles en las regiones de AWS donde Amazon SageMaker está disponible hoy en día. Consulte la documentación para obtener más información.