Publicado en: May 25, 2021
Amazon SageMaker Pipelines, el primer servicio personalizado de integración y entrega continuas (CI/CD) para machine learning (ML), está integrado ahora con SageMaker Experiments, una capacidad que permite a los clientes organizar, realizar un seguimiento, comparar y evaluar sus experimentos de ML. Los clientes pueden ahora comparar métricas, como las de precisión de entrenamiento del modelo, en varias ejecuciones de SageMaker Pipelines con la misma facilidad con la que comparan dichas métricas en varias pruebas de un experimento de entrenamiento de modelos de ML. SageMaker Pipelines crea automáticamente un experimento con el nombre de la canalización y una prueba de experimento para cada ejecución de la canalización. La creación de un experimento para una canalización y una prueba por cada ejecución de canalización está activada de forma predeterminada. Puede elegir desactivar la creación automática.
Además, los clientes pueden utilizar ahora el SDK de Python de SageMaker Experiments para registrar métricas de característica operativa del receptor (Receiver Operating Characteristic, ROC), métricas de precisión y exhaustividad (Precision-recall, PR), matrices de confusión y datos tabulares en sus trabajos de entrenamiento de SageMaker. Los gráficos correspondientes de curvas ROC, la curva PR y la matriz de confusión se pueden consultar ahora en el inspector de nodos de SageMaker Pipeline.
Esta característica está disponible en todas las regiones de AWS en las que Amazon SageMaker está disponible. Para obtener más información, visite la página de la documentación.