Publicado en: Aug 2, 2019
Lasnuevas capacidades de seguimiento de modelos para Amazon SageMaker ya están disponibles de forma general en todas las regiones de AWS en las que se ofrece Amazon SageMaker. Con estas nuevas capacidades, puede encontrar y comparar rápida y fácilmente sus experimentos de entrenamiento de modelos de aprendizaje automático. Ya sea mediante la consola de administración de AWS o el SDK de AWS, puede buscar rápidamente miles de experimentos de entrenamiento de modelos y comparar métricas para evaluar el rendimiento en diferentes iteraciones, lo que acelera su capacidad para identificar los modelos con mejor rendimiento.
Desarrollar modelos de aprendizaje automático es un proceso iterativo. Puede probar diferentes combinaciones de datos, algoritmos y parámetros para ajustar el modelo. A menudo, esta experimentación continua resulta en una gran cantidad de versiones de modelos, lo que dificulta el seguimiento de los experimentos y demora la detección del modelo más efectivo. Además, el seguimiento de las variables de una versión de modelo específica se vuelve tedioso con el tiempo, lo que dificulta las tareas de auditoría y la verificación de asuntos de conformidad. Con las nuevas capacidades de seguimiento de modelos de Amazon SageMaker, puede identificar rápidamente el modelo más relevante mediante la búsqueda a través de diferentes parámetros, incluido el algoritmo de aprendizaje, la configuración de hiperparámetros y cualquier etiqueta que se haya agregado durante las sesiones de entrenamiento. También puede comparar y clasificar las sesiones de entrenamiento en función de sus métricas de rendimiento, como la pérdida de entrenamiento y la precisión de la validación, para identificar rápidamente los modelos de mayor rendimiento.
Puede comenzar a utilizar nuestros blocs de notas de muestra y obtener más información sobre la característica en el blog y la guía para desarrolladores.