Publicado en: Nov 19, 2021
Hoy anunciamos la disponibilidad general de Syne Tune, una biblioteca Python de código abierto para la optimización de hiperparámetros y arquitecturas neuronales distribuidas a gran escala. Proporciona implementaciones de varios optimizadores globales de última generación, como la optimización bayesiana, Hyperband y la formación basada en selección. Además, es compatible con la optimización restringida y multiobjetivo, y permite a los usuarios aportar su propio algoritmo de optimización global.
Con Syne Tune los usuarios pueden ejecutar trabajos de ajuste de hiperparámetros y arquitecturas neuronales de forma local en su máquina o de forma remota en Amazon SageMaker cambiando únicamente una línea de código. El primero es un backend muy adecuado para las cargas de trabajo más pequeñas y la experimentación rápida en CPU o GPU locales. Este último es adecuado para las cargas de trabajo más grandes, que vienen con una cantidad sustancial de sobrecarga de implementación. Syne Tune facilita el uso de SageMaker como backend para evaluar un gran número de configuraciones en instancias paralelas de Amazon Elastic Compute Cloud (Amazon EC2) con el fin de reducir el tiempo invertido, mientras se aprovecha de su completo conjunto de funcionalidades (por ejemplo, imágenes de marco de aprendizaje profundo Docker preconstruidas, instancias de spot de EC2, seguimiento de experimentos, redes privadas virtuales).
Para obtener más información sobre la biblioteca, consulte la documentación y los ejemplos en nuestro repositorio de GitHub.