Publié le: Nov 19, 2021

Aujourd'hui, nous annonçons la disponibilité générale de Syne Tune, une bibliothèque Python open source pour l'optimisation à grande échelle des hyperparamètres distribués et de l'architecture neuronale. Cette solution fournit des implémentations pour plusieurs optimiseurs de pointe mondiaux, tels que l'optimisation bayésienne ou encore l'entraînement d'Hyperband ou l'entraînement basé sur la population. De plus, elle prend en charge l'optimisation limitée à objectifs multiples, et elle permet aux utilisateurs d'apporter leurs propres algorithmes d'optimisation globale.

Avec Syne Tune, les utilisateurs peuvent exécuter des tâches de réglage des hyperparamètres et de l'architecture neuronale localement sur leur machine ou à distance sur Amazon SageMaker en modifiant une seule ligne de code. Le premier est un backend qui s'adapte parfaitement aux plus petites charges de travail à l'expérimentation rapide sur les CPU ou GPU locaux. L'autre s'adapte parfaitement aux plus grandes charges de travail, qui s'accompagnent d'importants coûts d'implémentation. Syne Tune facilite l'utilisation de SageMaker en tant que backend pour évaluer un grand nombre de configurations sur des instances Amazon Elastic Compute Cloud (Amazon EC2) parallèles afin de réduire le temps de calcul, tout en profitant de son riche ensemble de fonctionnalités (par ex., images Docker et cadre deep learning pré-intégrés, instances Spot EC2, suivi des expériences, réseaux privés virtuels).

Pour en savoir plus sur la bibliothèque, consultez la documentation et les exemples disponibles dans notre référentiel GitHub.