Publicado: Nov 19, 2021
Anunciamos hoje a disponibilização geral da Syne Tune, uma biblioteca Python de código aberto para a otimização em grande escala de hiperparâmetros distribuídos e arquitetura neural. Ela fornece implementações de vários otimizadores globais de última geração, como otimização bayesiana, Hyperband e treinamento baseado em população. Além disso, ela é compatível com otimização restrita e com muitos objetivos e permite que os usuários introduzam seus próprios algoritmos de otimização global.
Com a Syne Tune, os usuários podem executar trabalhos de ajuste de hiperparâmetros e arquitetura neural localmente em suas máquinas ou remotamente no Amazon SageMaker alterando apenas uma linha de código. A anterior é um backend ideal para workloads menores e experimentações mais rápidas em CPUs ou GPUs locais. A última é ideal para workloads maiores, que vem com uma quantidade substancial de sobrecarga de implementação. A Syne Tune facilita o uso do SageMaker como um backend para avaliar um grande número de configurações em instâncias paralelas do Amazon Elastic Compute Cloud (Amazon EC2) para reduzir o tempo total, aproveitando, ao mesmo tempo, o seu grande conjunto de funcionalidades (por exemplo, imagens de framework de aprendizado profundo do Docker criadas previamente, instâncias spot do EC2, rastreamento de experimentos, redes privadas virtuais).
Para saber mais sobre a biblioteca, confira o nosso repositório do GitHub para ver a documentação e exemplos.