Veröffentlicht am: Sep 16, 2022
Amazon SageMaker Automatic Model Tuning ermöglicht es Ihnen, die genaueste Version Ihres Machine-Learning-Modells zu finden, indem der optimale Satz von Hyperparameterkonfigurationen ermittelt wird. Die automatische Modelloptimierung von Amazon SageMaker unterstützt jetzt Hyperband, eine neue Suchstrategie, die bei großen Modellen wie tiefen neuronalen Netzen, die Computer-Vision-Probleme lösen, den optimalen Satz von Hyperparametern bis zu dreimal schneller finden kann als die bayessche Suche.
Vor diesem Launch hatten Sie die Möglichkeit, Ihre Modelle entweder durch zufällige oder durch bayessche Suche zu optimieren, bei der jeder im Rahmen der Optimierung gestartete Trainingsjob bis zum vollständigen Abschluss ausgeführt wird. Hyperband ist eine neue Multi-Fidelity-Tuning-Strategie, die sowohl die Zwischen- als auch die Endergebnisse von Trainingsjobs nutzt, um Ressourcen dynamisch vielversprechenden Hyperparameter-Konfigurationen zuzuweisen und die schlecht abschneidenden Trainingsjobs automatisch zu beenden. Bei der Optimierung iterativer Algorithmen, die Ergebnisse auf verschiedenen Ressourcenebenen veröffentlichen, wie z. B. für mehrere Epochen trainierte neuronale Netze oder für mehrere Runden trainierte gradientenverstärkte Entscheidungsbäume, kann Hyperband die optimalen Hyperparameterkonfigurationen bis zu dreimal schneller finden als die zufällige und die bayessche Suche.
Die Hyperband-Suchstrategie ist jetzt für die automatische Modelloptimierung von Amazon SageMaker in allen gewerblichen AWS-Regionen verfügbar. Mehr erfahren Sie im Blog-Beitrag oder in der technischen Dokumentation zur automatischen Modelloptimierung von Amazon SageMaker.