Veröffentlicht am: Jul 8, 2022

Heute freuen wir uns, ankündigen zu können, dass Experimente bei Amazon SageMaker Autopilot nun bis zu doppelt so schnell ML-Modelle mit hoher Modellperformance generieren. Amazon SageMaker Autopilot ist ein codearmes Machine-Learning-Produkt (ML), das automatisch die besten Modelle für Machine Learning basierend auf Ihren Daten erstellt, trainiert und optimiert und Ihnen gleichzeitig die vollständige Kontrolle und Sichtbarkeit ermöglicht. Mit wachsenden Datensätzen kann sich das Trainieren und Optimieren von Modellen jedoch als rechnerisch kostspielig erweisen. 

Ab heute verwendet SageMaker Autopilot eine Zero-Shot-Hyper-Parameter-Initialisierungsmethode und ml.m5.12xlarge-Instances (48 vCPUs, 192 GB Speicher), was die Anzahl der nötigen Standardtests von 250 auf 100 reduziert. Das Ergebnis ist, dass ein Experiment bei SageMaker Autopilot sich nun bis zu doppelt so schnell als zuvor abschließen lässt, um das ML-Modell mit der besten Leistung zu liefern. Zur Bewertung der Performance-Verbesserungen verwendeten wir mehrere OpenML Benchmark-Datensätze in verschiedenen Größen von 0,5 MB bis 1 GB. Basierend auf unseren Ergebnissen konnten wir bei kleineren Datensätzen (< 100MB) eine Job-Gesamtlaufzeitverbesserung von bis zu 45 % (von durchschnittlich 230 auf 120 Minuten) feststellen, während wir bei mittleren (> 100 MB < 1 GB) und großen (> 1 GB) Datensätzen eine Verbesserung von 40 % (von durchschnittlich 540 auf 430 Minuten) feststellen konnten. Mit diesen Verbesserungen können Sie Ihre SageMaker Autopilot-Excperimente nun schneller ausführen, ohne Änderungen an bestehenden Job-Konfigurationen vornehmen zu müssen.

Mehr über SageMaker Autopilot erfahren Sie auf der Produktseite von SageMaker Autopilot und in der Dokumentation.