Veröffentlicht am: Nov 17, 2022
Amazon SageMaker Autopilot unterstützt jetzt Batch-/Offline-Inferenz innerhalb von Amazon SageMaker Studio, sodass du Batch-Prognosen für Machine Learning (ML)-Modelle durchführen kannst. SageMaker Autopilot erstellt, trainiert und optimiert automatisch die besten ML-Modelle basierend auf deinen Daten und ermöglicht dir gleichzeitig die vollständige Kontrolle und Sichtbarkeit.
Wenn du bisher Offline-Inferenzen für die von Amazon SageMaker Autopilot erstellten ML-Modelle durchführen wolltest, musstest du zunächst die Candidate-Definitionen von SageMaker Autopilot mit der DescribeAutoMLJob-API abrufen, mit diesen Container-Definitionen ein SageMaker-Modell mit der CreateModel-API erstellen und schließlich einen SageMaker-Transformationsauftrag mit der CreateTransformJob-API erstellen, der dann programmgesteuert aufgerufen werden konnte, um Batch-Inferenzen zu erhalten. Ab heute kannst du ein beliebiges SageMaker-Autopilot-Modell auswählen und mit der Batch-Inferenz in SageMaker Studio fortfahren. Zur Durchführung von Batch-Prognosen kannst du Eingabe- und Ausgabedaten konfigurieren und einen Batch-Transformationsauftrag erstellen. Der Transformationsauftrag gibt nach Abschluss den Amazon-S3-Speicherort der Prognosen aus. Jetzt kannst du nahtlos Offline-Inferenzierungen über Amazon SageMaker Studio durchführen, ohne in einen programmgesteuerten Modus wechseln zu müssen.
Um zu beginnen, aktualisiere Amazon SageMaker Studio auf die neueste Version und starte SageMaker Autopilot entweder über den SageMaker Studio Launcher oder über APIs. Mehr Informationen zur Aktualisierung von Studio findest du in der Dokumentation.
Die Batch-Inferenzierung in SageMaker Autopilot ist jetzt in allen Regionen mit Ausnahme von China verfügbar, in denen SageMaker Autopilot verfügbar ist. Um zu beginnen, lies unter Ein Experiment mit Autopilot erstellen und in der API-Referenz von SageMaker Autopilot weiter. Mehr erfährst du auf der Produktseite von SageMaker Autopilot.