Veröffentlicht am: Nov 28, 2018
Amazon SageMaker unterstützt ab sofort die Bereitstellung von Inference Pipelines, so dass Sie Rohdaten übergeben und Vorverarbeitung, Prognosen und Nachbearbeitung von Echtzeit- und Batch-Inferenzanforderungen durchführen können. SageMaker unterstützt zudem zwei neue Machine Learning Frameworks: Scikit-learn und Spark ML. Dies vereinfacht den Aufbau und die Bereitstellung von Feature Preprocessing Pipelines mit einer Reihe von Feature Transformern, die in den neuen SparkML- und scikit-learn-Framework-Containern von Amazon SageMaker verfügbar sind. Diese neuen Funktionen ermöglichen es Ihnen außerdem, SparkML- und Scikit-learn-Code einmalig zu schreiben und für Training und Inferenz wiederzuverwenden, was für Konsistenz in den Vorverarbeitungsschritten und eine einfachere Verwaltung Ihrer Machine Learning-Prozesse sorgt.
In der Regel wird viel Zeit mit der Bereinigung und Aufbereitung von Daten verbracht, bevor Machine Learning-Modelle trainiert werden. Die gleichen Schritte müssen auch während der Inferenz angewendet werden. Bisher erforderten die Eingabedaten für Inferenzanforderungen eine Datenverarbeitung und Funktionsentwicklung, die in der Client-Anwendung ausgeführt werden musste, bevor sie an Amazon SageMaker zur Erstellung von Prognosen gesendet oder in den Inferenz-Container aufgenommen wurden. Mit den neuen Inference Pipelines können Sie Ihre Vor- und Nachbearbeitungsschritte für das Training bündeln und exportieren und als Teil einer Inference Pipeline einsetzen. Inference Pipelines können aus einem beliebigen Machine Learning Framework, einem integrierten Algorithmus oder benutzerdefinierten Containern bestehen, die mit Amazon SageMaker verwendet werden können.
Alle diese Verbesserungen stehen in allen AWS-Regionen zur Verfügung, in denen Amazon SageMaker bereits heute verfügbar ist. Weitere Informationen finden Sie in der Dokumentation.