Veröffentlicht am: May 25, 2021
Amazon SageMaker Pipelines, die erste ziel-entwickelte kontinuierliche Integration und kontinuierlicher Lieferservice (CI/CD) für maschinelles Lernen (ML) ist jetzt in SageMaker Experiments integriert. Somit können Kunden ihre ML-Experimente organisieren, nachverfolgen, vergleichen und evaluieren. Kunden können nun Metriken vergleichen, wie Modelltraining-Genauigkeit über mehrere Ausführungen ihrer SageMaker Pipelines hinweg, und sie können solche Metriken über mehrere Versuche eines ML-Modelltraining-Experiments vergleichen. SageMaker Pipelines erstellt automatisch ein Experiment mit dem Pipelinenamen und einen Experiment-Versuch für jede Ausführung der Pipeline. Die Erstellung eines Experiments für eine Pipeline und ein Versuch für jede Pipelineausführung wird standardmäßig aktiviert. Sie können wählen, die automatische Erstellung nicht zu aktivieren.
Zusätzlich können Kunden jetzt die SageMaker Experiments Python SDK nutzen, um die Receiver Operating Characteristic (ROC) Metrik, Precision-recall (PR) Metriken, Confusion Matrix und tabellarische Daten in den SageMaker Trainingaufträgen zu loggen. Die entsprechenden Plots an ROC-Kurven, PR-Kurve, und die Confusion Matrix kann nun in dem Noden-Inspector der SageMaker Pipeline angezeigt werden.
Diese Funktion ist in allen AWS-Regionen verfügbar, in denen Amazon Sagemaker angeboten wird. Weitere Informationen finden Sie auf der Dokumentationsseite.