Veröffentlicht am: Jun 10, 2022
SageMaker Experiments unterstützt jetzt fein abgestufte Metriken und Graphen, mit denen Sie die Ergebnisse von auf SageMaker ausgeführten Training-Jobs besser verstehen können. Amazon SageMaker Experiments ist eine Funktion von Amazon SageMaker, die das Sortieren, Nachverfolgen, Vergleichen und Evaluieren von Machine Learning (ML)-Experimenten ermöglicht. Mit diesem Launch können Sie nun Precision- und Recall-Kurven (PR), Receiver-Operating-Characteristics-Kurven (ROC) und die Konfusionsmatrix anzeigen. Sie können mit diesen Kurven falsche Positive/Negative sowie Kompromisse zwischen Leistung und Genauigkeit von auf SageMaker trainierten Modellen nachvollziehen. Außerdem können Sie besser mehrere Trainingsläufe vergleichen und das beste Modell für Ihren Anwendungsfall finden.
Um zu beginnen, verwenden Sie das Python-SDK zur Protokollierung von Metriken für Ihre Testläufe aus Ihrem Trainingsskript. Um Diagramme für Ihre Testläufe anzuzeigen, navigieren Sie zur Diagrammregisterkarte in der Experiments-Oberfläche in SageMaker Studio. Diese Funktion ist ab heute in allen Regionen verfügbar, in denen Sagemaker Experiments verfügbar ist. Informationen zu den ersten Schritten mit SageMaker Experiments finden Sie auf der Dokumentseite oder greifen Sie in SageMaker Studio auf SageMaker Experiments zu.