Publicado: May 25, 2021
O Amazon SageMaker Pipelines, o primeiro serviço de integração contínua e entrega contínua (CI/CD) para machine learning (ML), agora está integrado ao SageMaker Experiments, um recurso que permite aos clientes organizar, rastrear, comparar e avaliar seus experimentos de ML. Agora, os clientes podem comparar métricas, como a precisão do treinamento de modelos em várias execuções de seus pipelines do SageMaker com a mesma facilidade que comparam essas métricas em várias avaliações de um experimento de treinamento de modelo de ML. O SageMaker Pipelines cria automaticamente um experimento com o nome do pipeline e uma avaliação do experimento para cada execução do pipeline. A criação de um experimento para um pipeline e uma avaliação para cada execução de pipeline está ativada por padrão. Você pode optar por desativar a criação automática.
Além disso, os clientes agora podem usar o SDK Python do SageMaker Experiments para registrar a métrica Receiver Operating Characteristic (ROC), métricas Precision Recall (PR), matriz de confusão e dados tabulares em seus trabalhos de treinamento do SageMaker. Os gráficos correspondentes de curvas de ROC, da curva de PR e da matriz de confusão agora podem ser visualizados no inspetor de nós de Pipeline do SageMaker.
Esse recurso está disponível em todas as regiões da AWS em que o Amazon SageMaker está disponível. Para saber mais, acesse a página de documentação.