Publicado: Feb 8, 2022

O Amazon SageMaker Autopilot desenvolve, treina e ajusta automaticamente os melhores modelos de machine learning com base nos dados, permitindo que você mantenha total controle e visibilidade. A partir de hoje, o SageMaker Autopilot oferece novas métricas e relatórios que fornecem melhor visibilidade da performance do modelo para problemas de classificação. Você pode aproveitar essas métricas para obter mais insights sobre o melhor modelo da tabela de classificação de modelos.

Novas métricas e relatórios incluem matriz de confusão, área sob a curva característica de operação do receptor (AUC-ROC) e área sob a curva de precisão-recall (AUC-PR), que ajudam na compreensão de falso-positivos/falso-negativos, compensações entre verdadeiro- positivos e falso-positivos, compensações entre precisão e recall para avaliar as características de performance do melhor modelo. Especificamente, a matriz de confusão ajuda a visualizar a performance do modelo em relação a diferentes classes/títulos, a área sob a característica operacional do receptor (AUC-ROC) é representativa da compensação entre as taxas de verdadeiro-positivos e falso-positivos, e a área sob a curva de precisão-recall ( AUC-PR) é representativa da compensação entre precisão e recall. Essas novas métricas estão disponíveis em uma nova guia “Performance” em “Model Details” (Detalhes do modelo) para o melhor candidato a modelo e podem ser baixadas em um relatório em pdf. Conforme disponível anteriormente, métricas escalares adicionais, como F1, macro F1, AUC, MSE e de precisão estão disponíveis para todos os candidatos a modelo da tabela de classificação.

A partir de hoje, esses novos relatórios de modelo e insights para o melhor candidato estão disponíveis em todas as regiões onde o SageMaker Autopilot está disponível. Para saber mais, consulte Autopilot Model Reports (Relatórios de modelo de piloto automático). Para começar a usar o SageMaker Autopilot, consulte a página do produto ou acesse o SageMaker Autopilot no SageMaker Studio.