Publicado: Nov 30, 2022
O Amazon SageMaker oferece suporte a testes de sombra para ajudar você a validar a performance de novos modelos de machine learning (ML) ao compará-los com modelos de produção. Com o teste de sombra, você pode identificar possíveis erros de configuração e problemas de performance antes que eles afetem os usuários finais. O SageMaker elimina semanas de tempo gasto na criação de infraestrutura para teste de sombra, para que você possa liberar modelos para produção mais rapidamente.
O teste de atualizações do modelo envolve o envio de uma cópia das solicitações de inferência recebidas pelo modelo de produção para o novo modelo e o rastreamento de sua performance. No entanto, pode levar várias semanas para criar sua própria infraestrutura de teste, espelhar solicitações de inferência e comparar a performance dos modelos. O Amazon SageMaker permite avaliar um novo modelo de ML testando sua performance em relação ao modelo de produção implantado atual. Basta selecionar o modelo de produção com o qual deseja testar e o SageMaker implanta automaticamente o novo modelo para inferência. O SageMaker encaminha uma cópia das solicitações de inferência recebidas pelo modelo de produção para o novo modelo e cria um painel ao vivo que mostra as diferenças de performance nas principais métricas, incluindo latência e taxa de erro em tempo real. Depois de revisar as métricas de performance e validar a performance do modelo, você pode implantar rapidamente o modelo na produção.
Para saber mais, consulte a página da Web de teste de sombra do Amazon SageMaker. Para obter informações sobre preços, consulte os preços do Amazon SageMaker. O suporte do SageMaker para teste de sombra geralmente está disponível em todas as regiões da AWS nas quais a inferência do SageMaker é oferecida, exceto as regiões China (Pequim, operada pela Sinnet), China (Ningxia, operada pela NWCD) e AWS GovCloud (EUA).
Para começar a usar, consulte esta lista de recursos: