MLOps Workload Orchestrator na AWS

Implante um pipeline robusto que usa ferramentas de automação gerenciada e serviços de ML para simplificar o desenvolvimento e a produção de modelos de ML

Visão geral

O MLOps Workload Orchestrator ajuda a simplificar e aplicar as práticas recomendadas de arquitetura para a produção de modelos de machine learning (ML). Essa solução da AWS é um framework extensível que fornece uma interface padrão para gerenciar pipelines de ML para serviços de ML da AWS e de terceiros.

O modelo da solução permite que você treine modelos, carregue seus modelos treinados (também conhecido como traga seu próprio modelo [BYOM]), configure a orquestração do pipeline e monitore as operações do pipeline. Ao usar essa solução, você pode aumentar a agilidade e a eficiência da sua equipe, permitindo que ela repita processos bem-sucedidos em grande escala.

Benefícios

Aproveite um pipeline de ML pré-configurado
Use a arquitetura de referência da solução para iniciar um pipeline pré-configurado por meio de uma chamada de API ou de um repositório Git.
Implante automaticamente um modelo treinado e um endpoint de inferência
Use a estrutura da solução para automatizar o pipeline do monitor de modelos do pipeline do Amazon SageMaker BYOM. Forneça um endpoint de inferência com detecção de desvio de modelos empacotada como um microsserviço sem servidor.
Visualize seus recursos em um painel

Use o painel do Amazon SageMaker Model para visualizar seus recursos do Amazon SageMaker criados pela solução (como modelos, endpoints, cartões de modelo e trabalhos de transformação em lote).

Detalhes técnicos

É possível implantar automaticamente essa arquitetura ao usar o guia de implementação e o modelo do AWS CloudFormation que o acompanha. Para atender a diversos casos de uso e necessidades de negócios, essa solução oferece quatro modelos do AWS CloudFormation:

  1. Use o modelo de conta única para implantar todos os pipelines da solução na mesma conta da AWS. Essa opção é adequada para experimentação, desenvolvimento e/ou workloads em produção em pequena escala.
  2. Use o modelo de multicontas para fornecer vários ambientes (por exemplo, desenvolvimento, preparação e produção) por meio de diferentes contas da AWS, o que melhora a governança e aumenta a segurança e o controle da implantação do pipeline de ML, proporciona experimentação segura e inovação mais rápida, além de manter os dados de produção e as workloads seguros e disponíveis para ajudar a garantir a continuidade dos negócios.
  • Opção 1 - Implantação de conta única
  • Opção 2 - Implantação de multicontas
Estudo de caso
Orquestrador do ciclo de vida de modelos MLOps da Cognizant reduz o tempo de implantação de modelos de machine learning de semanas para horas com soluções da AWS

Em colaboração com as equipes de arquitetos de soluções de parceiros da AWS e da biblioteca de soluções da AWS, a Cognizant criou sua solução de orquestrador do ciclo de vida de modelos MLOps com base no orquestrador de workload de MLOps.

Leia o estudo de caso 
Casos de uso dessa solução da AWS
  • Título
Mais...
Opções de implantação
Pronto para começar?
Implante esta solução a partir do seu Console da AWS

Precisa de ajuda? Implante com um parceiro.
Encontre um especialista terceirizado certificado pela AWS para ajudar com essa implantação

Essa página foi útil para você?