Orquestador de cargas de trabajo de MLOps en AWS

Implemente una canalización robusta que utiliza herramientas de automatización administradas y servicios de ML para simplificar el desarrollo y la producción de modelos de ML

Información general

La solución Orquestador de cargas de trabajo de MLOps ayuda a optimizar y aplicar las prácticas recomendadas de arquitectura para la producción de modelos de machine learning (ML). Esta solución de AWS consiste en un marco ampliable que brinda una interfaz estándar para administrar canalizaciones de ML para servicios de ML de AWS y de terceros.

La plantilla de la solución le permite entrenar sus modelos, cargar los modelos entrenados (lo que también se conoce como “utilice su propio modelo” [BYOM]), configurar la orquestación de la canalización y supervisar las operaciones. Al usar esta solución, puede potenciar la agilidad y la eficiencia de su equipo al permitirle repetir a escala procesos que han tenido éxito.

Beneficios

Use una canalización de ML preconfigurada
Utilice la arquitectura de referencia de la solución para iniciar una canalización configurada con anterioridad mediante una llamada a la API o un repositorio de Git.
Implemente de manera automática un modelo entrenado y un punto de enlace de inferencia
Utilice el marco de la solución para automatizar la canalización del monitor de modelos o la canalización de BYOM de Amazon SageMaker. Entregue un punto de conexión de inferencia con detección de desviación de modelo empaquetado como un microservicio sin servidores.
Vea sus recursos en un tablero

Use el tablero de modelos de Amazon SageMaker para ver sus recursos de Amazon SageMaker creados por la solución (como modelos, puntos de conexión, tarjetas de modelos y trabajos de transformación por lotes).

Detalles técnicos

Puede implementar automáticamente esta arquitectura con la guía de implementación y la plantilla de AWS CloudFormation adjunta. Para admitir varios casos de uso y necesidades empresariales, esta solución ofrece dos plantillas de AWS CloudFormation:

  1. Utilice la plantilla de una sola cuenta para implementar todas las canalizaciones de la solución en la misma cuenta de AWS. Esta opción es adecuada para las cargas de trabajo de producción a pequeña escala, experimentación o desarrollo.
  2. Utilice la plantilla de varias cuentas para aprovisionar múltiples entornos (por ejemplo, desarrollo, ensayo y producción) en diferentes cuentas de AWS, lo que mejora la gobernanza y fortalece la seguridad y el control de la implementación de la canalización de ML, permite experimentar de manera segura e innovar de forma más rápida, además de que mantiene las cargas de trabajo y los datos de producción seguros y disponibles para ayudar a garantizar la continuidad empresarial.
  • Opción 1: implementación en una sola cuenta
  • Opción 2: implementación en varias cuentas
Caso práctico
El orquestador de ciclo de vida del modelo de MLOps de Cognizant acelera el despliegue de modelos de machine learning de semanas a horas gracias a las soluciones de AWS

En colaboración con los equipos de arquitectura de las soluciones de socio de AWS y la biblioteca de soluciones de AWS, Cognizant creó su orquestador de ciclo de vida del modelo de MLOps sobre de la solución de orquestador de cargas de trabajo de MLOps.

Lea el caso práctico 
Casos de uso de esta solución de AWS
  • Encabezado
Más...
Acerca de esta implementación
  • Fecha de publicación
Opciones de despliegue
¿Listo para comenzar?
Inicie esta solución en la consola de AWS para implementarla

¿Necesita ayuda? Implemente con un socio.
Encuentre un experto externo certificado por AWS para que lo ayude con este despliegue

¿Le resultó útil esta página?