Orquestador de cargas de trabajo de MLOps en AWS

Implemente una canalización robusta que utiliza herramientas de automatización administradas y servicios de ML para simplificar el desarrollo y la producción de modelos de ML

Información general

El orquestador de cargas de trabajo de Machine Learning Operations (MLOps) optimiza la implementación del modelo de ML y aplica las mejores prácticas para la escalabilidad, la fiabilidad y la eficiencia. Esta solución de AWS consiste en un marco ampliable que brinda una interfaz estándar para administrar canalizaciones de ML para servicios de ML de AWS y de terceros.

En esta solución se incluye una plantilla de AWS CloudFormation. Esta plantilla permite el entrenamiento de modelos, la carga de modelos previamente entrenados (también conocidos como traiga su propio modelo o BYOM), la configuración de la orquestación de las canalizaciones y la supervisión de las operaciones de las canalizaciones. Al implementar esta solución, su equipo puede aumentar su agilidad y eficiencia, repitiendo los procesos exitosos a escala.

Beneficios

Inicie con una canalización de ML preconfigurada

Inicie una canalización preconfigurada mediante una llamada a la API o un bucket de Amazon S3.

Implemente de manera automática un modelo entrenado y un punto de enlace de inferencia

Automatice la supervisión de modelos con Amazon SageMaker BYOM y ofrezca un punto de enlace de inferencia sin servidor con detección de desviaciones.

Visibilidad centralizada de sus recursos de ML

Use el panel de modelos de Amazon SageMaker para ver, buscar y explorar todos sus recursos de Amazon SageMaker, incluidos modelos, puntos de enlace, tarjetas de modelos y trabajos de transformación por lotes.

Detalles técnicos

Puede implementar automáticamente esta arquitectura con la guía de implementación y la plantilla de AWS CloudFormation adjunta. Para admitir varios casos de uso y necesidades empresariales, esta solución ofrece dos plantillas de AWS CloudFormation:

  1. Utilice la plantilla de una sola cuenta para implementar todas las canalizaciones de la solución en la misma cuenta de AWS. Esta opción es adecuada para las cargas de trabajo de producción a pequeña escala, experimentación o desarrollo.
  2. Utilice la plantilla de varias cuentas para aprovisionar múltiples entornos (por ejemplo, desarrollo, ensayo y producción) en diferentes cuentas de AWS, lo que mejora la gobernanza y fortalece la seguridad y el control de la implementación de la canalización de ML, permite experimentar de manera segura e innovar de forma más rápida, además de que mantiene las cargas de trabajo y los datos de producción seguros y disponibles para ayudar a garantizar la continuidad empresarial.
  • Opción 1: implementación en una sola cuenta
  • Opción 2: implementación en varias cuentas
Caso práctico
El orquestador de ciclo de vida del modelo de MLOps de Cognizant acelera el despliegue de modelos de machine learning de semanas a horas gracias a las soluciones de AWS

En colaboración con los equipos de arquitectura de las soluciones de socio de AWS y la biblioteca de soluciones de AWS, Cognizant creó su orquestador de ciclo de vida del modelo de MLOps sobre de la solución de orquestador de cargas de trabajo de MLOps.

Lea el caso práctico 
Casos de uso de esta solución de AWS
  • Encabezado
Más...
Acerca de esta implementación
  • Fecha de publicación
Opciones de despliegue
¿Listo para comenzar?
Inicie esta solución en la consola de AWS para implementarla

¿Necesita ayuda? Implemente con un socio.
Encuentre un experto externo certificado por AWS para que lo ayude con este despliegue

¿Le resultó útil esta página?