Publicado en: Feb 2, 2022

AWS Solutions ha actualizado Orquestador de cargas de trabajo de MLOps (conocido anteriormente como AWS MLOps Framework), una implementación de soluciones de AWS que agiliza el proceso de implementación de canalizaciones y aplica las prácticas recomendadas de arquitectura para la operacionalización de modelos de machine learning (ML). Esta solución aborda los puntos débiles operativos comunes a los que se enfrentan los clientes, incluida la supervisión de modelos y la gobernanza de varias cuentas, cuando adoptan múltiples herramientas de automatización del flujo de trabajo de ML.

Esta actualización agrega dos nuevas canalizaciones para implementar trabajos de referencia y programaciones de supervisión: Explicabilidad de modelos de Amazon SageMaker Clarify y Sesgo de modelos de Amazon SageMaker Clarify. Las canalizaciones incorporadas ayudan a los científicos de datos e ingenieros de ML a supervisar la desviación de atribución de características y el sesgo del modelo, respectivamente, de manera regular, y generar alertas si se detectan problemas.

Esta solución ofrece las siguientes características clave:

  • Inicia una canalización preconfigurada mediante una llamada a la API o un repositorio de Git
  • Implementa de manera automática un modelo entrenado y brinda un punto de conexión de inferencia de Amazon SageMaker
  • Supervisa de manera continua de modelos de machine learning y detecta cualquier desviación en la calidad de sus datos, calidad del modelo, explicabilidad del modelo y/o sesgos del modelo.
  • Admite la ejecución de sus propias pruebas de integración para garantizar que el modelo implementado cumple con las expectativas
  • Le permite aprovisionar varios entornos para dar soporte al ciclo de vida de su modelo de ML
  • La opción de utilizar el registro de modelos de Amazon SageMaker para implementar modelos versionados
  • Compatibilidad con varias cuentas para canalizaciones de modelo propio y monitoreo de modelos
  • Permite a los clientes crear y registrar imágenes de Docker para algoritmos personalizados, que pueden usarse para la implementación de modelos en un punto de conexión de Amazon SageMaker.

Para obtener más detalles sobre esta solución, visite la página web de implementación de soluciones de AWS.

Encontrará más soluciones de AWS disponibles en la página web de implementación de soluciones de AWS, donde los clientes pueden buscar soluciones por categoría de producto o sector y encontrar implementaciones de referencia automatizadas y listas para usar que han sido aprobadas por AWS y abordan necesidades empresariales específicas.