Orchestratore dei carichi di lavoro MLOps in AWS

Implementazione di una pipeline solida che si avvale degli strumenti di automazione gestiti e dei servizi di ML per semplificare lo sviluppo e la produzione dei modelli di ML

Panoramica

L’orchestratore dei carichi di lavoro MLOps aiuta a ottimizzare la messa in produzione dei modelli di machine learning (ML) e ad applicarvi le best practice di architettura. Questa soluzione AWS è un framework estensibile che fornisce un'interfaccia standard per la gestione delle pipeline di ML per i servizi ML di AWS e di terze parti.

Il modello della soluzione consente di addestrare modelli, caricare i modelli addestrati (detto anche “importa il tuo modello [BYOM]”), configurare l'orchestrazione della pipeline e monitorarne le operazioni. Usando questa soluzione, è possibile aumentare l'efficienza e l'agilità del team consentendogli di ripetere processi di successo su larga scala.

Vantaggi

Sfrutta una pipeline ML preconfigurata
Utilizza l'architettura di riferimento della soluzione per avviare una pipeline preconfigurata tramite una chiamata API o il repository Git.
Distribuisce automaticamente un modello addestrato e un endpoint di inferenza
Utilizza il framework della soluzione per automatizzare la pipeline del monitoraggio del modello o la pipeline BYOM di Amazon SageMaker. Offre un endpoint di inferenza con il rilevamento della deviazione del modello impacchettato come microservizio serverless.
Visualizza le risorse in un dashboard

Utilizza Amazon SageMaker Model Dashboard per visualizzare le risorse Amazon SageMaker create nell'ambito della soluzione (ad esempio modelli, endpoint, model card e processi di trasformazione in batch).

Specifiche tecniche

Questa architettura può essere implementata automaticamente consultando la guida all'implementazione e il modello AWS CloudFormation allegato. Per supportare molteplici casi d'uso ed esigenze aziendali, questa soluzione offre due modelli AWS CloudFormation:

  1. Utilizza il modello per singolo account per implementare tutte le pipeline della soluzione all'interno dello stesso account AWS. Questa opzione è consigliabile per carichi di lavoro di sperimentazione, sviluppo e/o produzione su piccola scala.
  2. Utilizza il modello multi-account per effettuare il provisioning di più ambienti (ad esempio sviluppo, staging e produzione) tra svariati account AWS. In questo modo, potrai trarre vantaggio da una governance migliore, da un livello più elevato di controllo e sicurezza dell'implementazione della pipeline di ML, di una sperimentazione sicura e di un'innovazione più rapida, garantendo al contempo la sicurezza dei dati e dei carichi di lavoro di produzione e la disponibilità necessaria per aiutare a garantire la continuità aziendale.
  • Opzione 1: implementazione su un singolo account
  • Opzione 2 - Implementazione multi-account
Caso di studio
MLOps Model Lifecycle Orchestrator di Cognizant accelera l'implementazione dei modelli di machine learning, passando da settimane a poche ore, grazie alle soluzioni AWS

In collaborazione con i team AWS Partner Solutions Architect e Biblioteca di soluzioni AWS, Cognizant ha costruito la soluzione MLOps Model Lifecycle Orchestrator basata a sua volta sulla soluzione Orchestratore dei carichi di lavoro MLOps.

Leggi il caso di studio 
Casi d'uso per questa soluzione AWS
Informazioni su questa implementazione
  • Data di pubblicazione
Opzioni di implementazione
Tutto pronto per iniziare?
Implementa questa soluzione avviandola nella tua Console AWS

Serve assistenza? Implementa con un partner.
Trova un esperto di terza parte con certificazione AWS che ti aiuti con questa implementazione

Questa pagina è stata utile?