Orchestratore dei carichi di lavoro MLOps

Implementazione di una pipeline solida che si avvale degli strumenti di automazione gestiti e dei servizi di ML per semplificare lo sviluppo e la produzione dei modelli di ML

Panoramica

La soluzione orchestratore di carichi di lavoro MLOps ti aiuta a ottimizzare la messa in produzione dei modelli di machine learning (ML) e ad applicarvi le best practice di architettura. Questa soluzione è un framework estensibile che fornisce un'interfaccia standard per la gestione delle pipeline di ML per i servizi ML di AWS e di terze parti. Il modello della soluzione consente ai clienti di:

  • Addestrare modelli
  • Caricare i modelli addestrati secondo l'approccio "bring your own model" (BYOM)
  • Configurare l'orchestrazione della pipeline
  • Monitorare le operazioni della pipeline

Questa soluzione aumenta l'efficienza e l'agilità del team consentendogli di ripetere processi di successo su larga scala.

 

Vantaggi

Sfrutta una pipeline di machine learning preconfigurata
Utilizza l'architettura di riferimento della soluzione per avviare una pipeline preconfigurata tramite una chiamata API o il repository Git.
Distribuisce automaticamente un modello addestrato e un endpoint di inferenza
Utilizza il framework della soluzione per automatizzare la pipeline del monitoraggio del modello o la pipeline BYOM di Amazon SageMaker. Offre un endpoint di inferenza con il rilevamento della deviazione del modello impacchettato come microservizio serverless.
Visualizza le risorse in un dashboard

Utilizza Amazon SageMaker Model Dashboard per visualizzare le risorse Amazon SageMaker create nell'ambito della soluzione (ad esempio modelli, endpoint, model card e processi di trasformazione in batch).

Dettagli tecnici

Per supportare molteplici casi d'uso ed esigenze aziendali, questa soluzione offre due modelli AWS CloudFormation:

  1. Utilizza il modello per singolo account per implementare tutte le pipeline della soluzione all'interno dello stesso account AWS. Questa opzione è consigliabile per carichi di lavoro di sperimentazione, sviluppo e/o produzione su piccola scala.
  2. Utilizza il modello multi-account per effettuare il provisioning di più ambienti (ad esempio sviluppo, staging e produzione) tra svariati account AWS. In questo modo, potrai trarre vantaggio da una governance migliore, da un livello più elevato di controllo e sicurezza dell'implementazione della pipeline di ML, di una sperimentazione sicura e di un'innovazione più rapida, garantendo al contempo la sicurezza dei dati e dei carichi di lavoro di produzione e la disponibilità necessaria per garantire la business continuity.
  • Opzione 1: implementazione su un singolo account
  • Opzione 2 - Implementazione multi-account
Caso di studio
MLOps Model Lifecycle Orchestrator di Cognizant accelera l'implementazione dei modelli di machine learning, passando da settimane a poche ore, grazie alle soluzioni AWS

In collaborazione con i team AWS Partner Solutions Architect e Biblioteca di soluzioni AWS, Cognizant ha costruito la soluzione MLOps Model Lifecycle Orchestrator basata a sua volta sulla soluzione Orchestratore dei carichi di lavoro MLOps.

Leggi il caso di studio 
Informazioni su questa implementazione
Versione
2.1.0
Data di rilascio
11/2022
Autore
AWS
Tempo di implementazione stimato
3 minuti
Costo stimato
Codice sorgente  Modelli di CloudFormation  Iscriviti al feed RSS 
Opzioni di implementazione
Tutto pronto per iniziare?
Implementa questa soluzione avviandola nella tua Console AWS

Serve assistenza? Implementa con un partner.
Trova un esperto di terza parte con certificazione AWS che ti aiuti con questa implementazione
Questa soluzione AWS ti è stata d'aiuto?
Dacci un feedback