Orchestratore dei carichi di lavoro MLOps in AWS

Implementazione di una pipeline solida che si avvale degli strumenti di automazione gestiti e dei servizi di ML per semplificare lo sviluppo e la produzione dei modelli di ML

Panoramica

Machine Learning Operations (MLOps) Workload Orchestrator semplifica l'implementazione del modello ML e applica le migliori pratiche per la scalabilità, l'affidabilità e l'efficienza. Questa soluzione AWS è un framework estensibile con un'interfaccia standard per la gestione delle pipeline di ML per i servizi ML di AWS e di terze parti.

Questa soluzione include un modello AWS CloudFormation. Questo modello consente l'addestramento dei modelli, il caricamento di modelli pre-addestrati (noto anche come bring your own model o BYOM), la configurazione dell'orchestrazione della pipeline e il monitoraggio del funzionamento della pipeline. Implementando questa soluzione, il tuo team può aumentare la propria agilità ed efficienza, ripetendo processi di successo su larga scala.

Vantaggi

Esegui il lancio con una pipeline ML preconfigurata

Avvia una pipeline preconfigurata tramite una chiamata API o un bucket Amazon S3.

Distribuisce automaticamente un modello addestrato e un endpoint di inferenza

Automatizza il monitoraggio dei modelli con Amazon SageMaker BYOM e fornisci un endpoint di inferenza serverless con rilevamento della deriva.

Visibilità centralizzata delle tue risorse ML

Utilizza Amazon SageMaker Model Dashboard per visualizzare, cercare ed esplorare le risorse Amazon SageMaker create nell'ambito della soluzione (inclusi modelli, endpoint, model card e processi di trasformazione in batch).

Specifiche tecniche

Questa architettura può essere implementata automaticamente consultando la guida all'implementazione e il modello AWS CloudFormation allegato. Per supportare molteplici casi d'uso ed esigenze aziendali, questa soluzione offre due modelli AWS CloudFormation:

  1. Utilizza il modello per singolo account per implementare tutte le pipeline della soluzione all'interno dello stesso account AWS. Questa opzione è consigliabile per carichi di lavoro di sperimentazione, sviluppo e/o produzione su piccola scala.
  2. Utilizza il modello multi-account per effettuare il provisioning di più ambienti (ad esempio sviluppo, staging e produzione) tra svariati account AWS. In questo modo, potrai trarre vantaggio da una governance migliore, da un livello più elevato di controllo e sicurezza dell'implementazione della pipeline di ML, di una sperimentazione sicura e di un'innovazione più rapida, garantendo al contempo la sicurezza dei dati e dei carichi di lavoro di produzione e la disponibilità necessaria per aiutare a garantire la continuità aziendale.
  • Opzione 1: implementazione su un singolo account
  • Opzione 2 - Implementazione multi-account
Caso di studio
MLOps Model Lifecycle Orchestrator di Cognizant accelera l'implementazione dei modelli di machine learning, passando da settimane a poche ore, grazie alle soluzioni AWS

In collaborazione con i team AWS Partner Solutions Architect e Biblioteca di soluzioni AWS, Cognizant ha costruito la soluzione MLOps Model Lifecycle Orchestrator basata a sua volta sulla soluzione Orchestratore dei carichi di lavoro MLOps.

Leggi il caso di studio 
Casi d'uso per questa soluzione AWS
Showing results: 1-3
Total results: 3
  • Titolo
Ulteriori informazioni…
Informazioni su questa implementazione
Showing results: 1
Total results: 1
  • Data di pubblicazione
    • Versione: 2.2.3
    • Data di rilascio: 12/2024
    • Autore: AWS
    • Tempo di implementazione stimato: 3 minuti
    • Costo stimatoconsulta i dettagli
Opzioni di implementazione
Tutto pronto per iniziare?
Implementa questa soluzione avviandola nella tua Console AWS

Serve assistenza? Implementa con un partner.
Trova un esperto di terza parte con certificazione AWS che ti aiuti con questa implementazione

Questa pagina è stata utile?