Panoramica

Machine Learning Operations (MLOps) Workload Orchestrator semplifica l'implementazione del modello ML e applica le migliori pratiche per la scalabilità, l'affidabilità e l'efficienza. Questa soluzione AWS è un framework estensibile con un'interfaccia standard per la gestione delle pipeline di ML per i servizi ML di AWS e di terze parti.
Questa soluzione include un modello AWS CloudFormation. Questo modello consente l'addestramento dei modelli, il caricamento di modelli pre-addestrati (noto anche come bring your own model o BYOM), la configurazione dell'orchestrazione della pipeline e il monitoraggio del funzionamento della pipeline. Implementando questa soluzione, il tuo team può aumentare la propria agilità ed efficienza, ripetendo processi di successo su larga scala.
Vantaggi

Avvia una pipeline preconfigurata tramite una chiamata API o un bucket Amazon S3.
Automatizza il monitoraggio dei modelli con Amazon SageMaker BYOM e fornisci un endpoint di inferenza serverless con rilevamento della deriva.
Utilizza Amazon SageMaker Model Dashboard per visualizzare, cercare ed esplorare le risorse Amazon SageMaker create nell'ambito della soluzione (inclusi modelli, endpoint, model card e processi di trasformazione in batch).
Specifiche tecniche

Questa architettura può essere implementata automaticamente consultando la guida all'implementazione e il modello AWS CloudFormation allegato. Per supportare molteplici casi d'uso ed esigenze aziendali, questa soluzione offre due modelli AWS CloudFormation:
- Utilizza il modello per singolo account per implementare tutte le pipeline della soluzione all'interno dello stesso account AWS. Questa opzione è consigliabile per carichi di lavoro di sperimentazione, sviluppo e/o produzione su piccola scala.
- Utilizza il modello multi-account per effettuare il provisioning di più ambienti (ad esempio sviluppo, staging e produzione) tra svariati account AWS. In questo modo, potrai trarre vantaggio da una governance migliore, da un livello più elevato di controllo e sicurezza dell'implementazione della pipeline di ML, di una sperimentazione sicura e di un'innovazione più rapida, garantendo al contempo la sicurezza dei dati e dei carichi di lavoro di produzione e la disponibilità necessaria per aiutare a garantire la continuità aziendale.
-
Opzione 1: implementazione su un singolo account
-
Opzione 2 - Implementazione multi-account
-
Opzione 1: implementazione su un singolo account
-
Fase 1
L'orchestratore, che potrebbe essere un ingegnere DevOps o un altro tipo di utente, avvia questa soluzione nel proprio account AWS e seleziona le opzioni preferite. Ad esempio, può utilizzare Amazon SageMaker Model Registry o un bucket Amazon Simple Storage Service (Amazon S3) esistente.
-
Opzione 2 - Implementazione multi-account
-
Fase 1
L'orchestratore, che potrebbe essere un ingegnere DevOps con accesso da amministratore all'account dell'orchestratore, fornisce le informazioni su AWS Organizations (ad esempio, numeri degli account e ID delle unità organizzative di sviluppo, staging e produzione).
Contenuti correlati

In collaborazione con i team AWS Partner Solutions Architect e Biblioteca di soluzioni AWS, Cognizant ha costruito la soluzione MLOps Model Lifecycle Orchestrator basata a sua volta sulla soluzione Orchestratore dei carichi di lavoro MLOps.
Total results: 3
- Titolo
-
Digital Natives & Startups
-
Artificial Intelligence
-
Analytics
Total results: 1
- Data di pubblicazione
-
- Versione: 2.2.3
- Data di rilascio: 12/2024
- Autore: AWS
- Tempo di implementazione stimato: 3 minuti
- Costo stimato: consulta i dettagli