Cosa consente di fare questa soluzione AWS?

L'orchestratore di carichi di lavoro MLOps ti aiuta a ottimizzare e semplificare le best practice dell'architettura per la produzione di modelli di machine learning (ML). Questa soluzione è un framework estensibile che fornisce un'interfaccia standard per la gestione delle pipeline di ML per i servizi ML di AWS e di terze parti. Il modello della soluzione consente ai clienti di addestrare modelli, caricare i propri modelli formati (detto anche importa il tuo modello), configurare l'orchestrazione della pipeline e monitorarne le operazioni. Questa soluzione aumenta l'efficienza e l'agilità del team consentendogli di ripetere processi di successo su larga scala.

Vantaggi

Sfrutta una pipeline di machine learning preconfigurata

Utilizza l'architettura di riferimento della soluzione per avviare una pipeline preconfigurata tramite una chiamata API o il repository Git.

Vantaggi

Distribuisce automaticamente un modello addestrato e un endpoint di inferenza

Utilizza il framework della soluzione per automatizzare la pipeline del monitoraggio del modello o la pipeline BYOM di Amazon SageMaker. Offre un endpoint di inferenza con il rilevamento della deriva del modello impacchettato come microservizio serverless.

Panoramica della soluzione AWS

I diagrammi di seguito presentano le architetture serverless che è possibile distribuire in modo automatico grazie alla guida all'implementazione della soluzione e al relativo modello AWS CloudFormation.

  • Opzione 1: implementazione di account singoli
  • Opzione 2 - Distribuzione multi-account
  • Opzione 1: implementazione di account singoli
  • AWS MLOps Framework | Diagrammi architetturali di riferimento
     Fai clic per ingrandire

    Architettura di riferimento dell'orchestratore di carichi di lavoro MLOps (implementazione di account singoli)

    Utilizza il modello di account singoli per implementare tutte le pipeline della soluzione all'interno dello stesso account AWS. Questa opzione è consigliabile per la sperimentazione, lo sviluppo e/o per carichi di lavoro di produzione su piccola scala.

    Questo modello per account singoli della soluzione fornisce i componenti e i flussi di lavoro seguenti:

    1. L'orchestratore (proprietario della soluzione o ingegnere DevOps) avvia la soluzione nell'account AWS e seleziona le opzioni desiderate (ad esempio, utilizzando Amazon SageMaker Registry o fornendo un bucket esistente Amazon S3).
    2. L'orchestratore carica le risorse richieste per la pipeline di destinazione (ad esempio, l'artefatto del modello, i dati di addestramento e/o il file in formato .zip degli algoritmi personalizzati) nel bucket delle risorse di Amazon S3. Se si utilizza Amazon SageMaker Model Registry, l'orchestratore (o una pipeline automatizzata) deve registrare il modello con il Model Registry.
    3. Un'istanza AWS CodePipeline di account singoli è sottoposta al provisioning dall'invio di una chiamata API ad Amazon API Gateway o dal commit di un file mlops-config.json al repository Git. In base al tipo di pipeline, la funzione AWS Lambda dell'orchestratore crea un pacchetto del modello AWS CloudFormation di destinazione e i relativi parametri/configurazioni utilizzando il corpo di una chiamata API o il file mlops-config.json, e lo usa quindi come fase di origine per l'istanza AWS CodePipeline.
    4. Nella fase DeployPipeline, si prende il modello CloudFormation pacchettizzato e i relativi parametri/configurazioni e si procede alla distribuzione della pipeline di destinazione all'interno dello stesso account.
    5. Una volta effettuato il provisioning della pipeline di destinazione, gli utenti possono accedere alla relative funzionalità. Viene inviata una notifica di Amazon Simple Notification Service (Amazon SNS) all'indirizzo e-mail indicato nei parametri relativi all'avvio della soluzione.

    Orchestratore di carichi di lavoro MLOps

    Versione 2.0.0
    Data di rilascio: 05/2022
    Autore: AWS

    Tempo di distribuzione stimato: 3 minuti

    Costo stimato 
    Utilizza il pulsante in basso per iscriverti e ricevere aggiornamenti in merito alla soluzione.

    Nota: per iscriversi e ricevere gli aggiornamenti RSS, è necessario disporre di un plug-in RSS abilitato per il browser in uso.  

    Questa implementazione di soluzioni ti è stata utile?
    Dacci un feedback 
  • Opzione 2 - Distribuzione multi-account
  • AWS MLOps Framework | Diagrammi architetturali di riferimento
     Fai clic per ingrandire

    Architettura di riferimento dell'orchestratore di carichi di lavoro MLOps (Distribuzione di multi-account)

    Utilizza il modello multi-account per effettuare il provisioning di più ambienti (ad esempio, sviluppo, gestione e produzione) tra svariati account AWS. In questo modo, si beneficerà di una migliore governance, di maggiori controlli e sicurezza della distribuzione della pipeline di ML, di una sperimentazione sicura e di un'innovazione più rapida, di dati di produzione e carichi di lavoro sicuri e, da ultimo, della disponibilità necessaria per garantire la continuità aziendale.

    Questo modello multi-account della soluzione fornisce i componenti e i flussi di lavoro seguenti:

    1. L'orchestratore (il proprietario della soluzione o l'ingegnere DevOps con accesso da amministratore all'account dell'orchestratore) fornisce le informazioni su AWS Organizations (ad esempio, numeri degli account e ID delle unità organizzative di produzione, sviluppo e gestione). Specifica inoltre le opzioni desiderate (ad esempio, utilizzando Amazon SageMaker Registry o fornendo un bucket S3 esistente), quindi avvia la soluzione nel proprio account AWS.
    2. L'orchestratore carica le risorse necessarie per la pipeline di destinazione (ad esempio, l'artefatto del modello, i dati di addestramento e/o il file in formato .zip degli algoritmi personalizzati) nel bucket della risorse di Amazon S3 nell'account AWS dell'orchestratore. Se si utilizza Amazon SageMaker Model Registry, l'orchestratore (o una pipeline automatizzata) deve registrare il modello con il Model Registry.
    3. Un'istanza multi-account di AWS CodePipeline è sottoposta al provisioning dall'invio di una chiamata API a Gateway Amazon API oppure dal commit di un file mlops-config.json al repository Git. In base al tipo di pipeline, la funzione AWS Lambda dell'orchestratore crea un pacchetto del modello AWS CloudFormation di destinazione e i relativi parametri/configurazioni per tutte le fasi utilizzando il corpo di una chiamata API o il file mlops-config.json, e lo usa quindi come fase di origine per l'istanza AWS CodePipeline.
    4. Nella fase DeployDev, si prende il modello CloudFormation pacchettizzato e i relativi parametri/configurazioni e si procede alla distribuzione della pipeline di destinazione all'interno dell'account di sviluppo.
    5. Una volta effettuato il provisioning della pipeline di destinazione nell'account di sviluppo, lo sviluppatore può procedere con l'iterazione della pipeline.
    6. Al termine dello sviluppo, l'orchestratore (o un altro account autorizzato) approva manualmente l'operazione DeployStaging per passare alla fase DeployStaging.
    7. Nella fase DeployStaging si procede con la distribuzione della pipeline di destinazione all'interno dell'account di staging, tramite la configurazione dello staging.
    8. I tester eseguono svariati test sulla pipeline distribuita.
    9. Una volta che la pipeline supera i test di qualità, l'orchestratore può approvare l'operazione DeployProd.
    10. Nella fase DeployProd si procede alla distribuzione della pipeline di destinazione (con le configurazione di produzione) all'interno dell'account di produzione.
    11. Infine, la pipeline di destinazione è disponibile all'interno della produzione. Viene inviata una notifica di Amazon Simple Notification Service (Amazon SNS) all'indirizzo e-mail indicato nei parametri relativi all'avvio della soluzione.

    Orchestratore di carichi di lavoro MLOps

    Versione 2.0.0
    Data di rilascio: 05/2022
    Autore: AWS

    Tempo di distribuzione stimato: 3 minuti

    Costo stimato 
    Utilizza il pulsante in basso per iscriverti e ricevere aggiornamenti in merito alla soluzione.

    Nota: per iscriversi e ricevere gli aggiornamenti RSS, è necessario disporre di un plug-in RSS abilitato per il browser in uso.  

    Questa implementazione di soluzioni ti è stata utile?
    Dacci un feedback 
Icona Costruisci
Distribuisci una soluzione tu stesso

Sfoglia il nostro portfolio di implementazioni di soluzioni AWS per ottenere risposte a problemi architetturali comuni.

Ulteriori informazioni 
Trova un partner APN
Trova un partner APN

Trova partner tecnologici e di consulenza con certificazione AWS che ti aiutino a iniziare.

Ulteriori informazioni 
Icona Esplora
Esplora le offerte di consulenza in merito alle soluzioni

Sfoglia il nostro portfolio di offerte di consulenza per ottenere assistenza testata da AWS con la distribuzione della soluzione.

Ulteriori informazioni