Amazon SageMaker per MLOps

Fornisci modelli di ML in produzione ad alte prestazioni rapidamente e su larga scala

Perché scegliere Amazon SageMaker MLOps

Amazon SageMaker fornisce strumenti specifici per le operazioni di machine learning (MLOps) per aiutarti ad automatizzare e standardizzare i processi lungo il ciclo di vita del machine learning. Utilizzando gli strumenti SageMaker MLOps, puoi facilmente addestrare, testare, risolvere i problemi, distribuire e gestire i modelli di ML su larga scala per aumentare la produttività di data scientist e ingegneri ML mantenendo le prestazioni del modello in produzione.

Come funziona

Come funziona

Vantaggi di SageMaker MLOps

Crea flussi di lavoro di addestramento ripetibili per accelerare lo sviluppo del modello
Cataloga gli artefatti di ML a livello centrale per la riproducibilità e la governance del modello
Integra i flussi di lavoro di ML con le pipeline CI/CD per tempi di produzione più rapidi
Monitora continuamente i dati e i modelli in produzione per mantenere la qualità

Accelera lo sviluppo dei modelli

SageMaker MLOps - Provisioning di ambienti ML standardizzati

Provisioning di ambienti di data science standardizzati

La standardizzazione degli ambienti di sviluppo del ML aumenta la produttività dei data scientist e, in definitiva, la velocità di innovazione, semplificando il lancio di nuovi progetti, la rotazione dei data scientist tra i progetti e l'implementazione delle best practice di ML. Amazon SageMaker Projects offre modelli per fornire rapidamente ambienti per data scientist standardizzati con strumenti e librerie testati e aggiornati, repository di controllo del codice sorgente, boilerplate code e pipeline CI/CD.

Consulta la guida per gli sviluppatori per automatizzare le MLOps con SageMaker Projects

SageMaker Experiments

Collabora tra i team di data science sugli esperimenti

La creazione di modelli di ML è un processo iterativo che prevede l'addestramento di centinaia di modelli diversi alla ricerca dell'algoritmo, dell'architettura del modello e dei parametri migliori per ottenere il livello richiesto di accuratezza della previsione. Puoi tenere traccia degli input e degli output in queste iterazioni di addestramento per migliorare la ripetibilità delle prove e la collaborazione tra i data scientist utilizzando Amazon SageMaker Experiments, una funzionalità di gestione degli esperimenti di machine learning completamente gestita.

SageMaker Experiments tiene traccia di parametri, metriche, set di dati e altri artefatti relativi ai processi di addestramento del modello. Offre un'unica interfaccia in cui è possibile visualizzare i processi di addestramento in corso, condividere esperimenti con i colleghi e implementare modelli direttamente da un esperimento.

Gestisci il machine learning con Esperimenti Amazon SageMaker

Pipeline SageMaker

Automatizzazione dei workflow di addestramento ML

L'automazione dei flussi di lavoro di addestramento consente di creare un processo ripetibile per orchestrare le fasi di sviluppo del modello per una rapida sperimentazione e riqualificazione del modello. Puoi automatizzare l'intero flusso di lavoro per la creazione del modello, compresa la preparazione dei dati, l'ingegneria delle funzionalità, l'addestramento, la messa a punto e la convalida utilizzando le pipeline Amazon SageMaker. Puoi configurare le pipeline SageMaker in modo che vengano eseguite automaticamente a intervalli regolari o quando vengono attivati determinati eventi, oppure eseguirle manualmente secondo le necessità.

Scopri di più sulle Pipeline per la creazione di modelli Amazon SageMaker

Implementa e gestisci facilmente i modelli in produzione

Monitoraggio della derivazione SageMaker

Riproduci rapidamente i tuoi modelli per la risoluzione dei problemi

Spesso è necessario riprodurre i modelli in produzione per risolvere i problemi relativi al comportamento del modello e determinarne la causa principale. Amazon SageMaker Pipelines registra ogni fase del tuo flusso di lavoro, creando un audit trail degli artefatti del modello come i dati di addestramento, le impostazioni di configurazione, i parametri del modello e i gradienti di apprendimento. Utilizzando il monitoraggio della derivazione, puoi ricreare modelli per eseguire il debug di potenziali problemi.

Scopri di più sul Monitoraggio del lineage di Amazon SageMaker ML

SageMaker Model Registry

Traccia e gestisci a livello centralizzato le versioni dei modelli

La creazione di un'applicazione ML implica lo sviluppo di modelli, pipeline di dati, pipeline di addestramento e test di convalida. Amazon SageMaker Model Registry consente di monitorare le versioni dei modelli, i relativi metadati (come il raggruppamento dei casi d'uso) e le baseline dei parametri delle prestazioni dei modelli in un repository centrale da cui poter facilmente scegliere il modello più adatto da implementare in base ai requisiti aziendali. Inoltre, SageMaker Model Registry registra automaticamente i flussi di lavoro di approvazione per la verifica e la conformità.

Scopri di più sui modelli di registrazione e implementazione con Model Registry

Definisci l'infrastruttura ML attraverso il codice

L'orchestrazione dell'infrastruttura tramite file di configurazione dichiarativi, comunemente noti come "infrastructure-as-code", è un approccio comune al provisioning dell'infrastruttura ML e all'implementazione dell'architettura della soluzione esattamente come specificato dalle pipeline CI/CD o dagli strumenti di implementazione. Grazie ad Amazon SageMaker Projects, puoi scrivere l'infrastructure-as-code utilizzando file di modelli predefiniti.

Scopri di più sull'automazione delle MLOps con SageMaker Projects

CI/CD Amazon SageMaker per il machine learning

Automatizza i flussi di lavoro di integrazione e implementazione (CI/CD)

I flussi di lavoro di sviluppo ML devono combinarsi ai flussi di lavoro di integrazione e implementazione in modo da fornire rapidamente nuovi modelli per le applicazioni di produzione. Amazon SageMaker Projects trasferisce le procedure CI/CD al ML, come il mantenimento della parità tra gli ambienti di sviluppo e di produzione, il controllo del codice sorgente e delle versioni, i test A/B e l'automazione end-to-end. In questo modo, si mette in produzione un modello non appena viene approvato e se ne aumenta l'agilità. 

Inoltre, Amazon SageMaker offre protezioni integrate che garantiscono di mantenere la disponibilità degli endpoint e ridurre al minimo il rischio di implementazione. SageMaker si occupa della configurazione e dell'orchestrazione delle best practice di implementazione, come le implementazioni blu/verde, per aumentare al massimo la disponibilità e le integra con i meccanismi di aggiornamento degli endpoint, come i meccanismi di rollback automatico, per identificare automaticamente i problemi in anticipo e intraprendere azioni correttive prima che influiscano in modo significativo sulla produzione.

Crea soluzioni ML end-to-end con CI/CD utilizzando i progetti SageMaker

SageMaker Model Monitor

Ri-addestra continuamente i modelli per mantenere la qualità delle previsioni

Quando un modello giunge in produzione, è necessario monitorarne le prestazioni configurando gli avvisi, così che un data scientist possa risolvere tempestivamente l’eventuale problema e attivare la procedura di ri-addestramento. Amazon SageMaker Model Monitor ti aiuta a mantenere la qualità rilevando la deriva del modello e la deriva del concetto in tempo reale e inviandoti avvisi in modo da poter agire immediatamente. SageMaker Model Monitor monitora costantemente le caratteristiche delle prestazioni del modello come l'accuratezza, che misura il numero di previsioni corrette rispetto al numero totale di previsioni, in modo da poter affrontare le anomalie. SageMaker Model Monitor è integrato con SageMaker Clarify per migliorare la visibilità su potenziali distorsioni.

Ulteriori informazioni

SageMaker Model Hosting

Ottimizza l'implementazione del modello per prestazioni e costi

Amazon SageMaker semplifica la distribuzione di modelli ML per l'inferenza a prestazioni elevate e a basso costo per qualsiasi caso d'uso. Fornisce un'ampia selezione di infrastrutture ML e opzioni di implementazione del modello per soddisfare tutte le tue esigenze di inferenza ML.

Ulteriori informazioni

Novità

  • Data (dalla più alla meno recente)
Nessun risultato trovato
1