Passa al contenuto principale

Amazon SageMaker AI

Amazon SageMaker per MLOps

Fornisci modelli di ML in produzione ad alte prestazioni rapidamente e su larga scala

Perché scegliere Amazon SageMaker MLOps

Amazon SageMaker fornisce strumenti specifici per Machine Learning Operations (MLOps) per aiutarti ad automatizzare e standardizzare i processi lungo il ciclo di vita del machine learning. Utilizzando gli strumenti SageMaker MLOps, è possibile addestrare, testare, risolvere i problemi, distribuire e gestire i modelli di machine learning su larga scala con facilità per aumentare la produttività di data scientist e ingegneri di machine learning, mantenendo al contempo le prestazioni del modello in produzione.

Come funziona

Vantaggi di SageMaker MLOps

Crea flussi di lavoro di addestramento ripetibili per accelerare lo sviluppo dei modelli
Cataloga gli artefatti di ML a livello centrale per la riproducibilità e la governance del modello
Integra i flussi di lavoro di ML con le pipeline CI/CD per tempi di produzione più rapidi
Monitora continuamente i dati e i modelli in produzione per mantenere la qualità

Accelera lo sviluppo dei modelli

Provisioning di ambienti di data science standardizzati

La standardizzazione degli ambienti di sviluppo del ML aumenta la produttività dei data scientist e, in definitiva, la velocità di innovazione, semplificando il lancio di nuovi progetti, la rotazione dei data scientist tra i progetti e l'implementazione delle best practice di ML. Amazon SageMaker Projects offre modelli per effettuare rapidamente il provisioning di ambienti per data scientist standardizzati con strumenti e librerie testati e aggiornati, repository di controllo del codice sorgente, codice boilerplate e pipeline CI/CD.

Screenshot showing the Amazon SageMaker 'Create project' interface with MLOps project templates for model building, training, and deployment, alongside a code repository directory view for batch inference template management.

Collabora utilizzando MLflow durante la fase di sperimentazione di machine learning

La creazione di modelli ML è un processo iterativo che prevede il training di centinaia di modelli per trovare l'algoritmo, l'architettura e i parametri migliori per una precisione ottimale del modello. MLFlow consente di tenere traccia degli input e degli output di queste iterazioni di training, migliorando la ripetibilità delle prove e promuovendo la collaborazione tra i data scientist. Con funzionalità MLFlow completamente gestite, puoi creare server di tracciamento MLFlow per ogni team, facilitando una collaborazione efficiente durante la sperimentazione ML.

Amazon SageMaker con MLFlow gestisce il ciclo di vita del machine learning end-to-end, semplificando il training efficiente dei modelli, il monitoraggio degli esperimenti e la riproducibilità in diversi framework e ambienti. Offre un'unica interfaccia in cui è possibile visualizzare i job di addestramento in corso, condividere esperimenti con i colleghi e implementare modelli direttamente da un esperimento.

Screenshot of the Amazon SageMaker Studio MLflow Tracking Server dashboard. The interface displays MLflow Tracking Servers management, server status, and options to open, edit, or delete an MLflow server. It also highlights features such as creating a tracking server, logging MLflow experiments, and registering MLflow models.

Automatizza i flussi di lavoro di personalizzazione dei modelli di IA generativa

Con Amazon SageMaker Pipelines puoi automatizzare il flusso di lavoro di ML end-to-end di elaborazione dei dati, addestramento dei modelli, fine-tuning, valutazione e implementazione. Costruisci il tuo modello o personalizzane uno di base da SageMaker Jumpstart con pochi clic nell'editor visivo Pipeline. È possibile configurare Pipeline SageMaker per l'esecuzione automatica a intervalli regolari o quando vengono attivati determinati eventi, ad esempio nuovi dati di addestramento in S3.

A workflow diagram visualizing an automated fine-tuning process in Amazon SageMaker Pipelines. The flow shows steps including preparing a fine-tuning dataset, fine-tuning a Llama 3.1 model, evaluating large language model (LLM) performance, conditional logic for deployment, and registering or deploying the model for inference.

Implementa e gestisci facilmente i modelli in produzione

Riproduci rapidamente i modelli per la risoluzione dei problemi

Spesso è necessario riprodurre i modelli in produzione per risolvere i problemi relativi al comportamento del modello e determinarne la causa principale. Amazon SageMaker Pipelines registra ogni fase del tuo flusso di lavoro, creando un audit trail degli artefatti del modello come i dati di addestramento, le impostazioni di configurazione, i parametri del modello e i gradienti di apprendimento. Utilizzando il monitoraggio del lineage, è possibile ricreare modelli per eseguire il debug di potenziali problemi.

Diagram showing the architecture for Amazon SageMaker lineage tracking across AWS accounts, with pipelines, models, data processing steps, and cross-account data lineage visualization.

Traccia e gestisci le versioni dei modelli a livello centralizzato

La creazione di un'applicazione ML implica lo sviluppo di modelli, pipeline di dati, pipeline di addestramento e test di convalida. Amazon SageMaker Model Registry consente di monitorare le versioni dei modelli, i relativi metadati (come il raggruppamento dei casi d'uso) e le baseline dei parametri delle prestazioni dei modelli in un repository centrale da cui poter facilmente scegliere il modello più adatto da implementare in base ai requisiti aziendali. Inoltre, SageMaker Model Registry registra automaticamente i flussi di lavoro di approvazione per la verifica e la conformità.

Guarda la demo

Screenshot of the Amazon SageMaker Model Registry interface showing a side-by-side comparison of model version metrics, including confusion matrix, receiver operating characteristic (ROC) curve, PRC, and statistical values for recall, precision, and accuracy.

Definisci l'infrastruttura di machine learning attraverso il codice

L'orchestrazione dell'infrastruttura tramite file di configurazione dichiarativi, comunemente noti come "infrastructure-as-code", è un approccio comune al provisioning dell'infrastruttura ML e all'implementazione dell'architettura della soluzione esattamente come specificato dalle pipeline CI/CD o dagli strumenti di implementazione. Grazie ad Amazon SageMaker Projects, è possibile scrivere l'infrastructure-as-code utilizzando file di modelli predefiniti.

Diagram illustrating the Amazon SageMaker CI/CD machine learning pipeline, showing automated model build and re-training workflows, model registry for configuration and metadata management, and model deployment approval workflows.

Automatizza i flussi di lavoro di integrazione e distribuzione (CI/CD)

I flussi di lavoro di sviluppo ML devono combinarsi ai flussi di lavoro di integrazione e implementazione in modo da fornire rapidamente nuovi modelli per le applicazioni di produzione. Amazon SageMaker Projects trasferisce le procedure CI/CD al ML, come il mantenimento della parità tra gli ambienti di sviluppo e di produzione, il controllo del codice sorgente e delle versioni, i test A/B e l'automazione end-to-end. In questo modo, si mette in produzione un modello non appena viene approvato e se ne aumenta l'agilità.

Inoltre, Amazon SageMaker offre protezioni integrate che garantiscono di mantenere la disponibilità degli endpoint e ridurre al minimo il rischio di implementazione. SageMaker si occupa della configurazione e dell'orchestrazione delle best practice di implementazione, come le implementazioni blu/verde, per aumentare al massimo la disponibilità e le integra con i meccanismi di aggiornamento degli endpoint, come i meccanismi di rollback automatico, per identificare automaticamente i problemi in anticipo e intraprendere azioni correttive prima che influiscano in modo significativo sulla produzione.

Diagram illustrating the Amazon SageMaker CI/CD machine learning pipeline, showing automated model build and re-training workflows, model registry for configuration and metadata management, and model deployment approval workflows.

Riaddestra continuamente i modelli per mantenere la qualità delle previsioni

Quando un modello giunge in produzione, è necessario monitorarne le prestazioni configurando gli avvisi, così che un data scientist possa risolvere tempestivamente l’eventuale problema e attivare la procedura di ri-addestramento. Amazon SageMaker Model Monitor ti aiuta a mantenere la qualità rilevando la deriva del modello e la deriva del concetto in tempo reale e inviandoti avvisi in modo da poter agire immediatamente. SageMaker Model Monitor monitora costantemente le caratteristiche delle prestazioni del modello come l'accuratezza, che misura il numero di previsioni corrette rispetto al numero totale di previsioni, in modo da poter affrontare le anomalie. SageMaker Model Monitor è integrato con SageMaker Clarify per migliorare la visibilità su potenziali distorsioni.

Screenshot of the Amazon SageMaker Data Quality Monitoring interface, showing a line chart that tracks the 'State_AR: Sum' metric over time to identify data drift and data quality issues for a machine learning model endpoint in production.

Ottimizza l'implementazione dei modelli per prestazioni e costi

Amazon SageMaker semplifica la distribuzione di modelli ML per l'inferenza a prestazioni elevate e a basso costo per qualsiasi caso d'uso. Offre un'ampia selezione di infrastrutture di machine learning e opzioni di implementazione dei modelli per soddisfare tutte le esigenze di inferenza di machine learning.

A visual comparison of Amazon SageMaker model hosting instance types, illustrating CPU (C5), GPU (P3, G4), and custom chip (Inf1) options, along with their throughput, performance, cost, and flexibility characteristics.

Novità

Avvia gli esperimenti di Amazon SageMaker Autopilot da Amazon SageMaker Pipelines per automatizzare facilmente i flussi di lavoro MLOps

30/11/2022

Leggi la storia

Ora Amazon SageMaker Pipelines supporta i test dei flussi di lavoro di machine learning nell'ambiente locale

17/08/2022

Leggi la storia

Ora Amazon SageMaker Pipelines supporta la condivisione di entità di pipeline tra account

09/08/2022

Leggi la storia

L'Orchestratore di carichi di lavoro MLOps aggiunge il supporto per la spiegabilità del modello e il monitoraggio delle distorsioni del modello di Amazon SageMaker

02/02/2022

Leggi la storia

Ora Amazon SageMaker Pipelines supporta il controllo della concorrenza

21/01/2022

Leggi la storia