Inserito il: Aug 2, 2019
Le nuove funzionalità di monitoraggio di modelli per Amazon SageMaker sono ora disponibili in tutte le regioni AWS in cui il servizio è offerto. Con queste nuove funzionalità, è possibile trovare e confrontare gli esperimenti di addestramento di modelli di machine learning (ML) in modo rapido e semplice. Utilizzando la console di gestione AWS o il kit SDK AWS, è possibile eseguire ricerche più rapide tra migliaia di esperimenti di addestramento e confrontare i parametri per valutare le prestazioni in diverse iterazioni, accelerando così la capacità di rilevamento di modelli più performanti.
Lo sviluppo di modelli ML è un processo iterativo. L’ottimizzazione del modello avviene tramite gli esperimenti con diverse combinazioni di dati, algoritmi e parametri. Questa sperimentazione continua si traduce spesso in un gran numero di versioni di modello, il che rende difficile il tracciamento degli esperimenti e rallenta il rilevamento del modello più efficace. Inoltre, il monitoraggio delle variabili di una versione specifica del modello risulta alquanto tedioso nel tempo, nonché ostacola il controllo e la verifica della conformità. Con le nuove funzionalità di monitoraggio di modelli di Amazon SageMaker, puoi velocizzare l’identificazione del modello più rilevante, eseguire ricerche con diversi parametri, tra cui l'algoritmo di apprendimento, le impostazioni degli iperparametri e tutti i tag aggiunti durante le esecuzioni di addestramento. È inoltre possibile confrontare e classificare le esecuzioni di addestramento. in base ai loro parametri prestazionali, ad esempio la perdita di formazione e l'accuratezza della convalida, il che consente di identificare i modelli più performanti in modo rapido.
Puoi iniziare a usare i nostri notebook di esempio, e saperne di più sulla funzionalità nel blog e nella guida per gli sviluppatori.