Inserito il: Nov 28, 2018
Amazon SageMaker supporta ora nuove funzionalità per una migliore orchestrazione, sperimentazione e collaborazione per i flussi di lavoro di machine learning (ML). AWS Step Functions è ora integrato in Amazon SageMaker e AWS Glue, rendendo più facile compilare, distribuire, monitorare e iterare flussi di lavoro di ML. Con AWS Step Functions adesso puoi automatizzare i flussi di apprendimento automatico connettendo diversi lavori Amazon SageMaker nel giro di pochi minuti e con meno codice. Ora possiamo fornire supporto nell'organizzare, monitorare e valutare i test di training ML con Amazon SageMaker Search, disponibile da oggi in versione beta. Infine, è ora possibile associare GitHub, AWS CodeCommit e qualsiasi repository Git in self-hosting con le istanze dei notebook Amazon SageMaker per collaborare in modo semplice e sicuro e garantire il controllo della versione con i notebook Jupyter. Per ulteriori informazioni, consulta la documentazione su AWS Step Functions.
In genere, l'automazione dei flussi di lavoro ML comporta la scrittura e la manutenzione del codice per definire la logica del flusso di lavoro, monitorare il completamento di ogni lavoro e risolvere eventuali errori. I modelli di ML devono essere gestiti per set di dati di grandi dimensioni prima di essere distribuiti in ambienti di produzione. La ridistribuzione è necessaria ogni volta che un modello cambia e sono necessari più team per garantire che il modello funzioni come previsto. L'intero processo è complesso e può rallentare la distribuzione delle applicazioni. Con l'integrazione di AWS Step Functions e Amazon SageMaker, è possibile automatizzare la pubblicazione di diversi set di dati di grandi dimensioni in un data lake Amazon S3, eseguire il training di modelli di ML e distribuirli in produzione. AWS Step Functions è in grado di sequenziare ed eseguire lavori in parallelo e di eseguire automaticamente nuovi tentativi per i lavori non riusciti. L'integrazione include la gestione integrata degli errori, il passaggio dei parametri e la gestione dello stato. Ciò consente di accelerare la distribuzione di applicazioni ML sicure e resilienti, riducendo al contempo la quantità di codice da scrivere e mantenere.
Lo sviluppo di un modello ML di successo richiede una continua sperimentazione, il test di nuovi algoritmi e iperparametri, l’osservazione di ogni impatto sulle prestazioni e sulla precisione. Ciò rende difficile monitorare la combinazione unica di set di dati, algoritmi e parametri per ottenere il modello più efficace. Adesso è possibile organizzare, monitorare e valutare i propri test di training sui modelli di machine learning con Amazon SageMaker Search. SageMaker Search consente di trovare e valutare rapidamente i training sul modello più rilevanti tra le migliaia di training potenziali sul modello, direttamente dalla console di gestione AWS e tramite l'SDK AWS per Amazon SageMaker. Search è disponibile in versione beta nelle 13 aree AWS in cui Amazon SageMaker è attualmente disponibile. Per ulteriori informazioni, leggi il blog qui.
Spesso è necessario condividere idee, mansioni e collaborare per progredire in ambito machine learning. Lo standard effettivo per la collaborazione con lo sviluppo di software tradizionale è stato il controllo di versione, che gioca un ruolo importante anche per il machine learning. Ora è possibile associare GitHub, AWS CodeCommit e qualsiasi repository Git in self-hosting con le istanze dei notebook Amazon SageMaker per collaborare in modo semplice e sicuro e garantire il controllo della versione con i notebook Jupyter. Utilizzando i repository Git con i notebook Jupyter, è facile creare progetti in collaborazione, monitorare le modifiche al codice e combinare lo sviluppo di software e le pratiche di data science per la gestione del codice idoneo per la produzione. È possibile scoprire, eseguire e condividere facilmente le tecniche di machine learning e deep learning fornite sui notebook Jupyter e ospitate in GitHub. Per ulteriori informazioni, leggi il blog qui.
In genere, l'automazione dei flussi di lavoro ML comporta la scrittura e la manutenzione del codice per definire la logica del flusso di lavoro, monitorare il completamento di ogni lavoro e risolvere eventuali errori. I modelli di ML devono essere gestiti per set di dati di grandi dimensioni prima di essere distribuiti in ambienti di produzione. La ridistribuzione è necessaria ogni volta che un modello cambia e sono necessari più team per garantire che il modello funzioni come previsto. L'intero processo è complesso e può rallentare la distribuzione delle applicazioni. Con l'integrazione di AWS Step Functions e Amazon SageMaker, è possibile automatizzare la pubblicazione di diversi set di dati di grandi dimensioni in un data lake Amazon S3, eseguire il training di modelli di ML e distribuirli in produzione. AWS Step Functions è in grado di sequenziare ed eseguire lavori in parallelo e di eseguire automaticamente nuovi tentativi per i lavori non riusciti. L'integrazione include la gestione integrata degli errori, il passaggio dei parametri e la gestione dello stato. Ciò consente di accelerare la distribuzione di applicazioni ML sicure e resilienti, riducendo al contempo la quantità di codice da scrivere e mantenere.
Lo sviluppo di un modello ML di successo richiede una continua sperimentazione, il test di nuovi algoritmi e iperparametri, l’osservazione di ogni impatto sulle prestazioni e sulla precisione. Ciò rende difficile monitorare la combinazione unica di set di dati, algoritmi e parametri per ottenere il modello più efficace. Adesso è possibile organizzare, monitorare e valutare i propri test di training sui modelli di machine learning con Amazon SageMaker Search. SageMaker Search consente di trovare e valutare rapidamente i training sul modello più rilevanti tra le migliaia di training potenziali sul modello, direttamente dalla console di gestione AWS e tramite l'SDK AWS per Amazon SageMaker. Search è disponibile in versione beta nelle 13 aree AWS in cui Amazon SageMaker è attualmente disponibile. Per ulteriori informazioni, leggi il blog qui.
Spesso è necessario condividere idee, mansioni e collaborare per progredire in ambito machine learning. Lo standard effettivo per la collaborazione con lo sviluppo di software tradizionale è stato il controllo di versione, che gioca un ruolo importante anche per il machine learning. Ora è possibile associare GitHub, AWS CodeCommit e qualsiasi repository Git in self-hosting con le istanze dei notebook Amazon SageMaker per collaborare in modo semplice e sicuro e garantire il controllo della versione con i notebook Jupyter. Utilizzando i repository Git con i notebook Jupyter, è facile creare progetti in collaborazione, monitorare le modifiche al codice e combinare lo sviluppo di software e le pratiche di data science per la gestione del codice idoneo per la produzione. È possibile scoprire, eseguire e condividere facilmente le tecniche di machine learning e deep learning fornite sui notebook Jupyter e ospitate in GitHub. Per ulteriori informazioni, leggi il blog qui.
In genere, l'automazione dei flussi di lavoro ML comporta la scrittura e la manutenzione del codice per definire la logica del flusso di lavoro, monitorare il completamento di ogni lavoro e risolvere eventuali errori. I modelli di ML devono essere gestiti per set di dati di grandi dimensioni prima di essere distribuiti in ambienti di produzione. La ridistribuzione è necessaria ogni volta che un modello cambia e sono necessari più team per garantire che il modello funzioni come previsto. L'intero processo è complesso e può rallentare la distribuzione delle applicazioni. Con l'integrazione di AWS Step Functions e Amazon SageMaker, è possibile automatizzare la pubblicazione di diversi set di dati di grandi dimensioni in un data lake Amazon S3, eseguire il training di modelli di ML e distribuirli in produzione. AWS Step Functions è in grado di sequenziare ed eseguire lavori in parallelo e di eseguire automaticamente nuovi tentativi per i lavori non riusciti. L'integrazione include la gestione integrata degli errori, il passaggio dei parametri e la gestione dello stato. Ciò consente di accelerare la distribuzione di applicazioni ML sicure e resilienti, riducendo al contempo la quantità di codice da scrivere e mantenere.
Lo sviluppo di un modello ML di successo richiede una continua sperimentazione, il test di nuovi algoritmi e iperparametri, l’osservazione di ogni impatto sulle prestazioni e sulla precisione. Ciò rende difficile monitorare la combinazione unica di set di dati, algoritmi e parametri per ottenere il modello più efficace. Adesso è possibile organizzare, monitorare e valutare i propri test di training sui modelli di machine learning con Amazon SageMaker Search. SageMaker Search consente di trovare e valutare rapidamente i training sul modello più rilevanti tra le migliaia di training potenziali sul modello, direttamente dalla console di gestione AWS e tramite l'SDK AWS per Amazon SageMaker. Search è disponibile in versione beta nelle 13 aree AWS in cui Amazon SageMaker è attualmente disponibile. Per ulteriori informazioni, leggi il blog qui.
Spesso è necessario condividere idee, mansioni e collaborare per progredire in ambito machine learning. Lo standard effettivo per la collaborazione con lo sviluppo di software tradizionale è stato il controllo di versione, che gioca un ruolo importante anche per il machine learning. Ora è possibile associare GitHub, AWS CodeCommit e qualsiasi repository Git in self-hosting con le istanze dei notebook Amazon SageMaker per collaborare in modo semplice e sicuro e garantire il controllo della versione con i notebook Jupyter. Utilizzando i repository Git con i notebook Jupyter, è facile creare progetti in collaborazione, monitorare le modifiche al codice e combinare lo sviluppo di software e le pratiche di data science per la gestione del codice idoneo per la produzione. È possibile scoprire, eseguire e condividere facilmente le tecniche di machine learning e deep learning fornite sui notebook Jupyter e ospitate in GitHub. Per ulteriori informazioni, leggi il blog qui.