Inserito il: Nov 28, 2018

Amazon Sagemaker ora supporta la distribuzione di pipeline di inferenza in modo da poter passare dati di input non elaborati ed eseguire pre-elaborazione, previsioni e post-elaborazione su richieste di inferenza batch e in tempo reale. SageMaker supporta anche due nuovi framework di apprendimento automatico: Scikit-learn e Spark ML. Questo semplifica la creazione e l'implementazione di pipeline di pre-elaborazione delle funzionalità con una suite di trasformatori di funzionalità disponibile nei nuovi contenitori di framework SparkML e scikit-learn in Amazon SageMaker. Queste nuove funzionalità consentono inoltre di scrivere codice SparkML e Scikit-learn una sola volta e riutilizzarlo per la formazione e l'inferenza che fornisce coerenza nelle fasi di pre-elaborazione e una gestione più semplice dei processi di machine learning.

In genere, viene impiegato molto tempo per pulire e preparare i dati prima di formulare modelli di apprendimento automatico. Gli stessi passaggi devono essere applicati anche durante l'inferenza. In precedenza, i dati di input per le richieste di inferenza richiedevano l'elaborazione dei dati e le fasi di ingegnerizzazione delle funzioni da eseguire nell'applicazione client prima di essere inviati per le previsioni a Amazon SageMaker o come aggiunta nel contenitore di inferenza. Con le nuove pipeline di inferenza, puoi raggruppare ed esportare le fasi di pre-elaborazione e post-elaborazione utilizzate durante la formazione e distribuirle come parte di una pipeline dell'inferenza. Le pipeline di inferenza possono essere composte da qualsiasi framework di apprendimento automatico, algoritmo incorporato o contenitore personalizzato utilizzabili su Amazon SageMaker.

Tutti questi miglioramenti sono disponibili in tutte le regioni AWS in cui Amazon SageMaker è attualmente disponibile. Consulta la documentazione per maggiori informazioni.