Publicado: Nov 28, 2018
O Amazon Sagemaker agora oferece suporte para implantar pipelines de inferência para que você possa enviar dados brutos de entrada e executar pré-processamento, previsões e pós-processamento em tempo real e solicitações de inferência em lotes. O Sagemaker também oferece suporte a duas novas estruturas de Machine Learning: Scikit-learn e Spark ML. Isso facilita a criação e implantação de pipelines de processamento de recursos com um pacote de transformadores de recursos disponíveis nos contêineres das novas estruturas SparkML e scikit-learn no Amazon SageMaker. Esses novos recursos também permitem gravar código SparkML e Scikit-learn uma vez e reutilizá-lo para treinamento e inferência, o que garante a consistência nas etapas de pré-processamento e facilita o gerenciamento dos seus processos de Machine Learning.
Normalmente, gasta-se muito tempo limpando e preparando dados antes de treinar os modelos de Machine Learning. As mesmas etapas também precisam ser aplicadas durante a inferência. Anteriormente, os dados de entrada para solicitações de inferência exigiam a execução de etapas de processamento de dados e de engenharia de recursos no aplicativo do cliente antes de enviar para o Amazon SageMaker para previsões ou antes de ser incluídos no contêiner de inferência. Com os novos pipelines de inferência, é possível empacotar e exportar suas etapas de pré- e pós-processamento usadas no treinamento e implantá-las como parte de um pipeline de inferência. Os pipelines de inferência podem ser compostos por qualquer estrutura de Machine Learning, algoritmo incorporado ou contêiner personalizado utilizável no Amazon SageMaker.
Todos esses aprimoramentos estão disponíveis em todas as regiões da AWS em que o Amazon SageMaker é oferecido hoje. Acesse a documentação para obter informações adicionais.