Publicado: Nov 29, 2017
O AWS Greengrass Machine Learning (ML) Inference facilita a inferência de aprendizagem de máquina localmente nos dispositivos do AWS Greengrass usando modelos criados e treinados na nuvem. Até agora, criar e treinar modelos de aprendizagem de máquina (ML) bem como executar a inferência de aprendizagem de máquina eram tarefas realizadas quase que exclusivamente na nuvem. O treinamento de modelos de aprendizagem de máquina requer recursos maciços de computação. Portanto, é natural que ele seja feito na nuvem. Com o AWS Greengrass ML Inference, seus dispositivos do AWS Greengrass podem tomar decisões inteligentes de forma rápida já que os dados estão sendo gerados mesmo quando estão desconectados.
O recurso simplifica cada etapa de implantação do ML, incluindo o acesso a modelos de ML, a implantação de modelos nos dispositivos, a criação e implantação de frameworks de ML, a criação de aplicativos de inferência e o uso em aceleradores de dispositivos, como GPUs e FPGAs. Por exemplo, você pode acessar um modelo de aprendizado profundo criado e treinado no Amazon SageMaker diretamente do console AWS Greengrass e depois fazer download desse modelo para o seu dispositivo como parte de um grupo do AWS Greengrass. O AWS Greengrass ML Inference inclui um framework pré-criado do Apache MXNet para instalar nos dispositivos do AWS Greengrass a fim de que você não precise criar isso do zero. É possível fazer download de um pacote pré-criado do Apache MXNet para dispositivos NVIDIA Jetson, Intel Apollo Lake e Raspberry Pi diretamente da nuvem. Ele também pode ser incluído como parte do software no seu grupo do AWS Greengrass.
O AWS Greengrass ML Inference também inclui modelos pré-criados do AWS Lambda que você usa para criar um aplicativo de inferência rapidamente. O esquema Lambda fornecido mostra tarefas comuns, como carregar modelos, importar o Apache MXNet e tomar ações com base em previsões.
Em muitos aplicativos, o seu modelo de ML funcionará melhor quando você usar integralmente todos os recursos de hardware disponíveis no dispositivo, e o AWS Greengrass ML Inference ajuda com isso. Para permitir que o seu aplicativo acesse os recursos de hardware no dispositivo, declare-os como recursos locais no seu grupo do AWS Greengrass no console do AWS Greengrass.
Para usar esses recursos, cadastre-se para a prévia.