Publicado: Apr 4, 2018

No re:Invent 2017, apresentamos uma prévia do AWS Greengrass ML Inference, um novo recurso do AWS Greengrass que permite que você execute inferência de machine learning em dispositivos de ponta de IoT, mesmo sem conectividade com a nuvem. Hoje, temos o prazer de anunciar a disponibilidade geral do AWS Greengrass ML Inference. Desde que lançamos nossa prévia no re:Invent, adicionamos aprimoramentos de recursos para melhorar sua experiência ao usar o AWS Greengrass ML Inference. Facilitamos a implantação e a execução de modelos de machine learning em seus dispositivos IoT. Além do Apache MXNet, o AWS Greengrass ML Inference agora inclui um pacote TensorFlow pré-criado para que você não precise criar ou configurar o framework do ML para o seu dispositivo do zero. Esses pacotes do ML são compatíveis com dispositivos Intel Atom, NVIDIA Jetson TX2 e Rasperry Pi. Para obter mais informações sobre o Greengrass ML Inference, consulte aqui.

O AWS Greengrass ML Inference está disponível nas regiões Leste dos EUA (Norte da Virgínia) e Oeste dos EUA (Oregon).

  • Leia como a Yanmar está usando o Greengrass ML para agricultura de precisão aqui.
  • Conheça o básico do AWS Greengrass aqui.