Inserito il: Nov 28, 2018
AWS IoT ora supporta Amazon SageMaker Neo. Neo consente di addestrare una sola volta i modelli di machine learning ed eseguirli nel cloud e a livello di edge. Neo ottimizza automaticamente modelli TensorFlow, MXNet, PyTorch, ONNX e XGBoost per la distribuzione su processori ARM, Intel e Nvidia. L’ottimizzazione consente un’esecuzione dei modelli fino a due volte più veloce e un consumo ridotto inferiore a un decimo della capacità di memoria. Neo sarà presto disponibile anche come codice open source con la licenza software Apache, consentendo ai fornitori di hardware di personalizzarlo nei propri processori e dispositivi. Usando Neo con AWS IoT Greengrass, puoi addestrare nuovamente i modelli in Amazon SageMaker, aggiornarli e ottimizzarli rapidamente per migliorare l’intelligenza di questi dispositivi edge. Puoi usare una vasta gamma di dispositivi che si basano sulle piattaforme Nvidia Jetson TX2, Arm v7 (Raspberry Pi) o Intel Atom.
Inoltre, AWS IoT fornisce nuovi connettori per la classificazione di immagini che vengono addestrati sfruttando l’algoritmo della classificazione di immagini di Amazon SageMaker. Questi connettori offrono un pacchetto che include il codice AWS Lambda richiesto e le dipendenze ML richieste per la classificazione di immagini su un dispositivo, ad esempio una fotocamera. Un connettore è disponibile per ciascuna delle piattaforme hardware supportate: Nvidia Jetson TX2, Arm v7 (Raspberry Pi) e Intel Atom.
Per iniziare a sfruttare i miglioramenti di ML Inference per AWS IoT Greengrass consulta la pagina dei dettagli.