Inserito il: Apr 4, 2018

A re:Invent 2017 abbiamo introdotto un'anteprima di ML Inference per AWS Greengrass, una nuova funzionalità di AWS Greengrass che ti permette di eseguire l'inferenza Machine Learning su dispositivi IoT edge anche senza connettività al cloud. Oggi, siamo felici di annunciare la disponibilità globale di ML Inference per AWS Greengrass. Da quando abbiamo avviato l'anteprima a re:Invent, abbiamo continuato ad aggiornare le funzionalità per migliorare l'esperienza di utilizzo di ML Inference per AWS Greengrass. Abbiamo semplificato la distribuzione e l'esecuzione di modelli di Machine Learning sui tuoi dispositivi IoT. Oltre ad Apache MXNet, ML Inference per AWS Greengrass ora include un pacchetto TensorFlow preinstallato per non dover costruire o configurare il framework ML da zero sul tuo dispositivo. Questi pacchetti ML supportano i dispositivi Intel Atom, NVIDIA Jetson TX2 e Raspberry. Per ulteriori informazioni su ML Inference per Greengrass fai clic qui.

ML Inference per AWS Greengrass è disponibile nelle regioni di Stati Uniti orientali (Virginia settentrionale) e Stati Uniti occidentali (Oregon).

  • Scopri come Yanmar utilizza ML per Greengrass per l'agricoltura di precisione leggendo qui.
  • Inizia a usare AWS Greengrass facendo clic qui. °