Inserito il: Apr 1, 2019

Siamo lieti di annunciare un nuovo script di Python che facilita l'avvio di Amazon Elastic Inference.

Amazon Elastic Inference (EI) consente di collegare accelerazione a basso costo basata su GPU alle istanze Amazon EC2 e Amazon SageMaker consentendoti di ridurre i costi di esecuzione dell'inferenza di apprendimento approfondito fino al 75%. Amazon El offre supporto per i modelli TensorFlow, Apache MXNet e ONNX e prevede più framework disponibili a breve. Attualmente, il servizio Amazon EI è disponibile in quattro regioni: Stati Uniti orientali, Stati Uniti occidentali, UE e Asia Pacifico.

Se si utilizza Amazon EI per la prima volta, la configurazione dell'ambiente per l'avvio delle istanze su Amazon EI può richiedere tempo. Prima di poter utilizzare gli acceleratori Amazon EI, è necessario configurare una serie di dipendenze, tra cui gli endpoint VPC di AWS PrivateLink, le policy di AWS IAM e le regole di gruppi di sicurezza. Lo script di Python di Amazon EI semplifica l'avvio grazie alla creazione di risorse necessarie che ti aiuteranno a lanciare acceleratori Amazon EI in pochi minuti. È possibile scaricare lo script amazonei_setup.py da GitHub sul tuo computer locale ed eseguirlo dal tuo terminale usando il seguente comando:

$ python amazonei_setup.py

Lo script garantirà che tutte le impostazioni siano configurate correttamente e che l'istanza venga avviata con le autorizzazioni necessarie per utilizzare il servizio Amazon EI.

Per ulteriori informazioni su come utilizzare lo script di Python di Amazon EI, consulta la sezione Avvia acceleratori EI in pochi minuti con lo strumento di configurazione Amazon Elastic Inference per EC2.