Inserito il: Oct 25, 2019
Amazon Elastic Inference ha introdotto nuovi Elastic Inference Accelerators chiamati EIA2, con una memoria GPU fino a 8 GB. I clienti possono ora utilizzare Amazon Elastic Inference su modelli più grandi o modelli con dimensioni di input maggiori per l’elaborazione delle immagini, il rilevamento degli oggetti, la classificazione delle immagini, l’elaborazione vocale automatica e l’elaborazione del linguaggio naturale e altri casi d’uso di deep learning.
Amazon Elastic Inference consente di collegare la giusta quantità di accelerazione basata su GPU a qualsiasi tipo di istanza Amazon EC2, istanza Amazon SageMaker o a un’attività su Amazon ECS per ridurre fino al 75% il costo dell’esecuzione dell’inferenza di deep learning. Con Amazon Elastic Inference, puoi scegliere il tipo di istanza più adatto alle esigenze complessive di CPU e memoria dell’applicazione, per configurare separatamente la quantità di accelerazione di inferenza di cui hai bisogno senza modificare il codice. Fino a oggi, potevi eseguire il provisioning di un massimo di 4 GB di memoria GPU su Elastic Inference. Ora puoi scegliere tra 3 nuovi tipi di acceleratori, con una memoria GPU rispettiva di 2 GB, 4 GB e 8 GB. Amazon Elastic Inference offre supporto per i modelli TensorFlow, Apache MXNet e ONNX e prevede più framework disponibili a breve.
I nuovi Elastic Inference Accelerator sono disponibili in Stati Uniti orientali (Virginia), Stati Uniti occidentali (Oregon), Stati Uniti orientali (Ohio), Asia Pacifico (Seul) e UE (Irlanda). Il supporto per le altre regioni sarà disponibile a breve.
Per ulteriori informazioni, consulta la pagina del prodotto e la documentazione di Amazon Elastic Inference.