Inserito il: Sep 17, 2019

Amazon ECS permette ora di allegare gli acceleratori di Amazon Elastic Inference ai tuoi container per permetterti di eseguire carichi di lavoro di inferenza per il deep learning in modo più conveniente. Amazon Elastic Inference consente di collegare la giusta quantità di accelerazione basata su GPU a qualsiasi tipo di istanza Amazon EC2 o Amazon SageMaker, o a un’attività su ECS per ridurre fino al 75% il costo dell’esecuzione dell’inferenza di apprendimento approfondito.

Con il supporto per ECS di Amazon Elastic Inference, puoi ora scegliere la CPU e la configurazione di memoria più adatte alle esigenze dell’applicazione, per poi configurare separatamente la quantità di accelerazione di inferenza di cui hai bisogno senza modificare il codice. Ciò consente di usare efficacemente le risorse e ridurre il costo dell’esecuzione dell’inferenza. Questa funzionalità è supportata quando si utilizzano i container e le attività Linux che usano il tipo di lancio EC2. Amazon Elastic Inference offre supporto per i modelli TensorFlow, Apache MXNet e ONNX e prevede più framework disponibili a breve.

Il supporto di Amazon Elastic Inference per ECS è disponibile in tutte le regioni in cui ECS ed Elastic Inference sono disponibili. Per iniziare, consulta la nostra documentazione