Domande generali

D: Cos’è Amazon Elastic Inference?

R: Amazon Elastic Inference (Amazon EI) è un servizio di calcolo accelerato che consente di allegare la giusta quantità di accelerazione di inferenza basata su GPU a qualsiasi tipo di istanza Amazon EC2, Amazon SageMaker o attività Amazon ECS. Ciò significa che ora puoi scegliere il tipo di istanza più adatto alle esigenze complessive di elaborazione, memoria e archiviazione dell'applicazione, quindi configurare separatamente la quantità di accelerazione di inferenza di cui si ha bisogno.

D: Cosa sono gli acceleratori di Amazon Elastic Inference?

R: Gli acceleratori di Amazon Elastic Inference sono dispositivi di hardware basati su GPU progettati per funzionare con qualsiasi istanza EC2, SageMaker o attività ECS per accelerare i carichi di lavoro di inferenza di deep learning a un costo ridotto. Quando si avvia un'istanza EC2 o un'attività ECS con Amazon Elastic Inference, un acceleratore viene assegnato e allegato all'istanza attraverso la rete. Gli strumenti e i framework di deep learning come TensorFlow Serving, Apache MXNet e PyTorch che sono abilitati per Amazon Elastic Inference possono rilevare e ripartire automaticamente operazioni di calcolo di modelli all'acceleratore allegato.

D: Qual è la differenza tra i tipi di famiglie degli acceleratori Amazon Elastic Inference?

R: Gli acceleratori EIA2 hanno una memoria GPU doppia rispetto agli acceleratori EIA1 equivalenti. È possibile determinare le esigenze di memoria della GPU in base al modello e alle dimensioni di input del tensor e scegliere la famiglia di acceleratori e il tipo adatti alle proprie esigenze.

Configurazione

D: Come si effettua il provisioning degli acceleratori di Amazon Elastic Inference?

R: Si possono configurare gli endpoint Amazon SageMaker, le istanze di Amazon EC2 o le attività ECS con gli acceleratori di Amazon Elastic Inference usando la Console di gestione AWS, l’interfaccia a riga di comando (CLI) o l’SDK AWS. Ci sono due requisiti per l’avvio di istanze EC2 con acceleratori. Prima si deve effettuare il provisioning di un endpoint VPC di AWS PrivateLink per le sottoreti nelle quali si desidera avviare gli acceleratori. Poi, quando si avvia l’istanza, occorre fornire un ruolo di istanza con una policy che permette agli utenti di accedere all’istanza per collegare gli acceleratori. Quando si configura un’istanza da avviare con Amazon EI, viene riservato un acceleratore nella stessa zona di disponibilità nell’endpoint VPC.

D: Quali formati di modello supporta Amazon Elastic Inference?

R: Amazon Elastic Inference supporta i modelli addestrati con TensorFlow, Apache MXNet, PyTorch e ONNX.

D: Posso distribuire modelli su Amazon Elastic Inference usando framework TensorFlow, Apache MXNet o PyTorch?

R: Sì, puoi usare librerie TensorFlow Serving, Apache MXNet e PyTorch ottimizzate per AWS per distribuire modelli ed effettuare chiamate inferenziali.

D: Come posso accedere a framework ottimizzati per AWS?

R: Le AMI AWS Deep Learning includono le versioni più recenti di TensorFlow Serving, Apache MXNet e PyTorch ottimizzate per essere usate con gli acceleratori di Amazon Elastic Inference. Puoi anche ottenere tramite Amazon S3 le librerie per creare le tue AMI o immagini di contenitori. Per ulteriori informazioni, consulta la nostra documentazione (https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/elastic-inference.html).

D: Posso usare CUDA con gli acceleratori di Amazon Elastic Inference?

R: No, puoi solo usare librerie TensorFlow Serving, Apache MXNet o PyTorch ottimizzate per AWS come interfaccia con gli acceleratori di Amazon Elastic Inference.

Prezzi e fatturazione

D: Come viene fatturato l'utilizzo di Amazon Elastic Inference?

R: Si paga solo per le ore di acceleratore di Amazon Elastic Inference utilizzate. Per ulteriori informazioni, consulta la pagina dei prezzi.

D: Mi saranno addebitati costi per gli endpoint VPC di AWS PrivateLink per il servizio Amazon Elastic Inference?

R: No, non ti saranno addebitati costi per gli endpoint VPC per il servizio Amazon Elastic Inference dal momento in cui hai almeno un'istanza configurata con un acceleratore, eseguita nella zona di disponibilità dove è riservato un endpoint VPC.

Standard Product Icons (Features) Squid Ink
Ulteriori informazioni sui prezzi

Consulta la pagina dei prezzi di Amazon Elastic Inference per informazioni dettagliate sui prezzi.

Ulteriori informazioni 
Sign up for a free account
Registrati per creare un account gratuito

Ottieni accesso istantaneo al piano gratuito di AWS. 

Registrati 
Standard Product Icons (Start Building) Squid Ink
Inizia subito a creare nella console

Inizia con Amazon Elastic Inference su Amazon SageMaker o Amazon EC2.

Accedi