Domande generali

D: Cos’è Amazon Elastic Inference?

R: Amazon Elastic Inference (Amazon EI) è un servizio di calcolo accelerato che consente di allegare la giusta quantità di accelerazione di inferenza basata su GPU a qualsiasi tipo di istanza Amazon EC2 o Amazon SageMaker. Ciò significa che ora puoi scegliere il tipo di istanza più adatto alle esigenze complessive di elaborazione, memoria e archiviazione dell'applicazione, quindi configurare separatamente la quantità di accelerazione di inferenza di cui si ha bisogno.

D: Cosa sono gli acceleratori di Amazon Elastic Inference?

R: Gli acceleratori di Amazon Elastic Inference sono dispositivi di hardware basati su GPU progettati per funzionare con qualsiasi tipo di istanza EC2 per accelerare i carichi di lavoro di inferenza di apprendimento profondo a un costo ridotto. Quando si avvia un’istanza con Amazon Elastic Inference, un acceleratore viene assegnato e allegato all’istanza attraverso la rete. Gli strumenti e i framework di apprendimento profondo come TensorFlow Serving e Apache MXNet, che sono abilitati per Amazon Elastic Inference, possono rilevare e ripartire automaticamente operazioni di calcolo di modelli all’acceleratore allegato.

Configurazione

D: Come si effettua il provisioning degli acceleratori di Amazon Elastic Inference?

R: Si possono configurare gli endpoint Amazon SageMaker o le istanze di Amazon EC2 con gli acceleratori di Amazon Elastic Inference usando la Console di gestione AWS, l’interfaccia a riga di comando (CLI) o l’SDK AWS. Ci sono due requisiti per l’avvio di istanze EC2 con acceleratori. Prima si deve effettuare il provisioning di un endpoint VPC di AWS PrivateLink per le sottoreti nelle quali si desidera avviare gli acceleratori. Poi, quando si avvia l’istanza, occorre fornire un ruolo di istanza con una policy che permette agli utenti di accedere all’istanza per collegare gli acceleratori. Quando si configura un’istanza da avviare con Amazon EI, viene riservato un acceleratore nella stessa zona di disponibilità nell’endpoint VPC.

D: Quali formati di modello supporta Amazon Elastic Inference?

R: Amazon Elastic Inference supporta i modelli addestrati con TensorFlow, Apache MXNet e ONNX..

D: Posso distribuire modelli su Amazon Elastic Inference usando framework TensorFlow o Apache MXNet?

R: Sì, puoi usare librerie TensorFlow Serving e Apache MXNet ottimizzate per AWS per distribuire modelli ed effettuare chiamate inferenziali.

D: Come posso accedere a framework ottimizzati per AWS?

R: Le AMI AWS Deep Learning includono le versioni più recenti di TensorFlow Serving e Apache MXNet ottimizzate per essere usate con gli acceleratori di Amazon Elastic Inference. Puoi anche ottenere tramite Amazon S3 le librerie per creare le tue AMI o immagini di contenitori. Per ulteriori informazioni, consulta la documentazione.

D: Posso usare CUDA con gli acceleratori di Amazon Elastic Inference?

R: No, puoi solo usare librerie TensorFlow Serving o Apache MXNet ottimizzate per AWS come interfaccia con gli acceleratori di Amazon Elastic Inference.

Prezzi e fatturazione

D: Come viene fatturato l'utilizzo di Amazon Elastic Inference?

R: Si paga solo per le ore di acceleratore di Amazon Elastic Inference utilizzate. Per ulteriori informazioni, consulta la pagina dei prezzi.

D: Mi saranno addebitati costi per gli endpoint VPC di AWS PrivateLink per il servizio Amazon Elastic Inference?

No, non ti saranno addebitati costi per gli endpoint VPC di AWS PrivateLink per il servizio Amazon Elastic Inference dal momento in cui hai almeno un’istanza configurata con un acceleratore, eseguita nella zona di disponibilità dove è riservato un endpoint VPC.

Product-Page_Standard-Icons_01_Product-Features_SqInk
Ulteriori informazioni sui prezzi.

Consulta la pagina dei prezzi di Amazon Elastic Inference per informazioni dettagliate sui prezzi.

Ulteriori informazioni 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
Registrati per creare un account gratuito

Ottieni accesso istantaneo al piano gratuito di AWS. 

Registrati 
Product-Page_Standard-Icons_03_Start-Building_SqInk
Inizia subito a creare nella console

Inizia con Amazon Elastic Inference su Amazon SageMaker o Amazon EC2.

Accedi