Questions d'ordre général

Q : Qu'est-ce qu'Amazon Elastic Inference ?

R : Amazon Elastic Inference (Amazon EI) est un service de calcul accéléré qui vous permet de joindre la quantité appropriée d'accélération d'inférence alimentée par GPU à tout type d'instance Amazon EC2 ou SageMaker. Cela signifie que vous pouvez désormais choisir le type d'instance le mieux adapté aux besoins globaux de votre application en calcul, en mémoire et en stockage, puis configurer séparément la quantité d'accélération d'inférence dont vous avez besoin.

Q : Que sont les accélérateurs d'Amazon Elastic Inference ?

R : Les accélérateurs d'Amazon Elastic Inference sont des dispositifs matériels conçus pour fonctionner avec n'importe quel type d'instance EC2 pour accélérer les charges de travail d'inférence deep learning à bas coût. Lorsque vous lancez une instance avec Amazon Elastic Inference, nous vous fournissons et attachons un accélérateur à l'instance sur le réseau. Les outils et frameworks de deep learning comme TensorFlow Serving et Apache MXNet, qui ont accès à Amazon Elastic Inference, peuvent détecter et décharger automatiquement un modèle informatiquement à l'accélérateur attaché.

Configuration

Q : Comment puis-je alimenter les accélérateurs d'Amazon Elastic Inference ?

R : Vous pouvez configurer les points de terminaison Amazon SageMaker ou les instances EC2 avec les accélérateurs d'Amazon Elastic Inference à l'aide d'AWS Management Console, l'interface de ligne de commande (CLI) AWS ou l'AWS SDK. Il existe deux prérequis pour lancer les instances EC2 avec les accélérateurs. Vous devrez d'abord approvisionner un point de terminaison d'un VPC AWS PrivateLink pour les sous-réseaux sur lesquels vous pensez lancer vos accélérateurs. Ensuite, lorsque vous lancerez une instance, vous devrez fournir un rôle d'instance avec une politique permettant aux utilisateurs accédant à l'instance de se connecter aux accélérateurs. Si vous configurez une instance pour se lancer avec Amazon EI, nous vous fournirons un accélérateur dans la même zone de disponibilité derrière le point de terminaison du VPC.

Q : Quels formats de modèle Amazon Elastic Inference prend-il charge ?

R : Amazon Elastic Inference prend en charge les modèles formés à l'aide de TensorFlow, Apache MXNet et ONNX.

Q : Puis-je déployer des modèles sur Amazon Elastic Inference à l'aide des frameworks TensorFlow ou Apache MXNet ?

R : Oui, vous pouvez utiliser les bibliothèques TensorFlow Serving et Apache MXNet améliorées par AWS pour déployer des modèles et effectuer des appels d'inférence.

Q : Comment puis-je accéder aux frameworks optimisés d'AWS ?

R : Les AMI AWS Deep Learning contiennent les dernières versions de TensorFlow Serving et d'Apache MXNet optimisées pour être utilisées avec les accélérateurs Amazon Elastic Inference. Vous pouvez également obtenir les bibliothèques via Amazon S3 pour concevoir vos propres AMI ou vos propres images de conteneur. Pour plus d'informations, consultez notre documentation.

Q : Puis-je utiliser les CUDA avec les accélérateurs d'Amazon Elastic Inference ?

R : Non, vous ne pouvez utiliser que les bibliothèques TensorFlow Serving ou Apache MXNet améliorées par AWS comme interface vers les accélérateurs Amazon Elastic Inference.

Tarification et facturation

Q : De quelle manière l'utilisation d'Amazon Elastic Inference m'est-elle facturée ?

R : Vous ne payez que pour les heures d'accélérateur d'Amazon Elastic Inference que vous avez utilisées. Pour plus d'informations, consultez la page tarification.

Q : Des frais d'utilisation des points de terminaison de VPC AWS PrivateLink me seront-ils facturés pour le service Amazon Elastic Inference ?

Non, vous n'aurez pas à verser de frais pour les points de terminaison des VPC du service Amazon Elastic Inference, tant que vous possédez au moins une instance configurée avec un accélérateur s'exécutant dans une zone de disponibilité dans laquelle un point de terminaison de VPC est fourni.

Product-Page_Standard-Icons_01_Product-Features_SqInk
En savoir plus sur la tarification

Pour obtenir des informations détaillées sur la facturation, consultez la page relative aux tarifs d'Amazon Elastic Inference.

En savoir plus 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
Créer gratuitement un compte

Obtenez un accès instantané à l'offre gratuite d'AWS. 

S'inscrire 
Product-Page_Standard-Icons_03_Start-Building_SqInk
Commencez à créer sur la console

Premiers pas avec Amazon Elastic Inference sur Amazon SageMaker ou Amazon EC2.

Se connecter