Instances G5 Amazon EC2

Instances GPU hautes performances pour les applications gourmandes en ressources graphiques et l'inférence par machine learning

Les instances G5 Amazon EC2 sont la génération la plus récente d'instances basées sur le processeur graphique NVIDIA. Elles peuvent être utilisées pour un large éventail de cas exigeants en ressources graphiques et en capacités de machine learning. Elles offrent des performances jusqu'à 3 fois supérieures pour les applications gourmandes en ressources graphiques et l'inférence de machine learning, et jusqu'à 3,3 fois supérieures pour l'entraînement ML par rapport aux instances G4dn Amazon EC2.

Les clients peuvent utiliser les instances G5 pour des applications qui recourent massivement aux graphismes, telles que les postes de travail à distance, le rendu vidéo et les jeux vidéo, afin de produire des graphismes haute fidélité en temps réel. Avec les instances G5, les clients du machine learning bénéficient d'une infrastructure performante et rentable. Ils peuvent ainsi entraîner et déployer des modèles plus étendus et plus sophistiqués pour le traitement du langage naturel, la vision par ordinateur et les cas d'utilisation des moteurs de recommandation.

Les instances G5 comportent jusqu'à 8 GPU NVIDIA A10G Tensor Core et des processeurs AMD EPYC de 2e génération. Elles prennent également en charge jusqu'à 192 vCPU, jusqu'à 100 Gbit/s de bande passante du réseau et jusqu'à 7,6 To de stockage local SSD NVMe.

Nouvelles instances G5 Amazon EC2 (1:20)

Avantages

Hautes performances pour les applications à forte intensité graphique

Les instances G5 offrent des performances graphiques jusqu'à 3 fois supérieures et un rapport prix/performances jusqu'à 40 % supérieur à celui des instances G4dn. Elles possèdent plus de cœurs de lancer de rayon que n'importe quelle autre instance EC2 basée sur des GPU. En outre, elles disposent de 24 Go de mémoire par GPU et prennent en charge la technologie NVIDIA RTX. Ces instances sont donc idéales pour rendre des scènes réalistes plus rapidement, exécuter de puissantes stations de travail virtuelles et prendre en charge des applications graphiques complexes avec une plus grande fidélité.

Performances et rentabilité élevées pour l'inférence de machine learning

Les instances G5 offrent des performances jusqu'à 3 fois supérieures et un rapport prix/performances jusqu'à 40 % plus élevé pour l'inférence par machine learning par rapport aux instances G4dn. Ce sont des solutions hautement performantes et économiques pour les clients cherchant à utiliser des bibliothèques NVIDIA telles que TensorRT, CUDA ou encore cuDNN pour l'exécution de leurs applications de ML.

Entraînement rentable pour des modèles de machine learning modérément complexes

Les instances G5 offrent un coût d'entraînement jusqu'à 15 % inférieur à celui des instances P3 Amazon EC2. Elles offrent également des performances jusqu'à 3,3 fois supérieures pour l'entraînement ML par rapport aux instances G4dn. Cela en fait une solution rentable pour entraîner des modèles de machine learning à nœud unique modérément complexes. Elle est utile pour le traitement du langage naturel, la vision par ordinateur et les cas d'utilisation des moteurs de recommandation.

Optimisation de l'efficacité des ressources

Les instances G5 reposent sur AWS Nitro System. Ce système associe un matériel dédié et un hyperviseur léger, qui fournit pratiquement toutes les ressources de calcul et de mémoire du matériel hôte à vos instances pour de meilleures performances globales et une meilleure sécurité. Avec les instances G5, le système Nitro approvisionne les GPU en mode transmission, offrant ainsi des performances comparables à celles du matériel nu.

Fonctions

GPU AWS NVIDIA A10G Tensor Core

Les instances G5 sont les premières du cloud à intégrer des GPU NVIDIA A10G Tensor Core. Ces GPU offrent des performances élevées pour les applications gourmandes en ressources graphiques et de machine learning. Chaque instance comprend jusqu'à 8 GPU A10G Tensor Core dotés de 80 cœurs de lancer de rayon et de 24 Go de mémoire par GPU. Elles sont également équipées de 320 cœurs NVIDIA Tensor de troisième génération qui fournissent jusqu'à 250 TOPS, offrant ainsi des performances élevées pour les charges de travail ML.

Pilotes NVIDIA

Les instances G5 proposent aux clients des pilotes NVIDIA RTX pour l'entreprise (Enterprise) et les jeux vidéo sans coût supplémentaire. Les pilotes NVIDIA RTX Enterprise peuvent être utilisés pour fournir des postes de travail virtuels de haute qualité pour un large éventail de flux graphiquement exigeants. Les pilotes NVIDIA pour les jeux vidéo offrent un support graphique et informatique inégalé pour le développement de jeux. Les instances G5 prennent également en charge les bibliothèques CUDA, cuDNN, NVENC, TensorRT, cuBLAS, OpenCL, DirectX 11/12, Vulkan 1.1 et OpenGL 4.5.

Mise en réseau et stockage hautes performances

Les instances G5 sont dotées d'un débit réseau pouvant atteindre 100 Gbit/s. Cela leur permet de répondre aux besoins en matière de faible latence liés à l'inférence par machine learning et aux applications gourmandes en ressources graphiques. 24 Go de mémoire par GPU ainsi que la prise en charge d'un maximum de 7,6 To de stockage SSD NVMe local permettent le stockage local de modèles et de jeux de données volumineux. Ces capacités sont très utiles pour des entraînements et des inférences de haute performance en matière de machine learning. Les instances G5 peuvent également stocker localement des fichiers vidéo volumineux, ce qui permet d'améliorer les performances graphiques et d'offrir un rendu plus volumineux et plus complexe pour les fichiers vidéo.

Basé sur AWS Nitro System

Les instances G5 reposent sur AWS Nitro System. Le système est un ensemble étendu de composants qui décharge de nombreuses fonctions de virtualisation traditionnelles sur du matériel et des logiciels dédiés. Cela permet d'offrir des niveaux élevés de performances, de disponibilité et de sécurité, tout en réduisant les frais de virtualisation.

Informations sur le produit

  Taille de l'instance GPU Mémoire GPU (Gio) vCPU Mémoire (Gio) Stockage (Go) Bande passante réseau (Gbit/s) Bande passante EBS (Gbit/s) Prix/heure pour les instances à la demande Tarif horaire effectif du fournisseur de services Internet pendant 1 an (Linux) Tarif horaire effectif du fournisseur de services Internet sur 3 ans (Linux)
Machines virtuelles à GPU unique g5.xlarge 1 24 4 16 1 x 250 Jusqu’à 10 Jusqu'à 3,5 1,006 USD 0,604 USD 0,402 USD
g5.2xlarge 1 24 8 32 1 x 450 Jusqu’à 10 Jusqu'à 3,5 1,212 USD 0,727 USD 0,485 USD
g5.4xlarge 1 24 16 64 1 x 600 Jusqu'à 25 8 1,624 USD 0,974 USD 0,650 USD
g5.8xlarge 1 24 32 128 1 x 900 25 16 2,448 USD 1,469 USD 0,979 USD
g5.16xlarge 1 24 64 256 1 x 1 900 25 16 4,096 USD 2,458 USD 1,638 USD
                       
Machines virtuelles à GPU multiples g5.12xlarge 4 96 48 192 1 x 3 800 40 16 5,672 USD 3,403 USD 2,269 USD
g5.24xlarge 4 96 96 384 1 x 3 800 50 19 8,144 USD 4,886 USD 3,258 USD
g5.48xlarge 8 192 192 768 2 x 3 800 100 19 16,288 USD 9,773 USD 6,515 USD

* Prix pour la région AWS USA Est (Virginie du Nord). Les tarifs pour 1 an et 3 ans des instances réservées correspondent aux options de paiement « Frais initiaux partiels » ou « Sans frais initiaux » pour les instances sans l'option Frais initiaux partiels.

Témoignages de clients

Logo Athenascope

Athenascope utilise des avancées de pointe en matière de vision par ordinateur et d'intelligence artificielle pour analyser le gameplay et faire ressortir automatiquement les moments de jeu les plus captivants. Le but est de créer des vidéos marquantes pour les joueurs et les créateurs de contenu.

« Pour créer une expérience vidéo fluide, l'analyse vidéo à faible latence à l'aide de nos modèles de vision par ordinateur est un objectif fondamental pour nous. Les instances G5 Amazon EC2 offrent une amélioration de 30 % du rapport prix/performances en comparaison avec les déploiements précédents avec les instances G4dn. »

Chris Kirmse, CEO & Founder, Athenascope

Netflix

Netflix est un des premiers services de divertissement en streaming au monde, avec 214 millions d'abonnés dans plus de 190 pays. Les abonnés profitent de séries télévisées, de documentaires et de longs métrages en tout genre et dans un large éventail de langues. 

« La création d'un studio dans le cloud pour créer des animations, des effets spéciaux et du contenu d'action en direct pour nos spectateurs a été une priorité pour nous. Nous voulons donner aux artistes la flexibilité d'accéder aux postes de travail quand et où ils en ont besoin. Nous cherchons constamment des moyens d'aider nos artistes à innover en leur donnant accès à des postes de travail plus puissants. »

Stephen Kowalski, Director of Digital Production Infrastructure Engineering, Netflix

« Avec les nouvelles instances G5 Amazon EC2, nous pouvons fournir des postes de travail graphiques haut de gamme qui offrent des performances jusqu'à trois fois supérieures à celles des postes de travail avec des instances G4dn EC2. Grâce aux instances G5, les créateurs de contenu ont la liberté de créer des contenus plus complexes et réalistes pour nos utilisateurs. »

Ben Tucker, Technical Lead, Animation Production Systems Engineering, Netflix

Varjo
« Pour les applications VR/XR haut de gamme, les instances G5 Amazon EC2 changent la donne. Nous sommes en mesure d'exécuter des applications professionnelles avec la résolution d'un œil humain, une caractéristique propre à Varjo. La fréquence d'images est trois fois supérieure à celle des instances G4dn utilisées auparavant, offrant ainsi à nos clients une qualité d'expérience inégalée lors du streaming depuis un serveur. » 

Urho Konttori, Founder and Chief Technology Officer, Varjo

Lire l'étude de cas »

Mise en route

AWS Deep Learning AMI (DLAMI) et AWS Deep Learning Containers (DLC)

Les AWS Deep Learning AMI (DLAMI) et les AWS Deep Learning Containers (DLC) fournissent aux scientifiques des données, aux spécialistes du ML et aux chercheurs des images de machines et de conteneurs préinstallées et dotées de cadres de deep learning permettant de faciliter le démarrage et d'ignorer le processus compliqué de création et d'optimisation de vos environnements logiciels à partir de zéro. Le kit SDK SynapseAI pour les accélérateurs Gaudi est intégré aux AWS DLAMI et aux AWS DLC, ce qui vous permet de démarrer rapidement avec les instances DL1.

Amazon Elastic Kubernetes Service (EKS) ou Elastic Container Service (ECS)

Les clients qui préfèrent gérer leurs propres applications conteneurisées via des services d'orchestration de conteneurs peuvent déployer des instances DL1 avec Amazon EKS ou ECS.

Ressources supplémentaires

Démonstration : Entraînement des modèles de deep learning à l'aide des instances Amazon EC2 DL1 (2:03)
Présentation des instances Amazon EC2 DL1 (3:41)
Comparaison des coûts d'entraînement des instances Amazon EC2 DL1 (0:50)
Démarrer facilement avec les instances Amazon EC2 DL1 (0:49)

Documentation Habana® Gaudi® v0.15

Consulter la documentation »

Forum des développeurs Habana®

Consulter le forum »

Référentiel GitHub Habana®

Consulter GitHub »

Ressources

Fiche technique

GPU NVIDIA A10G Tensor Core : calcul et graphismes accélérés pour le Cloud AWS

Démarrer avec AWS

Créer un compte AWS

Créer un compte AWS

Obtenez un accès instantané à l'offre gratuite d'AWS.

Apprendre avec des tutoriels simples

Apprenez-en plus avec des tutoriels de 10 minutes.

Explorez et apprenez avec des tutoriels simples.

Commencer à créer avec EC2 dans la console

Commencez à créer sur la console.

Lancez votre projet AWS en vous appuyant sur les guides étape par étape.