- Amazon EC2›
- Types d’instances›
- Instances G5
Instances Amazon EC2 G5
Instances basées sur les GPU hautes performances pour les applications gourmandes en ressources graphiques et l’inférence en machine learning
Pourquoi choisir les instances Amazon EC2 G5 ?
Les instances Amazon EC2 G5 sont la génération la plus récente d'instances basées sur le processeur graphique NVIDIA et peuvent être utilisées pour un large éventail de cas exigeants en ressources graphiques et en capacités de machine learning. Elles offrent des performances jusqu'à 3 fois supérieures pour les applications gourmandes en ressources graphiques et l'inférence de machine learning, et jusqu'à 3,3 fois supérieures pour l'entraînement ML par rapport aux instances G4dn Amazon EC2.
Les clients peuvent utiliser les instances G5 pour des applications qui recourent massivement aux graphismes, telles que les postes de travail à distance, le rendu vidéo et les jeux vidéo, afin de produire des graphismes haute fidélité en temps réel. Avec les instances G5, les clients du machine learning bénéficient d'une infrastructure performante et rentable. Ils peuvent ainsi entraîner et déployer des modèles plus étendus et plus sophistiqués pour le traitement du langage naturel, la vision par ordinateur et les cas d'utilisation des moteurs de recommandation.
Les instances G5 comportent jusqu'à 8 processeurs NVIDIA et AMD EPYC de deuxième génération. Elles prennent également en charge jusqu'à 192 vCPU, jusqu'à 100 Gb/s de bande passante du réseau et jusqu'à 7,6 To de stockage local SSD NVMe.
Avantages
Les instances G5 offrent des performances graphiques jusqu'à 3 fois supérieures et un rapport prix/performances jusqu'à 40 % supérieur à celui des instances G4dn. Elles possèdent plus de cœurs de lancer de rayon que n'importe quelle autre instance EC2 basée sur des GPU. En outre, elles disposent de 24 Go de mémoire par GPU et prennent en charge la technologie NVIDIA RTX. Ces instances sont donc idéales pour rendre des scènes réalistes plus rapidement, exécuter de puissantes stations de travail virtuelles et prendre en charge des applications graphiques complexes avec une plus grande fidélité.
Les instances G5 offrent des performances jusqu'à 3 fois supérieures et un rapport prix/performances jusqu'à 40 % plus élevé pour l'inférence par machine learning par rapport aux instances G4dn. Ce sont des solutions hautement performantes et économiques pour les clients cherchant à utiliser des bibliothèques NVIDIA telles que TensorRT, CUDA ou encore cuDNN pour l'exécution de leurs applications de ML.
Les instances G5 offrent un coût d'entraînement jusqu'à 15 % inférieur à celui des instances P3 Amazon EC2. Elles offrent également des performances jusqu'à 3,3 fois supérieures pour l'entraînement ML par rapport aux instances G4dn. Cela en fait une solution rentable pour entraîner des modèles de machine learning à nœud unique modérément complexes. Elle est utile pour le traitement du langage naturel, la vision par ordinateur et les cas d'utilisation des moteurs de recommandation.
Les instances G5 reposent sur AWS Nitro System. Ce système associe un matériel dédié et un hyperviseur léger, qui fournit pratiquement toutes les ressources de calcul et de mémoire du matériel hôte à vos instances pour de meilleures performances globales et une meilleure sécurité. Avec les instances G5, le système Nitro approvisionne les GPU en mode transmission, offrant ainsi des performances comparables à celles du matériel nu.
Fonctions
Les instances G5 sont les premières du cloud à intégrer des GPU NVIDIA A10G Tensor Core. Ces GPU offrent des performances élevées pour les applications gourmandes en ressources graphiques et de machine learning. Chaque instance comprend jusqu'à 8 GPU A10G Tensor Core dotés de 80 cœurs de lancer de rayon et de 24 Go de mémoire par GPU. Elles sont également équipées de 320 cœurs NVIDIA Tensor de troisième génération qui fournissent jusqu'à 250 TOPS, offrant ainsi des performances élevées pour les charges de travail ML.
Les instances G5 proposent aux clients des pilotes NVIDIA RTX pour l'entreprise (Enterprise) et les jeux vidéo sans coût supplémentaire. Les pilotes NVIDIA RTX Enterprise peuvent être utilisés pour fournir des postes de travail virtuels de haute qualité pour un large éventail de flux graphiquement exigeants. Les pilotes NVIDIA pour les jeux vidéo offrent un support graphique et informatique inégalé pour le développement de jeux. Les instances G5 prennent également en charge les bibliothèques CUDA, cuDNN, NVENC, TensorRT, cuBLAS, OpenCL, DirectX 11/12, Vulkan 1.1 et OpenGL 4.5.
Les instances G5 sont dotées d'un débit réseau pouvant atteindre 100 Gbit/s. Cela leur permet de répondre aux besoins en matière de faible latence liés à l'inférence par machine learning et aux applications gourmandes en ressources graphiques. 24 Go de mémoire par GPU ainsi que la prise en charge d'un maximum de 7,6 To de stockage SSD NVMe local permettent le stockage local de modèles et de jeux de données volumineux. Ces capacités sont très utiles pour des entraînements et des inférences de haute performance en matière de machine learning. Les instances G5 peuvent également stocker localement des fichiers vidéo volumineux, ce qui permet d'améliorer les performances graphiques et d'offrir un rendu plus volumineux et plus complexe pour les fichiers vidéo.
Les instances G5 reposent sur AWS Nitro System. Le système est un ensemble étendu de composants qui décharge de nombreuses fonctions de virtualisation traditionnelles sur du matériel et des logiciels dédiés. Cela permet d'offrir des niveaux élevés de performances, de disponibilité et de sécurité, tout en réduisant les frais de virtualisation.
Informations sur le produit
|
|
Instance Size
|
GPU
|
GPU Memory (GiB)
|
vCPUs
|
Memory (GiB)
|
Storage (GB)
|
Network Bandwidth (Gbps)
|
EBS Bandwidth (Gbps)
|
||||||||||||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
Machines virtuelles de GPU unique
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||
|
VM de GPU multiples
|
|
|
|
|
|
|
|
|
Athénascope
Athenascope utilise des avancées de pointe en matière de vision par ordinateur et d'intelligence artificielle pour analyser le gameplay et faire ressortir automatiquement les moments de jeu les plus captivants. Le but est de créer des vidéos marquantes pour les joueurs et les créateurs de contenu.
Pour créer une expérience vidéo fluide, l’analyse vidéo à faible latence à l’aide de nos modèles de vision par ordinateur est un objectif fondamental pour nous. Les instances Amazon EC2 G5 offrent une amélioration de 30 % du rapport prix/performances en comparaison avec les déploiements précédents avec les instances G4dn.
Chris Kirmse, CEO & Founder, Athenascope
Netflix
Netflix est un des premiers services de divertissement en streaming au monde, avec 214 millions d'abonnés dans plus de 190 pays. Les abonnés profitent de séries télévisées, de documentaires et de longs métrages en tout genre et dans un large éventail de langues.
« Avec les nouvelles instances G5 Amazon EC2, nous pouvons fournir des postes de travail graphiques haut de gamme qui offrent des performances jusqu'à trois fois supérieures à celles des postes de travail avec des instances G4dn EC2. Grâce aux instances G5, les créateurs de contenu ont la liberté de créer des contenus plus complexes et réalistes pour nos utilisateurs.
Ben Tucker, responsable technique, ingénierie des systèmes de production d’animation, Netflix
Varjo
Pour les applications VR/XR haut de gamme, les instances Amazon EC2 G5 changent la donne. Nous sommes en mesure d’exécuter des applications professionnelles avec la résolution d’un œil humain, une caractéristique propre à Varjo. La fréquence d’images est trois fois supérieure à celle des instances G4dn utilisées auparavant, offrant ainsi à nos clients une qualité d’expérience inégalée lors du streaming depuis un serveur.
Urho Konttori, fondateur et responsable informatique, Varjo
Démarrer avec les instances G5
DLAMI fournit aux praticiens et chercheurs en ML l’infrastructure et les outils nécessaires pour accélérer la DL dans le cloud, à n’importe quelle échelle. Les Deep Learning Containers sont des images Docker comportant des cadres de DL préinstallés qui rationalisent le déploiement d’environnements de ML personnalisés en vous permettant d’éliminer les tâches complexes de création et d’optimisation de vos environnements de A à Z.
Si vous préférez gérer vos propres charges de travail conteneurisées via des services d’orchestration de conteneurs, vous pouvez déployer des instances G5 avec Amazon EKS ou Amazon ECS.
Vous pouvez utiliser différentes Amazon Machine Images (AMI) proposées par AWS et l’offre NVIDIA fournies avec les pilotes NVIDIA installés.
Vous pouvez déployer des modèles de machine learning sur des instances G5 à l’aide d’Amazon SageMaker, un service entièrement géré pour créer, entraîner et déployer des modèles de machine learning.