Instances Amazon EC2 G5g

Le meilleur rapport prix/performance d'Amazon EC2 pour la diffusion de jeux en continu

Les instances Amazon EC2 G5g sont alimentées par des processeurs AWS Graviton2 et sont dotées de GPU NVIDIA T4G Tensor Core pour fournir le meilleur rapport prix/performances dans Amazon EC2 pour les charges de travail de graphiques, tel que le streaming de jeux Android. Il s'agit des premières instances basées sur Arm dans un cloud majeur à disposer de l'accélération GPU.

Avec les instances G5g, les utilisateurs de jeux en streaming peuvent exécuter des jeux Android de manière native sur des instances basées sur Arm, encoder le graphisme obtenu et diffuser le jeu via le réseau sur un périphérique mobile. Cela permet de réduire les efforts de développement en éliminant le besoin de compilation croisée ou d'émulation, et en abaissant les coûts de diffusion par heure jusqu'à 30 %.

Les instances G5g constituent également une plate-forme rentable pour l'inférence de machine learning. Elles sont idéales pour déployer des applications de deep learning nécessitant un accès aux GPU NVIDIA et à leurs bibliothèques d'IA associées.

Présentation des instances Amazon EC2 G5g alimentées par AWS Graviton2 | Amazon Web Services (1:06)

Avantages

Meilleur rapport prix/performances pour le streaming de jeux Android

Avec les instances G5g, les utilisateurs de jeux en streaming peuvent exécuter des jeux Android de manière native sur des instances basées sur Arm, encoder les graphismes rendus et diffuser le jeu via le réseau sur un appareil mobile, sans avoir besoin de compilation croisée ou d'émulation. Cela permet de simplifier les efforts de développement et de réduire les délais de commercialisation, tout en abaissant les coûts de diffusion par heure jusqu'à 30 %.

Inférence de machine learning rentable

Les instances G5g sont alimentées par les processeurs AWS Graviton2 et sont équipées de GPU NVIDIA T4G Tensor Core pour fournir des inférences de machine learning rentables. Cela permet de réduire les coûts d'infrastructure liés à l'exécution de modèles de deep learning en production et permet aux développeurs et aux entreprises de déployer des fonctionnalités de deep learning de manière plus généralisée dans leurs applications.

Sécurité renforcée et efficacité optimisée des ressources

Les instances G5g sont alimentées par des processeurs AWS Graviton2 et créées sur AWS Nitro System. Les processeurs AWS Graviton2 offrent un chiffrement DRAM 256 bits toujours actif et des performances de chiffrement 50 % plus rapides par cœur par rapport aux processeurs AWS Graviton de première génération. L’AWS Nitro System associe un matériel dédié et un hyperviseur léger, qui fournit pratiquement toutes les ressources de calcul et de mémoire du matériel hôte à vos instances du client pour des niveaux de performances et de sécurité globalement supérieurs. Les instances G5g prennent également en charge les volumes de stockage EBS chiffrés par défaut.

Support logiciel étendu

Les processeurs AWS Graviton, basés sur l'architecture Arm 64 bits, sont pris en charge par les systèmes d'exploitation Linux courants, notamment Red Hat Enterprise Linux, SUSE et Ubuntu. De nombreuses applications et de nombreux services de sécurité, de surveillance et de gestion, de conteneurs et de CI/CD proposés par AWS et d'autres fournisseurs indépendants de logiciels (ISV) prennent également en charge les instances AWS Graviton2.

Fonctions

Développé par les processeurs AWS Graviton2

Les processeurs AWS Graviton2 sont basés sur des cœurs Arm Neoverse 64 bits et de silicium personnalisé conçu par AWS qui offrent de meilleures performances et sont plus économiques. Les processeurs AWS Graviton2 offrent des performances sept fois plus élevées, quatre fois plus de cœurs de calcul, une mémoire cinq fois plus rapide et une taille de cache deux fois plus grande par rapport aux processeurs AWS Graviton de première génération.

Avec GPU NVIDIA T4G Tensor Core

Les GPU NVIDIA T4G offrent des performances graphiques et de jeu améliorées lorsqu'ils sont combinés aux processeurs AWS Graviton2. Grâce à la prise en charge de la technologie NVIDIA RTX via les cœurs RT, ils permettent un rendu par ray-tracing en temps réel, fournissant des objets et des environnements photoréalistes avec des ombres, des reflets et des réfractions physiquement précis.

Basées sur l'AWS Nitro System

L'AWS Nitro System est un ensemble étendu de composants qui décharge de nombreuses fonctions de virtualisation traditionnelles sur du matériel et des logiciels dédiés afin d'offrir des niveaux élevés de performances, de disponibilité et de sécurité, tout en réduisant les frais de virtualisation.

Clients

« Chez now.gg, nous voulons offrir aux joueurs mobiles les meilleures expériences, quelles que soient les spécifications matérielles de leur smartphone », a déclaré Rosen Sharma, président-directeur général de now.gg. « L'offre d'un service de jeu mobile basé sur le cloud présente deux défis. Le premier défi est d'ordre technique : pour les jeux mobiles, vous avez besoin de GPU puissants et de processeurs basés sur Arm fonctionnant ensemble. Le deuxième défi est de pouvoir proposer des jeux mobiles à un prix qui rende l'entreprise viable. Les instances Amazon EC2 G5g constituent une avancée majeure dans ces deux domaines, et nous avons travaillé en étroite collaboration avec AWS pour exécuter NowCloudOS en plus des instances G5g afin d'apporter ces avantages aux jeux mobiles. »

Rosen Sharma, président-directeur général - now.gg

« Le chat vocal dans les communautés de jeux vidéo est essentiel à la socialisation et à l'implication, mais il souffre d'une toxicité généralisée qui nuit aux joueurs et augmente le taux de désabonnement. Modulate utilise le machine learning pour détecter de manière proactive le harcèlement et les autres préjudices dans les conversations vocales en direct, créant ainsi un lieu de jeu plus sûr et inclusif pour les joueurs. Les instances Amazon EC2 G5g constituent un pilier essentiel de la capacité de Modulate à proposer une technologie de modération vocale rentable en temps réel, et ont réduit nos coûts d'inférence de machine learning jusqu'à 70 % . »

Carter Huffman, directeur technique et cofondateur - Modulate

Arm
« Le développement de logiciels embarqués pour des fonctions automobiles définies par logiciel telles que l'ADAS, la conduite autonome et l'infodivertissement se heurte à des défis. Les différences entre l'environnement de développement et l'environnement de pointe ralentissent l'innovation et les délais de mise sur le marché en raison de la nécessité de compiler et de revalider la pile logicielle entre les plates-formes matérielles. En utilisant le cadre SOAFEE exécuté sur les instances Amazon EC2 G5g, alimentées par des processeurs Graviton2 basés sur Arm et des GPU Nvidia T4G Tensor Core, les développeurs automobiles peuvent être sûrs de disposer d'un alignement étroit, ou d'une parité environnementale, entre le véhicule et le cloud. »

John Heinlein, vice-président, Partenariats automobiles - Amérique du Nord, Arm

Anbox Cloud
« Canonical a lancé Anbox Cloud Appliance sur AWS Marketplace afin d'offrir aux développeurs un moyen simple de prototyper, développer et exécuter Android dans le cloud. Anbox Cloud prend désormais en charge les instances Amazon EC2 G5g et fournit une solution complète qui fonctionne parfaitement avec la suite logicielle Android pour virtualiser les applications mobiles, y compris les jeux, et les diffuser en toute sécurité à grande échelle sur les appareils mobiles. Avec les instances Anbox Cloud et G5g, les clients peuvent diffuser jusqu'à 55 sessions individuelles en 720p et 30 images par seconde avec un coût jusqu'à 20 % inférieur à celui des instances GPU x86 comparables. »

Simon Fels, responsable de ingénierie chez Anbox - Canonical

Logo Corellium
« Le défi que pose le développement de logiciels pour appareils mobiles est que les appareils physiques ne sont pas évolutifs, mais que les émulateurs n'offrent pas les mêmes performances ni la même précision. Corellium crée des modèles virtuels d'appareils basés sur Arm et les exécute sur des serveurs basés sur Arm dans le cloud. Avec les instances Amazon EC2 G5g, les développeurs mobiles peuvent tirer parti du logiciel Corellium pour créer des appareils Android virtuels natifs Arm qui allient la fidélité et les performances d'un appareil réel à la commodité et à l'évolutivité du cloud. »

Chris Wade, directeur technique - Corellium

Genymotion
« Genymobile fournit Genymotion, une solution Android en tant que service à un prix abordable. Avec la sortie des instances Amazon EC2 G5g, nous sommes en mesure d'aller encore plus loin en fournissant aux développeurs un environnement Arm natif avec accélération matérielle, permettant un rendu et un encodage vidéo accélérés par le GPU. Genymotion sur G5g est notre image Android la plus rapide et la plus précise à ce jour. De plus, notre mise en œuvre à faible empreinte en ressources nous permet d'exécuter plus de 60 instances de périphériques virtuels sur un seul serveur G5g ! »

Jean-Charles Leneveu, Responsable produit, Genymobile

Niveau IV
« Tier IV est le principal développeur d'Autoware, le premier logiciel open source au monde pour la conduite autonome. Dans le cadre de notre boucle CI/CD, nous étions auparavant limités à évaluer les performances de notre modèle de machine learning Yolo4 sur notre matériel embarqué ROSCube. Cela a limité le nombre de simulations pouvant être exécutées simultanément. Étant donné que les instances G5g sont équipées du processeur et des GPU Graviton2 basés sur Arm, nous sommes en mesure de tirer parti de ces instances pour étendre notre pipeline CI/CD et exécuter beaucoup plus d'itérations de simulations simultanément, avec une parité sans précédent entre le cloud et les systèmes embarqués. »

Eiji Sekiya, directeur ingénierie, Tier IV

Ready Player One Tech
« Chez WePlay, notre objectif est de créer des mondes virtuels natifs du cloud, décentralisés et identifiables par les personnages. Nous sommes plus qu’une simple plateforme de cloud gaming. Nous utilisons la technologie de cloud gaming pour offrir à tous les joueurs mobiles une expérience sociale inégalée. Le plus grand défi que nous avons rencontré était la compatibilité des fichiers apk basés sur Arm avec les instances compatibles GPU basées sur x86 disponibles aujourd'hui. Traduire des fichiers Arm en x86 et les exécuter sur des instances x86 est non seulement plus coûteux, mais aussi inefficace. Avec les instances g5g, nous pouvons exécuter des jeux Android de manière native sans couche de traduction. Nous avons réduit nos coûts d'environ 30 % par rapport aux instances g4dn. » 

Adrian Wang, PDG - Ready Player One Tech

Informations sur le produit

Nom de l'instance GPU NVIDIA T4G Tensor Core Mémoire de GPU (Go) Processeurs virtuels Mémoire (Go) Bande passante EBS (Gbit/s) Bande passante du réseau (Gbit/s) Prix/heure pour les instances à la demande Tarif horaire effectif du fournisseur de services Internet pendant 1 an (Linux) Tarif horaire effectif du fournisseur de services Internet sur 3 ans (Linux)
g5g.xlarge 1 16 4 8 Jusqu'à 3,5 Jusqu'à 10 0,42 0,252 0,168
g5g.2xlarge 1 16 8 16 Jusqu'à 3,5 Jusqu'à 10 0,556 0,334 0,222
g5g.4xlarge 1 16 16 32 Jusqu'à 3,5 Jusqu'à 10 0,828 0,497 0,331
g5g.8xlarge 1 16 32 64 9 12 1,372 0,823 0,549
g5g.16xlarge 2 32 64 128 19 25 2,744 1,646 1,098
g5g.metal 2 32 64 128 19 25 2,744 1,646 1,098

Ressources

Fiches techniques

Fiche technique

GPU NVIDIA T4G Tensor Core : graphismes accélérés et IA pour le cloud AWS basé sur Arm

Vidéos

AWS On Air ft. Instances Amazon EC2 G5g | Événements AWS (15:15)

Mise en route avec les instances G5g

Utilisation d'AMI pré-intégrées provenant d'AWS
Au moyen des AMI de deep learning d'Amazon, vous pouvez rapidement lancer des instances Amazon EC2 préinstallées avec des structures de deep learning fréquemment utilisées telles que TensorFlow et PyTorch pour exécuter des modèles d'IA sur mesure et sophistiqués, expérimenter de nouveaux algorithmes ou apprendre de nouvelles compétences et techniques. Pour en savoir plus, consultez la page produit des AMI de deep learning d'Amazon.

Tirer parti de l'IA de NVIDIA à partir du catalogue NVIDIA NGC
L'AMI de deep learning de NVIDIA sur AWS Marketplace est préconfigurée avec tous les pilotes, bibliothèques et dépendances NVIDIA nécessaires pour exécuter des logiciels compatibles Arm à partir du catalogue NGC, le hub de logiciels optimisés pour le GPU de NVIDIA. En savoir plus sur l'utilisation du catalogue NGC de NVIDIA sur AWS.

Conception de votre AMI personnalisée avec des pilotes NVIDIA
Les pilotes de centre de données NVIDIA offrent les meilleures performances pour les applications de calcul hautement intensives que l'on retrouve souvent dans le deep learning, la science des données et le calcul haute performance (HPC). Pour découvrir comment installer ces pilotes sur votre instance, cliquez ici.

Mise en route avec AWS

Créer un compte AWS

Créer un compte AWS

Obtenez un accès instantané à l'offre gratuite d'AWS.

Apprendre avec des tutoriels simples

Apprenez-en plus avec des tutoriels de 10 minutes.

Explorez et apprenez avec des tutoriels simples.

Commencer à créer avec EC2 dans la console

Commencez à créer sur la console.

Lancez votre projet AWS en vous appuyant sur les guides étape par étape.