Usage général

Les instances à usage général assurent l'équilibre entre les ressources informatiques, la mémoire et les ressources réseau. Elles peuvent aussi être utilisées pour un certain nombre de charges de travail diverses. Ces instances sont idéales pour les applications qui utilisent ces ressources en proportions égales, à l'instar des serveurs web et des référentiels de code. 

  • M7g
  • Les instances Amazon EC2 M7g sont optimisées par des processeurs Graviton3 AWS basés sur Arm. Ils offrent le meilleur rapport qualité prix dans Amazon EC2 pour les applications à usage général.

    Fonctions :

    • Équipé de processeurs Graviton3 AWS personnalisés
    • Dotée de la toute dernière mémoire DDR5 qui offre une bande passante supérieure de 50 % à celle de la DDR4
    • Bande passante du réseau améliorée de 20 % comparée aux instances M6g
    • Optimisé par défaut pour EBS
    • Stockage d'instance proposé via EBS ou des disques SSD NVMe physiquement connectés au serveur hôte
    • Avec les instances M7gd, les disques SSD NVMe locaux sont physiquement connectés au serveur hôte et fournissent un stockage par bloc couplé au cycle de vie de l'instance
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d’instance (Go) Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)

    m7g.medium

    1

    4

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7g.large

    2

    8

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7g.xlarge

    4

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7g.2xlarge

    8

    32

    EBS uniquement

    Jusqu'à 15

    Jusqu'à 10

    m7g.4xlarge

    16

    64

    EBS uniquement

    Jusqu'à 15

    Jusqu'à 10

    m7g.8xlarge

    32

    128

    EBS uniquement

    15

    10

    m7g.12xlarge

    48

    192

    EBS uniquement

    22,5

    15

    m7g.16xlarge

    64

    256

    EBS uniquement

    30

    20

    m7g.metal

    64

    256

    EBS uniquement

    30

    20

    m7gd.medium

    1

    4

    1 SSD NVMe x 59

    Jusqu'à 12,5

    Jusqu'à 10

    m7gd.large

    2

    8

    1 SSD NVMe x 118

    Jusqu'à 12,5

    Jusqu'à 10

    m7gd.xlarge

    4

    16

    1 SSD NVMe x 237

    Jusqu'à 12,5

    Jusqu'à 10

    m7gd.2xlarge

    8

    32

    1 SSD NVMe x 474

    Jusqu'à 15

    Jusqu'à 10

    m7gd.4xlarge

    16

    64

    1 disque SSD NVMe de 950

    Jusqu'à 15

    Jusqu'à 10

    m7gd.8xlarge

    32

    128

    1 SSD NVMe x 1 900

    15

    10

    m7gd.12xlarge

    48

    192

    2 SSD NVMe de 1 425

    22,5

    15

    m7gd.16xlarge

    64

    256

    2 SSD NVMe x 1 900

    30

    20

    m7gd.metal

    64

    256

    2 SSD NVMe x 1 900

    30

    20

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Applications basées sur des logiciels open source tels que les serveurs d'applications, les microservices, les serveurs de jeux, les entrepôts de données de taille moyenne et les flottes de mise en cache.

  • M7i
  • Les instances Amazon EC2 M7i sont alimentées par des processeurs Intel Xeon Scalable de 4e génération et offrent un rapport prix/performances 15 % supérieur à celui des instances M6i.

    Fonctions :

    • Processeur Intel Xeon Scalable de 4e génération jusqu'à 3,2 GHz (Sapphire Rapids 8488C)
    • Les nouvelles extensions matricielles avancées (AMX) accélèrent les opérations de multiplication matricielle
    • 2 tailles de métal : m7i.metal-24xl and m7i.metal-48xl
    • Les accélérateurs discrets intégrés (disponibles uniquement sur les M7i matériel nu) - Accélérateur de flux de données (DSA), In-Memory Analytics Accelerator (IAA) et Technologie QuickAssist (QAT) - permettent de décharger et d'accélérer efficacement les opérations de données afin d'optimiser les performances des bases de données, le cryptage et la compression, ainsi que les charges de travail de gestion des files d'attente
    • Mémoire DDR5 la plus récente, qui offre plus de bande passante que la DDR4
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge d'un maximum de 128 pièces jointes de volumes EBS par instance
    • Jusqu'à 192 processeurs virtuels et 768 Gio de mémoire
    • Alimenté par le AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d’instance (Go) Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)

    m7i.large

    2

    8

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7i.xlarge

    4

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7i.2xlarge

    8

    32

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7i.4xlarge

    16

    64

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7i.8xlarge

    32

    128

    EBS uniquement

    12,5

    10

    m7i.12xlarge

    48

    192

    EBS uniquement

    18,75

    15

    m7i.16xlarge

    64

    256

    EBS uniquement

    25

    20

    m7i.24xlarge

    96

    384

    EBS uniquement

    37,5

    30

    m7i.48xlarge

    192

    768

    EBS uniquement

    50

    40

    m7i.metal-24xl

    96

    384

    EBS uniquement

    37,5

    30

    m7i.metal-48xl

    192

    768

    EBS uniquement

    50

    40

    Cas d'utilisation

    Les instances M7i sont idéales pour les charges de travail générales, en particulier celles qui nécessitent des tailles plus importantes ou une forte utilisation continue du processeur, notamment les serveurs d'applications volumineux, les bases de données volumineuses, les serveurs de jeu, le machine learning basé sur le processeur et le streaming vidéo.

  • M7i-flex
  • Les instances Amazon EC2 M7i-Flex sont alimentées par des processeurs Intel Xeon Scalable de 4e génération et offrent un rapport prix/performances de 19 % supérieur à celui des instances M6i.

    Fonctions :

    • Le moyen le plus simple pour vous d'obtenir des avantages en termes de prix, de performances et de coûts dans le cloud pour la majorité de vos charges de travail générales
    • Processeur Intel Xeon Scalable de 4e génération jusqu'à 3,2 GHz (Sapphire Rapids 8488C)
    • Les nouvelles extensions matricielles avancées (AMX) accélèrent les opérations de multiplication matricielle
    • Mémoire DDR5 la plus récente, qui offre plus de bande passante que la DDR4
    • Optimisé par défaut pour EBS
    • Alimenté par le AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d’instance (Go) Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)

    m7i-flex.large

    2

    8

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7i-flex.xlarge

    4

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7i-flex.2xlarge

    8

    32

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7i-flex.4xlarge

    16

    64

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7i-flex.8xlarge

    32

    128

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    Cas d'utilisation

    Les instances M7i-flex constituent un excellent premier choix pour exécuter de manière fluide la plupart des charges de travail générales, notamment les serveurs Web et d'applications, les bureaux virtuels, le traitement par lots, les microservices, les bases de données et les applications d'entreprise.

  • M7a
  • Les instances Amazon EC2 M7a, alimentées par des processeurs AMD EPYC de 4e génération, offrent des performances jusqu'à 50 % supérieures à celles des instances M6a.

    Fonctionnalités :

    • Processeurs AMD EPYC de 4e génération jusqu'à 3,7 GHz (AMD EPYC 9R14)
    • Jusqu'à 50 Gbit/s de bande passante du réseau
    • Jusqu'à 40 Gbit/s de bande passante vers l'Amazon Elastic Block Store (Amazon EBS)
    • Tailles d'instances jusqu'à 192 vCPU et 768 GiB de mémoire
    • Instances certifiées SAP
    • Conçu sur AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Prise en charge du cryptage permanent de la mémoire à l'aide du cryptage sécurisé de la mémoire (SME) d'AMD
    • Prise en charge de nouvelles fonctionnalités de processeur telles que AVX3-512, VNNI et bfloat16.
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)

    m7a.medium

    1

    4

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7a.large

    2

    8

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7a.xlarge

    4

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7a.2xlarge

    8

    32

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7a.4xlarge

    16

    64

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    m7a.8xlarge

    32

    128

    EBS uniquement

    12,5

    10

    m7a.12xlarge

    48

    192

    EBS uniquement

    18,75

    15

    m7a.16xlarge

    64

    256

    EBS uniquement

    25

    20

    m7a.24xlarge

    96

    384

    EBS uniquement

    37,5

    30

    m7a.32xlarge

    128

    512

    EBS uniquement

    50

    40

    m7a.48xlarge

    192

    768

    EBS uniquement

    50

    40

    m7a.metal-48xl

    192

    768

    EBS uniquement

    50

    40

    Cas d'utilisation

    Les applications qui bénéficient de hautes performances et d'un haut débit, telles que les applications financières, les serveurs d'applications, la modélisation par simulation, les jeux, les magasins de données de taille moyenne, les environnements de développement d'applications et les flottes de mise en cache.

  • Mac
  • Les instances Amazon EC2 Mac vous permettent d'exécuter des charges de travail macOS à la demande dans le cloud. Cela permet d'étendre la flexibilité, la capacité de mise à l'échelle et les avantages en termes de coûts d'AWS à tous les développeurs Apple. En utilisant des instances Amazon EC2 Mac, vous pouvez créer des applications pour iPhone, iPad, Mac, Vision Pro, Apple Watch, Apple TV, et Safari. Ces instances donnent aux développeurs l'accès à macOS pour leur permettre de développer, créer, tester et signer des applications qui nécessitent l'IDE Xcode. Les instances EC2 Mac sont des instances matériel nu dédiées accessibles dans la console EC2 et via l'interface de ligne de commande AWS en tant qu'hôtes dédiés.

    Les instances EC2 Mac basées sur x86 sont alimentées par une combinaison d'ordinateurs Mac mini avec les caractéristiques suivantes :

    • Processeurs Core i7 de 8e génération d'Intel à 3,2 GHz (4,6 GHz turbo)
    • 6 cœurs physiques et 12 cœurs logiques
    • 32 GiB de mémoire
    • Un stockage d'instance est disponible via Amazon Elastic Block Store (EBS)
    Taille de l'instance vCPU Mémoire (Gio) Stockage d'instance Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)
    mac1.metal 12 32 EBS uniquement 10 8

    Les instances EC2 M1 Mac sont alimentées par une combinaison d'ordinateurs Apple Silicon Mac mini avec les caractéristiques suivantes :

    • Puce Apple M1 avec 8 cœurs de processeur
    • 8 cœurs GPU
    • 16 Gio de mémoire
    • Apple Neural Engine à 16 cœurs
    • Un stockage d'instance est disponible via Amazon Elastic Block Store (EBS)
    Taille de l'instance vCPU Mémoire (Gio) Stockage d'instance Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)
    mac2.metal 8 16 EBS uniquement 10 8

    Les instances EC2 M2 Mac sont alimentées par une combinaison d'ordinateurs Apple Silicon Mac mini avec les caractéristiques suivantes :

    • Puce Apple M2 avec 8 cœurs de processeur
    • 10 cœurs de processeur graphique
    • 24 Gio de mémoire
    • Apple Neural Engine à 16 cœurs
    • Un stockage d'instance est disponible via Amazon Elastic Block Store (EBS)
    Taille de l'instance vCPU Mémoire (Gio) Stockage d'instance Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)
    mac2-m2.metal 8 24 EBS uniquement 10 8

    Les instances EC2 M2 Pro Mac sont alimentées par une combinaison d'ordinateurs Apple Silicon Mac mini avec les caractéristiques suivantes :

    • Puce Apple M2 Pro avec 12 cœurs de processeur
    • 19 cœurs GPU
    • 32 GiB de mémoire
    • Apple Neural Engine à 16 cœurs
    • Un stockage d'instance est disponible via Amazon Elastic Block Store (EBS)
    Taille de l'instance vCPU Mémoire (Gio) Stockage d'instance Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)
    mac2-m2pro.metal 12 32 EBS uniquement 10 8

    Cas d'utilisation

    Développer, construire, tester et signer des applications iOS, iPadOS, macOS, visionOS, WatchOS et tvOS sur l'IDE Xcode

  • M6g
  • Les instances M6g d'Amazon EC2 sont optimisées par des processeurs AWS Graviton2 basés sur Arm. Elles garantissent un rapport prix/performances jusqu'à 40 % supérieur à celui des instances M5 de la génération actuelle. De même, elles assurent un équilibre entre les ressources informatiques, mémoire et réseau pour un large éventail de charges de travail.

    Fonctions:

    • Processeur AWS Graviton2 créé sur mesure et doté de cœurs Arm Neoverse de 64 bits
    • Prise en charge de la mise en réseau améliorée avec une bande passante réseau qui atteint 25 Gbit/s
    • Optimisé par défaut pour EBS
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Stockage d'instance proposé via EBS ou des disques SSD NVMe physiquement connectés au serveur hôte
    • Avec les instances M6gd, les disques SSD NVMe locaux sont physiquement connectés au serveur hôte et fournissent un stockage de niveau bloc couplé au cycle de vie de l'instance.
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Mbit/s)
    m6g.medium 1 4 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    m6g.large 2 8 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    m6g.xlarge 4 16 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    m6g.2xlarge 8 32 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    m6g.4xlarge 16 64 EBS uniquement Jusqu'à 10 4 750
    m6g.8xlarge 32 128 EBS uniquement 12 9 000
    m6g.12xlarge 48 192 EBS uniquement 20 13 500
    m6g.16xlarge 64 256 EBS uniquement 25 19 000
    m6g.metal 64 256 EBS uniquement 25 19 000
    m6gd.medium 1 4 1 SSD NVMe x 59 Jusqu'à 10 Jusqu'à 4 750
    m6gd.large 2 8 1 SSD NVMe x 118 Jusqu'à 10 Jusqu'à 4 750
    m6gd.xlarge 4 16 1 SSD NVMe x 237 Jusqu'à 10 Jusqu'à 4 750
    m6gd.2xlarge 8 32 1 SSD NVMe x 474 Jusqu'à 10 Jusqu'à 4 750
    m6gd.4xlarge 16 64 1 SSD NVMe x 950 Jusqu'à 10 4 750
    m6gd.8xlarge 32 128 1 SSD NVMe x 1 900 12 9 000
    m6gd.12xlarge 48 192 2 SSD NVMe x 1 425 20 13 500
    m6gd.16xlarge 64 256 2 SSD NVMe x 1 900 25 19 000
    m6gd.metal 64 256 2 SSD NVMe x 1 900 25 19 000

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Applications basées sur des logiciels open source tels que les serveurs d'applications, les microservices, les serveurs de jeux, les entrepôts de données de taille moyenne et les flottes de mise en cache.

  • M6i
  • Les instances Amazon EC2 M6i sont alimentées par des processeurs Intel Xeon Scalable de 3e génération (Ice Lake). Cette famille offre un ensemble équilibré de ressources de calcul, de mémoire et de réseau. Il s'agit d'une option adaptée à de nombreuses applications.

    Fonctions :

    • Processeurs Intel Xeon Scalable de 3e génération jusqu'à 3,5 GHz (Ice Lake 8375C)
    • Rapport prix/performances de calcul jusqu'à 15 % supérieur par rapport aux instances M5
    • Bande passante mémoire par vCPU jusqu'à 20 % supérieure à celle des instances M5
    • Jusqu'à 50 Gbit/s de vitesse de réseau
    • Jusqu'à 40 Gbit/s de bande passante vers l'Amazon Elastic Block Store (EBS)
    • Nouvelle taille d'instance (32xlarge) avec 128 vCPU et 512 Gio de mémoire
    • Prend en charge Elastic Fabric Adapter sur les tailles 32xlarge et metal
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge des nouvelles instructions Intel Advanced Vector Extensions (AVX 512) pour un traitement plus rapide des algorithmes cryptographiques
    • Avec les instances M6id, jusqu'à 7,6 To sur des disques SSD locaux NVMe physiquement connectés au serveur hôte et vous disposez d'un stockage par bloc couplé à la durée de vie de l'instance M6i
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s) Bande passante EBS (Gbit/s)
    m6i.large 2 8 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    m6i.xlarge 4 16 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    m6i.2xlarge 8 32 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    m6i.4xlarge 16 64 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    m6i.8xlarge 32 128 EBS uniquement 12,5 10
    m6i.12xlarge 48 192 EBS uniquement 18,75 15
    m6i.16xlarge 64 256 EBS uniquement 25 20
    m6i.24xlarge 96 384 EBS uniquement 37,5 30
    m6i.32xlarge 128 512 EBS uniquement 50 40
    m6i.metal 128 512 EBS uniquement 50 40
    m6id.large 2 8 1 disque SSD NVMe de 118 Jusqu'à 12,5 Jusqu'à 10
    m6id.xlarge 4 16 1 disque SSD NVMe de 237 Jusqu'à 12,5 Jusqu'à 10
    m6id.2xlarge 8 32 1 disque SSD NVMe de 474 Jusqu'à 12,5 Jusqu'à 10
    m6id.4xlarge 16 64 1 disque SSD NVMe de 950 Jusqu'à 12,5 Jusqu'à 10
    m6id.8xlarge 32 128 1 disque SSD NVMe de 1 900 12,5 10
    m6id.12xlarge 48 192 2 disques SSD NVMe de 1 425 18,75 15
    m6id.16xlarge 64 256 2 disques SSD NVMe de 1 900 25 20
    m6id.24xlarge 96 384 4 disques SSD NVMe de 1 425 37,5 30
    m6id.32xlarge 128 512 4 disques SSD NVMe de 1 900 50 40
    m6id.metal 128 512 4 disques SSD NVMe de 1 900 50 40

    Cas d'utilisation

    Ces instances sont certifiées SAP et sont idéales pour les charges de travail telles que les serveurs dorsaux prenant en charge les applications d'entreprise (par exemple Microsoft Exchange et SharePoint, SAP Business Suite, les bases de données MySQL, Microsoft SQL Server et PostgreSQL), les serveurs de jeux, les flottes de mise en cache et les environnements de développement d'applications.

  • M6in
  • Les instances Amazon EC2 M6in et M6idn sont idéales pour les charges de travail intensives en réseau telles que les serveurs backend, les serveurs d'entreprise, les serveurs de jeux et les applications de mise en cache des flottes. Alimentées par des processeurs Intel Xeon Scalable de 3e génération (Ice Lake) avec une fréquence turbo tout cœur de 3,5 GHz, elles offrent jusqu'à 200 Gbit/s de bande passante du réseau et jusqu'à 80 Gbit/s de bande passante Amazon EBS.

    Spécifications :

    • Processeurs Intel Xeon Scalable de 3e génération jusqu'à 3,5 GHz (Ice Lake 8375C)
    • Bande passante mémoire par vCPU jusqu'à 20 % supérieure à celle des instances M5n et M5dn
    • Vitesse réseau allant jusqu'à 200 Gbit/s, soit jusqu'à deux fois supérieure à celle des instances M5n et M5dn
    • Bande passante EBS jusqu'à 100 Gbit/s, soit jusqu'à 5,2 fois supérieure à celle des instances M5n et M5dn
    • Support EFA sur les tailles 32xlarge et metal
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge des nouvelles instructions Intel Advanced Vector Extensions (AVX 512) pour un traitement plus rapide des algorithmes cryptographiques
    • Avec les instances M6idn, jusqu'à 7,6 To sur des disques SSD locaux NVMe sont physiquement connectés au serveur hôte et vous disposez d'un stockage par bloc couplé à la durée de vie de l'instance M6idn
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    m6in.large 2 8 EBS uniquement
    Jusqu'à 25 Jusqu'à 25
    m6in.xlarge 4 16 EBS uniquement Jusqu'à 30 Jusqu'à 25
    m6in.2xlarge 8 32 EBS uniquement Jusqu'à 40 Jusqu'à 25
    m6in.4xlarge 16 64 EBS uniquement Jusqu'à 50 Jusqu'à 25
    m6in.8xlarge 32 128 EBS uniquement 50 25
    m6in.12xlarge 48 192 EBS uniquement 75 37,5
    m6in.16xlarge 64 256 EBS uniquement 100 50
    m6in.24xlarge 96 384 EBS uniquement 150 75
    m6in.32xlarge 128 512 EBS uniquement 200**** 100
    m6in.metal 128 512 EBS uniquement 200**** 100
    m6idn.large 2 8

    1 disque SSD NVMe de 118

    Jusqu'à 25 Jusqu'à 25
    m6idn.xlarge 4 16 1 disque SSD NVMe de 237 Jusqu'à 30 Jusqu'à 25
    m6idn.2xlarge 8 32 1 disque SSD NVMe de 474 Jusqu'à 40 Jusqu'à 25
    m6idn.4xlarge 16 64

    1 disque SSD NVMe de 950

    Jusqu'à 50 Jusqu'à 25
    m6idn.8xlarge 32 128

    1 disque SSD NVMe de 1 900

    50 25
    m6idn.12xlarge 48 192 2 disques SSD NVMe de 1 425 75 37,5
    m6idn.16xlarge 64 256 2 disques SSD NVMe de 1 900 100 50
    m6idn.24xlarge 96 384 4 disques SSD NVMe de 1 425 150 75
    m6idn.32xlarge 128 512 4 disques SSD NVMe de 1 900 200**** 100
    m6idn.metal 128 512 4 disques SSD NVMe de 1 900 200**** 100

    ****Pour les tailles 32xlarge et métal, au moins deux interfaces réseau Elastic, chacune étant attachée à une carte réseau différente, sont nécessaires sur l'instance pour atteindre un débit de 200 Gbit/s. Chaque interface réseau attachée à une carte réseau peut atteindre un maximum de 170 Gbit/s. Pour plus d'informations, consultez Cartes réseau

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation :

    Ces instances sont certifiées SAP et idéales pour les charges de travail qui peuvent tirer parti d'un débit réseau élevé. Les charges de travail comprennent les systèmes de fichiers haute performance, les caches en mémoire distribués à l'échelle du Web, les flottes de caches, l'analyse de big data en temps réel, les applications Telco, telles que la fonction de plan utilisateur (UPF) 5G, ainsi que les environnements de développement d'applications.

  • M6a
  • Les instances M6a Amazon EC2 sont alimentées par des processus AMD EPYC de 3e génération et sont idéales pour les charges de travail polyvalentes.

    Fonctions:

    • Processeurs AMD EPYC de 3e génération jusqu'à 3,6 GHz (AMD EPYC 7R13)
    • Rapport prix/performance de calcul jusqu'à 35 % supérieur par rapport aux instances M5a
    • Jusqu'à 50 Gbit/s de vitesse de réseau
    • Jusqu'à 40 Gbit/s de bande passante vers Amazon Elastic Block Store
    • Taille d'instance jusqu'à 192 vCPU et 768 GiB de mémoire
    • Instances certifiées SAP
    • Prend en charge Elastic Fabric Adapter sur la taille 48xlarge
    • Basée sur le AWS Nitro System, une combinaison de matériel dédié et d'un hyperviseur léger
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie AMD Transparent Single Key Memory Encryption (TSME)   
    • Prise en charge des nouvelles instructions AMD Advanced Vector Extensions (AVX-2) pour une exécution plus rapide des algorithmes cryptographiques
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    m6a.large 2 8 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    m6a.xlarge 4 16 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    m6a.2xlarge 8 32 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    m6a.4xlarge 16 64 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    m6a.8xlarge 32 128 EBS uniquement 12,5 10
    m6a.12xlarge 48 192 EBS uniquement 18,75 15
    m6a.16xlarge 64 256 EBS uniquement 25 20
    m6a.24xlarge 96 384 EBS uniquement 37,5 30
    m6a.32xlarge 128 512 EBS uniquement 50 40
    m6a.48xlarge 192 768 EBS uniquement 50 40
    m6a.metal 192 768 EBS uniquement 50 40

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Ces instances sont certifiées SAP et sont idéales pour les applications telles que les serveurs backend prenant en charge les applications d'entreprise (par exemple, les bases de données Microsoft Exchange et SharePoint, SAP Business Suite, MySQL, Microsoft SQL Server et PostgreSQL), les serveurs de jeux multijoueurs, les flottes de mise en cache, ainsi que pour les environnements de développement d'applications.

  • M5
  • Les instances M5 Amazon EC2 constituent la toute dernière génération d'instances à usage général optimisées par des processeurs Intel Xeon® Platinum 8175M ou 8259CL. Ces instances offrent un ensemble équilibré de ressources de calcul, de mémoire et de réseau. Il s'agit d'une option adaptée à de nombreuses applications.

    Fonctionnalités :

    • Processeur Intel Xeon Scalable jusqu'à 3,1 GHz (Skylake 8175M ou Cascade Lake 8259CL) avec le nouveau jeu d'instructions Intel Advanced Vector Extension (AVX-512)
    • Nouvelle grande taille d'instance, m5.24xlarge, offrant 96 vCPU et 384 Go de mémoire
    • Bande passante réseau jusqu'à 25 Gb/s grâce à la mise en réseau améliorée
    • Nécessite des AMI HVM comprenant des pilotes pour ENA et NVMe
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Stockage d'instance proposé via EBS ou des disques SSD NVMe physiquement connectés au serveur hôte
    • Avec les nouvelles instances M5d, les disques SSD NVMe locaux sont physiquement joints au serveur hôte et fournissent un stockage de niveau bloc couplé au cycle de vie de l'instance M5.
    • Nouvelles tailles 8xlarge et 16xlarge désormais disponibles.
    Taille d'instance
    vCPU Mémoire (Gio) Stockage d'instance
    (Go)
    Bande passante réseau (Gbit/s)***
    Bande passante EBS (Mbit/s)
    m5.large 2 8 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    m5.xlarge 4 16 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    m5.2xlarge 8 32 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    m5.4xlarge 16 64 EBS uniquement Jusqu'à 10 4 750
    m5.8xlarge 32 128 EBS uniquement 10 6 800
    m5.12xlarge 48 192 EBS uniquement 12 9 500
    m5.16xlarge 64 256 EBS uniquement 20 13 600
    m5.24xlarge 96 384 EBS uniquement 25 19 000
    m5.metal 96* 384 EBS uniquement 25 19 000
    m5d.large 2 8 1 disque SSD NVMe de 75 Jusqu'à 10 Jusqu'à 4 750
    m5d.xlarge 4 16 1 disque SSD NVMe de 150 Jusqu'à 10 Jusqu'à 4 750
    m5d.2xlarge 8 32 1 SSD NVMe x 300 Jusqu'à 10 Jusqu'à 4 750
    m5d.4xlarge 16 64 2 disques SSD NVMe de 300 Jusqu'à 10 4 750
    m5d.8xlarge 32 128 2 SSD NVMe x 600 10 6 800
    m5d.12xlarge 48 192 2 disques SSD NVMe de 900 12 9 500
    m5d.16xlarge 64 256 4 SSD NVMe x 600 20 13 600
    m5d.24xlarge 96 384 4 disques SSD NVMe de 900 25 19 000
    m5d.metal 96* 384 4 disques SSD NVMe de 900 25 19 000

    * m5.metal et m5d.metal fournissent 96 processeurs logiques sur 48 cœurs physiques ; ils fonctionnent sur des serveurs uniques avec deux sockets Intel physiques

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Bases de données de petite et moyenne tailles, tâches de traitement de données qui nécessitent des capacités de mémoire supplémentaires, des flottes de mise en cache et pour l'exécution de serveurs back-end pour SAP, Microsoft SharePoint, le traitement en cluster et d'autres applications d'entreprise

  • M5n
  • Les instances M5 Amazon EC2 sont idéales pour les charges de travail nécessitant un équilibre de ressources de calcul, de mémoire et de réseau, notamment des serveurs web et d'applications, des bases de données de petite et moyenne tailles, le traitement en cluster, des serveurs de jeu et une flotte de mise en cache. Les variantes d'instances à bande passante plus élevée, M5n et M5dn, sont idéales pour les applications pouvant tirer profit de débits réseau et de débits de transfert de paquets améliorés.
    Fonction :

    • Processeurs Intel Xeon Scalable de 2e génération (Cascade Lake 8259CL) avec une fréquence turbo soutenue de 3,1 GHz pour l'ensemble des cœurs et une fréquence turbo maximale de 3,5 GHz pour un seul cœur
    • Prise en charge des nouvelles instructions Intel Vector Neural Network (AVX-512 VNNI) qui permettront d'accélérer les opérations de machine learning typiques, telles que la convolution, et d'améliorer automatiquement les performances d'inférence sur un large éventail de charges de travail de deep learning
    • Bande passante maximale de 25 Gbit/s sur des instances de petite taille 
    • 100 Gbit/s de bande passante réseau sur la plus grande taille d'instance
    • Nécessite des AMI HVM comprenant des pilotes pour ENA et NVMe
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger 
    • Stockage d'instance proposé via EBS ou des disques SSD NVMe physiquement connectés au serveur hôte 
    • Avec les instances M5dn, les disques SSD NVMe locaux sont physiquement connectés au serveur hôte et fournissent un stockage de niveau bloc couplé au cycle de vie de l'instance M5.
    Taille d'instance
    vCPU Mémoire (Gio) Stockage d'instance
    (Go)
    Bande passante réseau (Gbit/s)***
    Bande passante EBS (Mbit/s)
    m5n.large 2 8 EBS uniquement Jusqu'à 25 Jusqu'à 4 750
    m5n.xlarge 4 16 EBS uniquement Jusqu'à 25 Jusqu'à 4 750
    m5n.2xlarge 8 32 EBS uniquement Jusqu'à 25 Jusqu'à 4 750
    m5n.4xlarge 16 64 EBS uniquement Jusqu'à 25 4 750
    m5n.8xlarge 32 128 EBS uniquement 25 6 800
    m5n.12xlarge 48 192 EBS uniquement 50 9 500
    m5n.16xlarge 64 256 EBS uniquement 75 13 600
    m5n.24xlarge 96 384 EBS uniquement 100 19 000
    m5n.metal 96* 384 EBS uniquement 100 19 000
    m5dn.large 2 8 1 disque SSD NVMe de 75 Jusqu'à 25 Jusqu'à 4 750
    m5dn.xlarge 4 16 1 disque SSD NVMe de 150 Jusqu'à 25 Jusqu'à 4 750
    m5dn.2xlarge 8 32 1 SSD NVMe x 300 Jusqu'à 25 Jusqu'à 4 750
    m5dn.4xlarge 16 64 2 disques SSD NVMe de 300 Jusqu'à 25 4 750
    m5dn.8xlarge 32 128 2 SSD NVMe x 600 25 6 800
    m5dn.12xlarge 48 192 2 disques SSD NVMe de 900 50 9 500
    m5dn.16xlarge 64 256 4 SSD NVMe x 600 75 13 600
    m5dn.24xlarge 96 384 4 disques SSD NVMe de 900 100 19 000
    m5dn.metal 96* 384 4 disques SSD NVMe de 900 100 19 000

    *Les instances m5n.metal et m5dn.metal fournissent 96 processeurs logiques sur 48 cœurs physiques.

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Serveurs Web et d'applications, bases de données de petite et moyenne tailles, traitement en cluster, serveurs de jeux, flottes de mise en cache et autres applications d'entreprise

  • M5zn
  • Les instances M5zn Amazon EC2 sont alimentées par les processeurs Intel Xeon Scalable les plus rapides dans le cloud, avec une fréquence d'horloge turbo sur tous les cœurs pouvant atteindre 4,5 GHz.

    Fonctionnalités :

    • Processeurs Intel Xeon Scalable de 2e génération (Cascade Lake 8252C) avec une fréquence turbo tous cœurs jusqu'à 4,5 GHz
    • Jusqu'à 100 Gbit/s de bande passante réseau sur la plus grande taille d'instance et variante de matériel nu
    • Jusqu'à 19 Gbit/s vers Amazon Elastic Block Store
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Les instances M5zn de taille 12x et nue tirent parti de la dernière génération de l'ENA (Elastic Network Adapter) et permettent une faible latence constante avec l'EFA (Elastic Fabric Adapter).
    Taille d'instance vCPU Mémoire (Gio)
    Stockage d'instance
    (Go)

    Bande passante réseau (Gbit/s)*** Bande passante EBS (Mbit/s)
    m5zn.large 2 8 EBS uniquement Jusqu'à 25 Jusqu'à 3 170
    m5zn.xlarge 4 16 EBS uniquement Jusqu'à 25 Jusqu'à 3 170
    m5zn.2xlarge 8 32 EBS uniquement Jusqu'à 25 3 170
    m5zn.3xlarge 12 48 EBS-uniquement Jusqu'à 25 4 750
    m5zn.6xlarge 24 96 EBS uniquement 50 9 500
    m5zn.12xlarge 48 192 EBS uniquement 100 19 000
    m5zn.metal 48 192 EBS uniquement 100 19 000
    2 disques SSD NVMe de 300
    2 disques SSD NVMe de 300

    Cas d'utilisation

    Les instances M5zn conviennent parfaitement pour les applications qui bénéficient de performances mono-thread extrêmement élevées et de réseaux à haut débit et à faible latence, telles que le jeu, le calcul haute performance et la modélisation de simulation pour les secteurs de l'automobile, de l'aérospatiale, de l'énergie et des télécommunications.

  • M5a
  • Les instances M5a Amazon EC2 constituent la toute dernière génération d'instances polyvalentes et optimisées par des processeurs AMD EPYC 7000 series. Les instances M5a permettent de réaliser jusqu'à 10 % d'économie par rapport aux autres types d'instances comparables. Avec les instances M5ad, les disques SSD NVMe locaux sont physiquement connectés au serveur hôte et fournissent un stockage au niveau du bloc couplé au cycle de vie de l'instance.

    Fonctions :

    • Processeurs AMD EPYC 7000 series (AMD EPYC 7571) avec vitesse d'horloge turbo de 2,5 GHz pour tous les cœurs
    • Bande passante réseau jusqu'à 20 Gbit/s grâce aux réseaux améliorés
    • Nécessite des AMI HVM comprenant des pilotes pour ENA et NVMe
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Stockage d'instance proposé via EBS ou des disques SSD NVMe physiquement connectés au serveur hôte
    • Avec les nouvelles instances M5ad, les disques SSD NVMe locaux sont physiquement connectés au serveur hôte et fournissent un stockage de niveau bloc couplé au cycle de vie de l'instance M5a
    Taille d'instance vCPU Mémoire (Gio)
    Stockage d'instance
    (Go)

    Bande passante réseau (Gbit/s)*** Bande passante EBS (Mbit/s)
    m5a.large 2 8 EBS uniquement Jusqu'à 10 Jusqu'à 2 880
    m5a.xlarge 4 16 EBS uniquement Jusqu'à 10 Jusqu'à 2 880
    m5a.2xlarge 8 32 EBS uniquement Jusqu'à 10 Jusqu'à 2 880
    m5a.4xlarge 16 64 EBS uniquement Jusqu'à 10 2 880
    m5a.8xlarge 32 128 EBS uniquement Jusqu'à 10 4 750
    m5a.12xlarge 48 192 EBS uniquement 10 6 780
    m5a.16xlarge 64 256 EBS uniquement 12 9 500
    m5a.24xlarge 96 384 EBS uniquement 20 13 570
    m5ad.large 2 8 1 disque SSD NVMe de 75 Jusqu'à 10 Jusqu'à 2 880
    m5ad.xlarge 4 16 1 disque SSD NVMe de 150 Jusqu'à 10 Jusqu'à 2 880
    m5ad.2xlarge 8 32 1 SSD NVMe x 300 Jusqu'à 10 Jusqu'à 2 880
    m5ad.4xlarge 16 64 2 disques SSD NVMe de 300 Jusqu'à 10 2 880
    m5ad.8xlarge 32 128 2 SSD NVMe x 600 Jusqu'à 10 4 750
    m5ad.12xlarge 48 192 2 disques SSD NVMe de 900 10 6 870
    m5ad.16xlarge 64 256 4 SSD NVMe x 600 12 9 500
    m5ad.24xlarge 96 384 4 disques SSD NVMe de 900 20 13 570

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Bases de données de petite et moyenne envergure, tâches de traitement de données qui nécessitent des capacités de mémoire supplémentaires, des opérations de mise en cache, l'exécution de serveurs back-end utilisés par SAP, Microsoft SharePoint, un cluster de calcul et d'autres applications d'entreprise

  • M4
  • Les instances M4 Amazon EC2 offrent un ensemble équilibré de ressources de calcul, de mémoire et de réseau. Il s'agit d'une option adaptée à de nombreuses applications.

    Fonctions :

    • Processeur Intel Xeon Scalable jusqu'à 2,4 GHz (Haswell E5-2686 v4 ou Broadwell E5-2676 v3)
    • Optimisées pour EBS par défaut, sans coût supplémentaire
    • Prise en charge de la mise en réseau améliorée
    • Équilibre entre les ressources de calcul, de mémoire et de réseau
    Instance vCPU* Mém. (GiB) Stockage Bande passante EBS dédiée (Mbit/s) Performances réseau***
    m4.large 2 8 EBS uniquement 450 Modéré
    m4.xlarge 4 16 EBS uniquement 750 Élevé
    m4.2xlarge 8 32 EBS uniquement 1 000 Élevé
    m4.4xlarge 16 64 EBS uniquement 2 000 Élevé
    m4.10xlarge 40 160 EBS uniquement 4 000 10 Gigabit
    m4.16xlarge 64 256 EBS uniquement 10 000 25 Gigabits

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Bases de données de petite et moyenne taille, tâches de traitement des données nécessitant de la mémoire supplémentaire, mise en cache de flottes et pour l'exécution de serveurs principaux pour SAP, Microsoft SharePoint, le calcul en cluster et d'autres applications métiers.

  • T4g
  • Les instances Amazon EC2 T4g sont optimisées par des processeurs AWS Graviton2 basés sur la technologie Arm et personnalisés. Elles offrent un rapport prix/performances jusqu'à 40 % supérieur à celui des instances T3 pour un large éventail de charges de travail polyvalentes.

    Les instances T4g cumulent des crédits CPU quand une charge de travail fonctionne en dessous du seuil de référence. Chaque crédit CPU gagné permet à l'instance T4g de fonctionner avec les performances d'un cœur de CPU complet pendant une minute si nécessaire. Les instances T4g peuvent étendre leurs capacités à tout moment et aussi longtemps que nécessaire avec le mode illimité.

    Fonctionnalités :

    • Essai gratuit des instances t4g.small pour un maximum de 750 heures par mois jusqu’au 31 décembre 2024. Reportez-vous aux questions fréquentes (FAQ) pour plus de détails.
    • CPU extensible, contrôlé par les crédits CPU, et performance de référence homogène
    • Mode illimité par défaut pour maintenir les performances pendant les pics d'utilisation et mode standard en option pour un coût mensuel prévisible.
    • Processeur AWS Graviton2 créé sur mesure et doté de cœurs Arm Neoverse de 64 bits
    • Optimisé par défaut pour EBS
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Performance de référence / vCPU Crédits CPU gagnés/heure Bande passante extensible réseau (Gbit/s)*** Bande passante extensible EBS (Mbit/s)
    t4g.nano 2 0,5 5 % 6 Jusqu'à 5 Jusqu'à 2 085
    t4g.micro 2 1 10 % 12 Jusqu'à 5 Jusqu'à 2 085
    t4g.small 2 2 20 % 24 Jusqu'à 5 Jusqu'à 2 085
    t4g.medium 2 4 20 % 24 Jusqu'à 5 Jusqu'à 2 085
    t4g.large 2 8 30 % 36 Jusqu'à 5 Jusqu'à 2 780
    t4g.xlarge 4 16 40 % 96 Jusqu'à 5 Jusqu'à 2 780
    t4g.2xlarge 8 32 40 % 192 Jusqu'à 5 Jusqu'à 2 780

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation :

    micro-services, applications interactives à latence faible, petites et moyennes bases de données, bureaux virtuels, environnements de développement, référentiels de code et applications commerciales essentielles.

  • T3
  • Les instances Amazon EC2 T3 sont le type d'instances polyvalentes extensibles de nouvelle génération. Elles fournissent un niveau de base de performance CPU avec la possibilité d'étendre l'usage du CPU à tout moment et aussi longtemps que nécessaire. Les instances T3 offrent un équilibre entre les ressources de calcul, de mémoire et de réseau et sont conçues pour les applications ayant une utilisation modérée du processeur et qui connaissent des pics d'utilisation temporaires.

    Les instances T3 cumulent des crédits CPU quand une charge est opérée en dessous du seuil de base. Chaque crédit CPU gagné permet à l'instance T3 de fonctionner avec les performances d'un cœur de CPU complet pendant une minute si nécessaire. Les instances T3 peuvent étendre leurs capacités à tout moment et pendant aussi longtemps que désiré avec le mode Illimité.

    Fonctions :

    • Processeur Intel Xeon Scalable jusqu'à 3,1 GHz (Skylake 8175M ou Cascade Lake 8259CL)
    • CPU extensible, contrôlé par les crédits CPU, et performance de référence homogène
    • Mode illimité par défaut pour maintenir les performances pendant les pics d'utilisation ; mode standard en option pour un coût mensuel prévisible
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • AWS Nitro System et les processeurs Intel Xeon Scalable à haute fréquence permettent d'obtenir un rapport prix/performances plus intéressant, notamment jusqu'à 30 % par rapport aux instances T2
    Instance vCPU* Crédits CPU/heure Mém. (GiB) Stockage Performances réseau (Gbit/s)***
    t3.nano 2
    6
    0,5 EBS uniquement Jusqu'à 5
    t3.micro 2
    12
    1 EBS uniquement
    Jusqu'à 5
    t3.small 2
    24
    2 EBS uniquement
    Jusqu'à 5
    t3.medium 2 24
    4 EBS uniquement
    Jusqu'à 5
    t3.large 2 36
    8 EBS uniquement Jusqu'à 5
    t3.xlarge 4 96
    16 EBS uniquement Jusqu'à 5
    t3.2xlarge 8 192
    32 EBS uniquement Jusqu'à 5

    Toutes les instances ont les spécifications suivantes :

    Cas d'utilisation :

    Micro-services, applications interactives à faible temps de latence, bases de données petites et moyennes, bureaux virtuels, environnements de développement, référentiels de code et applications stratégiques

  • T3a
  • Les instances T3a Amazon EC2 représentent la nouvelle génération d'instances extensibles à usage général. Ce type d'instance offre un niveau de performances CPU de base, avec la possibilité d'étendre l'utilisation du CPU à tout moment et pendant aussi longtemps que nécessaire. Les instances T3a offrent un équilibre entre les ressources de calcul, de mémoire et de réseau et sont conçues pour des applications avec une utilisation modérée du CPU avec des pics d'utilisation temporaires. Les instances T3a permettent de réaliser jusqu'à 10 % d'économie par rapport aux autres types d'instances comparables.

    Les instances T3a cumulent des crédits CPU quand une charge est opérée en dessous du seuil de base. Chaque crédit CPU gagné permet à l'instance T3a de fonctionner avec les performances d'un cœur de CPU complet pendant une minute si nécessaire. Les instances T3a peuvent étendre leurs capacités à tout moment et pendant aussi longtemps que désiré avec le mode illimité.

    Fonctions :

    • Processeurs AMD EPYC 7000 series (AMD EPYC 7571) avec vitesse d'horloge turbo de 2,5 GHz pour tous les cœurs
    • CPU extensible, contrôlé par les crédits CPU, et performance de référence homogène
    • Mode illimité par défaut pour maintenir les performances pendant les pics d'utilisation ; mode standard en option pour un coût mensuel prévisible
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Instance vCPU* Crédits CPU/heure Mém. (GiB) Stockage Performances réseau (Gbit/s)***
    t3a.nano 2
    6
    0,5 EBS uniquement Jusqu'à 5
    t3a.micro 2
    12
    1 EBS uniquement
    Jusqu'à 5
    t3a.small 2
    24
    2 EBS uniquement
    Jusqu'à 5
    t3a.medium 2 24
    4 EBS uniquement
    Jusqu'à 5
    t3a.large 2 36
    8 EBS uniquement Jusqu'à 5
    t3a.xlarge 4 96
    16 EBS uniquement Jusqu'à 5
    t3a.2xlarge 8 192
    32 EBS uniquement Jusqu'à 5

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation :

    micro-services, applications interactives à latence faible, petites et moyennes bases de données, bureaux virtuels, environnement de développement, référentiels de code et applications commerciales essentielles

  • T2
  • Les instances T2 Amazon EC2 sont des instances de performance à capacité extensibles qui fournissent un niveau de départ en matière de capacités de CPU, avec la possibilité de dépasser le seuil de base.

    Les instances T2 illimitées peuvent maintenir des performances CPU élevées, aussi longtemps qu'une charge de travail en a besoin. Pour la plupart des charges de travail à usage général, les instances T2 illimitées fourniront d'excellentes performances sans frais supplémentaires. Si l'instance doit être exécutée avec une utilisation de CPU plus élevée pendant une période prolongée, c'est également possible moyennant des frais supplémentaires fixes s'élevant à 5 cents par heure vCPU.

    La capacité de base et la possibilité de débordement sont contrôlées par les crédits CPU. Les instances T2 reçoivent des crédits CPU en continu à un débit défini en fonction de la taille de l'instance, accumulant des crédits CPU lorsqu'ils sont inactifs et consommant des crédits CPU lorsqu'ils sont actifs. Les instances T2 sont un bon choix pour diverses charges de travail polyvalentes, notamment les micro-services, les applications interactives à faible latence, les bases de données petites et moyennes, les bureaux virtuels, les environnements de développement et de développement, les référentiels de code et les prototypes de produits. Pour plus d'informations, consultez l'article Instances à capacité extensible.

    Fonctions :

    • Processeur Intel Xeon Scalable jusqu'à 3,3 GHz (Haswell E5-2676 v3 ou Broadwell E5-2686 v4)
    • Processeurs Intel Xeon haute fréquence
    • CPU extensible, contrôlé par les crédits CPU, et performance de référence homogène.
    • Type d'instance à usage général, au prix le plus bas, et éligible à l'offre gratuite*
    • Équilibre entre les ressources de calcul, de mémoire et de réseau

    * t2.micro seulement. Si configuré en tant que T2 illimité, des frais peuvent s'appliquer si l'utilisation moyenne du processeur dépasse la ligne de base de l'instance. Pour plus de détails, consultez notre documentation.

    Instance vCPU* Crédits CPU/heure
    Mém. (GiB)  Stockage
    Performances réseau
    t2.nano 1 3 0,5 EBS uniquement Faible
    t2.micro 1 6 1 EBS uniquement
    Faible à modéré
    t2.small 1 12 2 EBS uniquement
    Faible à modéré
    t2.medium 2 24 4 EBS uniquement
    Faible à modéré
    t2.large 2 36 8 EBS uniquement Faible à modéré
    t2.xlarge 4 54 16 EBS uniquement Modéré
    t2.2xlarge 8 81 32 EBS uniquement Modéré

    Toutes les instances présentent les spécifications suivantes :

    • Intel AVX†, Intel Turbo†
    • Les instances t2.nano, t2.micro, t2.small et t2.medium sont équipés d'un processeur Intel Xeon Scalable jusqu'à 3,3 GHz
    • Les instances t2.large, t2.xlarge, et t2.2xlarge utilisent un processeur Intel Scalable allant jusqu'à 3 GHz

    Cas d'utilisation

    Les sites et les applications Web, les environnements de développement, les serveurs de développement, les référentiels de codes, les micro-services, les environnements de test et de simulation ainsi que les applications liées aux secteurs d'activité.  

Chaque vCPU sur les instances Amazon EC2 basées sur Graviton est un cœur d'un processeur AWS Graviton.

Chaque vCPU sur les instances Amazon EC2 non basées sur Graviton est un thread de processeur x86, à l'exception des instances M7a, T2 et m3.medium.

† AVX, AVX2 et la mise en réseau améliorée ne sont disponibles que sur les instances lancées avec des AMI HVM.

* Il s'agit du nombre par défaut et maximum de vCPU disponibles pour ce type d'instance. Vous pouvez spécifier un nombre personnalisé de vCPU lors du lancement de ce type d'instance. Pour en savoir plus sur le nombre de vCPU valides et sur la façon de bien démarrer avec cette fonctionnalité, consultez la page de documentation relative à l'optimisation des CPU ici.

** Ces instances M4 peuvent être lancées sur un processeur Intel Xeon E5-2686 v4 (Broadwell).  

***Les instances avec la mention Bande passante réseau « jusqu'à » ont une bande passante de base, et peuvent utiliser un mécanisme de crédits I/O réseau pour opérer une extension au-delà de leur bande passante réseau de base, dans la mesure du possible. Pour plus d'informations, consultez Bande passante du réseau d'instance.

Optimisé pour le calcul

Les instances optimisées pour le calcul sont idéales pour les applications de calcul qui utilisent des processeurs haute performance. Les instances qui font partie de cette famille sont bien adaptées aux charges de travail de traitement par lots, au transcodage des médias, aux serveurs Web haute performance, au calcul haute performance (HPC), à la modélisation scientifique, aux serveurs de jeux dédiés et aux moteurs de serveurs publicitaires, aux inférences de machine learning et autres applications de calcul intensif.

  • C7g
  • Les instances Amazon EC2 C7g sont optimisées par des processeurs Graviton3 AWS basés sur Arm. Ils offrent le meilleur rapport qualité prix dans Amazon EC2 pour les applications de calcul intensif.

    Fonctions :

    • Équipé de processeurs Graviton3 AWS personnalisés
    • Dotée de la toute dernière mémoire DDR5 qui offre une bande passante supérieure de 50 % à celle de la DDR4
    • Bande passante du réseau améliorée de 20 % comparée aux instances C6g
    • Optimisé par défaut pour EBS
    • Stockage d'instance proposé via EBS ou des disques SSD NVMe physiquement connectés au serveur hôte
    • Avec les instances C7gd, les disques SSD NVMe locaux sont physiquement connectés au serveur hôte et fournissent un stockage par bloc couplé au cycle de vie de l'instance
    • Prend en charge l'adaptateur Elastic Fabric sur les instances c7g.16xlarge, c7g.metal, c7gd.16xlarge, et c7gd.metal
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)

    c7g.medium

    1

    2

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7g.large

    2

    4

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7g.xlarge

    4

    8

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7g.2xlarge

    8

    16

    EBS uniquement

    Jusqu'à 15

    Jusqu'à 10

    c7g.4xlarge

    16

    32

    EBS uniquement

    Jusqu'à 15

    Jusqu'à 10

    c7g.8xlarge

    32

    64

    EBS uniquement

    15

    10

    c7g.12xlarge

    48

    96

    EBS uniquement

    22,5

    15

    c7g.16xlarge

    64

    128

    EBS uniquement

    30

    20

    c7g.metal 64 128 EBS uniquement 30 20

    c7gd.medium

    1

    2

    1 SSD NVMe x 59

    Jusqu'à 12,5

    Jusqu'à 10

    c7gd.large

    2

    4

    1 SSD NVMe x 118

    Jusqu'à 12,5

    Jusqu'à 10

    c7gd.xlarge

    4

    8

    1 SSD NVMe x 237

    Jusqu'à 12,5

    Jusqu'à 10

    c7gd.2xlarge

    8

    16

    1 SSD NVMe x 474

    Jusqu'à 15

    Jusqu'à 10

    c7gd.4xlarge

    16

    32

    1 disque SSD NVMe de 950

    Jusqu'à 15

    Jusqu'à 10

    c7gd.8xlarge

    32

    64

    1 SSD NVMe x 1 900

    15

    10

    c7gd.12xlarge

    48

    96

    2 SSD NVMe de 1 425

    22,5

    15

    c7gd.16xlarge

    64

    128

    2 SSD NVMe x 1 900

    30

    20

    c7gd.metal

    64

    128

    2 SSD NVMe x 1 900

    30

    20

    Toutes les instances présentent les spécificités suivantes :

    Cas d'utilisation

    Calcul haute performance (HPC), traitement par lots, diffusion d'annonce, encodage vidéo, jeux, modélisation scientifique, analyse distribuée et inférence de machine learning basée sur le CPU.

  • C7gn
  • Les instances Amazon EC2 C7gn sont optimisées par des processeurs AWS Graviton3E basés sur Arm. Elles offrent jusqu'à 200 Gbit/s de bande passante du réseau et des performances de traitement de paquets par processeur virtuel jusqu'à 3 fois supérieures à celles des instances optimisées réseau x86 de la génération actuelle.

    Fonctions :

    • Équipé de processeurs Graviton3E AWS personnalisés
    • Dotée de la toute dernière mémoire DDR5 (Double Data Rate 5) qui offre une bande passante supérieure de 50 % à celle de la DDR4
    • Jusqu'à 200 Gbit/s de bande passante du réseau
    • Jusqu'à 40 Go/s de bande passante vers Amazon Elastic Block Store (EBS)
    • Bande passante du réseau améliorée deux fois plus élevée comparée aux instances C6gn
    • Optimisé pour EBS, par défaut
    • Prend en charge Elastic Fabric Adapter (EFA) sur les instances c7gn.16xlarge et c7gn.metal
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)

    c7gn.medium

    1

    2

    EBS uniquement

    Jusqu'à 25

    Jusqu'à 10

    c7gn.large

    2

    4

    EBS uniquement

    Jusqu'à 30

    Jusqu'à 10

    c7gn.xlarge

    4

    8

    EBS uniquement

    Jusqu'à 40

    Jusqu'à 10

    c7gn.2xlarge

    8

    16

    EBS uniquement

    Jusqu'à 50

    Jusqu'à 10

    c7gn.4xlarge

    16

    32

    EBS uniquement

    50

    Jusqu'à 10

    c7gn.8xlarge

    32

    64

    EBS uniquement

    100

    Jusqu'à 20

    c7gn.12xlarge

    48

    96

    EBS uniquement

    150

    Jusqu'à 30

    c7gn.16xlarge

    64

    128

    EBS uniquement

    200

    Jusqu'à 40

    c7gn.metal

    64

    128

    EBS uniquement

    200

    Jusqu'à 40

    Toutes les instances présentent les spécificités suivantes :

    Cas d'utilisation
    Charges de travail à forte intensité de réseau, telles que les appliances réseau virtuelles, l'analyse de données, ainsi que l'intelligence artificielle et l'inférence de machine learning (AI/ML) basées sur CPU

  • C7i
  • Les instances Amazon EC2 C7i sont alimentées par des processeurs Intel Xeon Scalable de 4e génération et offrent un rapport prix/performances 15 % supérieur à celui des instances C6i.

    Fonctionnalités :

    • Processeur Intel Xeon Scalable de 4e génération jusqu'à 3,2 GHz (Sapphire Rapids 8488C)
    • Les nouvelles extensions matricielles avancées (AMX) accélèrent les opérations de multiplication matricielle
    • 2 tailles de métal : c7i.metal-24xl and c7i.metal-48xl
    • Les accélérateurs discrets intégrés (disponibles uniquement sur le C7i matériel nu) - Accélérateur de flux de données (DSA), In-Memory Analytics Accelerator (IAA) et QuickAssist Technology (QAT) - permettent de décharger et d'accélérer efficacement les opérations de données afin d'optimiser les performances des bases de données, du cryptage et de la compression, ainsi que des charges de travail de gestion des files d'attente
    • Mémoire DDR5 la plus récente, qui offre plus de bande passante que la DDR4
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge d'un maximum de 128 pièces jointes de volumes EBS par instance
    • Jusqu'à 192 processeurs virtuels et 384 Gio de mémoire
    • Prend en charge Elastic Fabric Adapter sur la taille 48xlarge et la taille metal-48xl
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)

    c7i.large

    2

    4

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7i.xlarge

    4

    8

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7i.2xlarge

    8

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7i.4xlarge

    16

    32

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7i.8xlarge

    32

    64

    EBS uniquement

    12,5

    10

    c7i.12xlarge

    48

    96

    EBS uniquement

    18,75

    15

    c7i.16xlarge

    64

    128

    EBS uniquement

    25

    20

    c7i.24xlarge

    96

    192

    EBS uniquement

    37,5

    30

    c7i.48xlarge

    192

    384

    EBS uniquement

    50

    40

    c7i.metal-24xl

    96

    192

    EBS uniquement

    37,5

    30

    c7i.metal-48xl

    192

    384

    EBS uniquement

    50

    40

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Les instances C7i sont idéales pour les charges de travail à forte intensité de calcul telles que le traitement par lots, l'analyse distribuée, le calcul haute performance (HPC), la diffusion de publicités, les jeux multijoueurs hautement évolutifs et l'encodage vidéo.

  • C7a
  • Les instances Amazon EC2 C7a, alimentées par des processeurs AMD EPYC de 4ème génération, offrent des performances jusqu'à 50 % supérieures à celles des instances C6a.

    Fonctionnalités :

    • Processeurs AMD EPYC de 4e génération jusqu'à 3,7 GHz (AMD EPYC 9R14)
    • Jusqu'à 50 Gbit/s de bande passante du réseau
    • Jusqu'à 40 Gbit/s de bande passante vers l'Amazon Elastic Block Store (Amazon EBS)
    • Tailles d'instances jusqu'à 192 vCPU et 384 GiB de mémoire
    • Conçu sur AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Prise en charge du cryptage permanent de la mémoire à l'aide du cryptage sécurisé de la mémoire (SME) d'AMD
    • Prise en charge des nouvelles capacités des processeurs telles que AVX-512, VNNI et bfloat16
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s) Bande passante EBS (Gbit/s)

    c7a.medium

    1

    2

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7a.large

    2

    4

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7a.xlarge

    4

    8

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7a.2xlarge

    8

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7a.4xlarge

    16

    32

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c7a.8xlarge

    32

    64

    EBS uniquement

    12,5

    10

    c7a.12xlarge

    48

    96

    EBS uniquement

    18,75

    15

    c7a.16xlarge

    64

    128

    EBS uniquement

    25

    20

    c7a.24xlarge

    96

    192

    EBS uniquement

    37,5

    30

    c7a.32xlarge

    128

    256

    EBS uniquement

    50

    40

    c7a.48xlarge

    192

    384

    EBS uniquement

    50

    40

    c7a.metal-48xl

    192

    384

    EBS uniquement

    50

    40

    Cas d'utilisation

    Charges de travail gourmandes en calcul comme le traitement par lots, l'analytique distribuée, le calcul haute performance (HPC), les diffusions publicitaires, les jeux vidéo multijoueurs hautement évolutifs et l'encodage vidéo.
     

  • C6g
  • Les instances Amazon EC2 C6g sont optimisées par des processeurs AWS Graviton2 basés sur Arm. Elles offrent un rapport qualité-prix jusqu'à 40 % supérieur à celui des instances C5 de la génération actuelle pour les applications à forte intensité de calcul.

    Fonctions:

    • Processeur AWS Graviton2 créé sur mesure et doté de cœurs Arm Neoverse de 64 bits
    • Prise en charge de la mise en réseau améliorée avec une bande passante réseau qui atteint 25 Gbit/s
    • Optimisé par défaut pour EBS
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Avec les instances C6gd, les disques SSD NVMe locaux sont physiquement connectés au serveur hôte et fournissent un stockage de niveau bloc couplé au cycle de vie de l'instance.
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Mbit/s)
    c6g.medium 1 2 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    c6g.large 2 4 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    c6g.xlarge 4 8 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    c6g.2xlarge 8 16 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    c6g.4xlarge 16 32 EBS uniquement Jusqu'à 10 4750
    c6g.8xlarge 32 64 EBS uniquement 12 9000
    c6g.12xlarge 48 96 EBS uniquement 20 13500
    c6g.16xlarge 64 128 EBS uniquement 25 19000
    c6g.metal 64 128 EBS uniquement 25 19000
    c6gd.medium 1 2 1 SSD NVMe x 59 Jusqu'à 10 Jusqu'à 4 750
    c6gd.large 2 4 1 SSD NVMe x 118 Jusqu'à 10 Jusqu'à 4 750
    c6gd.xlarge 4 8 1 SSD NVMe x 237 Jusqu'à 10 Jusqu'à 4 750
    c6gd.2xlarge 8 16 1 SSD NVMe x 474 Jusqu'à 10 Jusqu'à 4 750
    c6gd.4xlarge 16 32 1 disque SSD NVMe de 950 Jusqu'à 10 4 750
    c6gd.8xlarge 32 64 1 SSD NVMe x 1 900 12 9 000
    c6gd.12xlarge 48 96 2 SSD NVMe de 1 425 20 13 500
    c6gd.16xlarge 64 128 2 SSD NVMe x 1 900 25 19 000
    c6gd.metal 64 128 2 SSD NVMe x 1 900 25 19 000

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Calcul haute performance (HPC), traitement par lots, diffusion d'annonce, encodage vidéo, jeux, modélisation scientifique, analyse distribuée et inférence de machine learning basée sur le CPU.

  • C6gn
  • Les instances Amazon EC2 C6gn sont optimisées par des processeurs AWS Graviton2 basés sur Arm. Elles offrent un rapport qualité-prix jusqu'à 40 % supérieur à celui des instances C5n de la génération actuelle, et permettent un débit réseau jusqu'à 100 Gbit/s ainsi que la prise en charge de l'EFA (Elastic Fabric Adapter) pour les applications nécessitant un débit réseau plus élevé, comme le calcul haute performance (HPC), les appliances réseau, la communication vidéo en temps réel et l'analyse des données.

    Fonctions:

    • Processeur AWS Graviton2 créé sur mesure et doté de cœurs Arm Neoverse de 64 bits
    • Prise en charge de la mise en réseau améliorée avec une bande passante réseau jusqu'à 100 Gbit/s
    • Prise en charge d'EFA sur les instances c6gn.16xlarge
    • Optimisation pour EBS par défaut, avec une bande passante EBS double de celle des instances C5n
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)

    c6gn.medium

    1

    2

    EBS uniquement

    Jusqu'à 16

    Jusqu'à 9,5

    c6gn.large

    2

    4

    EBS uniquement

    Jusqu'à 25

    Jusqu'à 9,5

    c6gn.xlarge

    4

    8

    EBS uniquement

    Jusqu'à 25

    Jusqu'à 9,5

    c6gn.2xlarge

    8

    16

    EBS uniquement

    Jusqu'à 25

    Jusqu'à 9,5

    c6gn.4xlarge

    16

    32

    EBS uniquement

    Jusqu'à 25

    9,5

    c6gn.8xlarge

    32

    64

    EBS uniquement

    50

    19

    c6gn.12xlarge

    48

    96

    EBS uniquement

    75

    28,5

    c6gn.16xlarge

    64

    128

    EBS uniquement

    100

    38

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Serveurs web hautes performances, modélisation scientifique, traitement en lot, analytique distribuée, calcul hautes performances (HPC), appliance réseau, inférence de machine learning/deep learning, diffusion publicitaire, jeux multijoueurs hautement évolutifs et encodage vidéo.

  • C6i
  • Les instances Amazon EC2 C6i sont alimentées par des processeurs Intel Xeon Scalable de 3e génération et sont idéales pour les charges de travail de calcul intensif.

    Fonctions :

    • Processeurs Intel Xeon Scalable de 3e génération jusqu'à 3,5 GHz (Ice Lake 8375C)
    • Rapport prix/performances de calcul jusqu'à 15 % supérieur par rapport aux instances C5
    • Bande passante mémoire par vCPU jusqu'à 9 % supérieure à celle des instances C5
    • Jusqu'à 50 Gbit/s de vitesse de réseau
    • Jusqu'à 40 Gbit/s de bande passante vers Amazon Elastic Block Store
    • Nouvelle taille d'instance (32xlarge) avec 128 vCPU et 256 Gio de mémoire
    • Prend en charge Elastic Fabric Adapter sur les tailles 32xlarge et metal
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge des nouvelles instructions Intel Advanced Vector Extensions (AVX 512) pour exécuter plus rapidement les algorithmes cryptographiques
    • Avec les instances C6id, jusqu'à 7,6 To sur des disques SSD locaux NVMe physiquement connectés au serveur hôte, et vous disposez d'un stockage par bloc couplé à la durée de vie de l'instance C6i
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)

    c6i.large

    2

    4

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c6i.xlarge

    4

    8

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c6i.2xlarge

    8

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c6i.4xlarge

    16

    32

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    c6i.8xlarge

    32

    64

    EBS uniquement

    12,5

    10

    c6i.12xlarge

    48

    96

    EBS uniquement

    18,75

    15

    c6i.16xlarge

    64

    128

    EBS uniquement

    25

    20

    c6i.24xlarge

    96

    192

    EBS uniquement

    37,5

    30

    c6i.32xlarge

    128

    256

    EBS uniquement

    50

    40

    c6i.metal 128 256 EBS uniquement 50 40

    c6id.large

    2

    4

    1 disque SSD NVMe de 118

    Jusqu'à 12,5

    Jusqu'à 10

    c6id.xlarge

    4

    8

    1 disque SSD NVMe de 237

    Jusqu'à 12,5

    Jusqu'à 10

    c6id.2xlarge

    8

    16

    1 disque SSD NVMe de 474

    Jusqu'à 12,5

    Jusqu'à 10

    c6id.4xlarge

    16

    32

    1 disque SSD NVMe de 950

    Jusqu'à 12,5

    Jusqu'à 10

    c6id.8xlarge

    32

    64

    1 disque SSD NVMe de 1 900

    12,5

    10

    c6id.12xlarge

    48

    96

    2 disques SSD NVMe de 1 425

    18,75

    15

    c6id.16xlarge

    64

    128

    2 disques SSD NVMe de 1 900

    25

    20

    c6id.24xlarge

    96

    192

    4 disques SSD NVMe de 1 425

    37,5

    30

    c6id.32xlarge

    128

    256

    4 disques SSD NVMe de 1 900

    50

    40

    c6id.metal 128 256 4 disques SSD NVMe de 1 900 50 40

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Les charges de travail gourmandes en calcul comme le traitement par lots, l'analytique distribuée, le calcul haute performance (HPC), les diffusions publicitaires, les jeux vidéo multijoueurs hautement évolutifs et l'encodage vidéo.

  • C6in
  • Les instances Amazon EC2 C6in sont idéales pour les charges de travail intensives en réseau, telles que les appliances réseau virtuelles, l'analyse de données, le calcul haute performance (HPC) et l'IA/ML basée sur CPU. Elles sont alimentées par des processeurs Intel Xeon Scalable de 3e génération (Ice Lake) avec une fréquence turbo tous cœurs de 3,5 GHz. Les instances C6in offrent jusqu'à 200 Gbit/s de bande passante du réseau et jusqu'à 80 Gbit/s de bande passante dédiée à Amazon Elastic Block Store (Amazon EBS). Les instances C6in.32xlarge et C6in.metal prennent en charge l'Elastic Fabric Adapter (EFA). EFA est une interface réseau pour les instances Amazon EC2 que vous pouvez utiliser pour exécuter à grande échelle sur AWS des applications qui nécessitent des niveaux élevés de communications entre les nœuds, telles que des applications HPC utilisant des bibliothèques MPI (Message Passing Interface).

    Spécifications :

    • Processeurs Intel Xeon Scalable de 3e génération jusqu'à 3,5 GHz (Ice Lake 8375C)
    • Prise en charge des réseaux améliorés avec jusqu'à 200 Gbit/s de bande passante du réseau, soit jusqu'à deux fois supérieure à celle des instances C5n
    • Bande passante jusqu'à EBS 100 Gbit/s jusqu'à 5,2 fois supérieure à celle des instances C5n
    • Support EFA sur les tailles 32xlarge et metal
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge des nouvelles instructions Intel Advanced Vector Extensions (AVX 512) pour une exécution plus rapide de l'algorithme cryptographique
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille de l'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)

    c6in.large

    2

    4

    EBS uniquement

    Jusqu'à 25

    Jusqu'à 25

    c6in.xlarge

    4

    8

    EBS uniquement

    Jusqu'à 30

    Jusqu'à 25

    c6in.2xlarge

    8

    16

    EBS uniquement

    Jusqu'à 40

    Jusqu'à 25

    c6in.4xlarge

    16

    32

    EBS uniquement

    Jusqu'à 50

    Jusqu'à 25

    c6in.8xlarge

    32

    64

    EBS uniquement

    50

    25

    c6in.12xlarge

    48

    96

    EBS uniquement

    75

    37,5

    c6in.16xlarge

    64

    128

    EBS uniquement

    100

    50

    c6in.24xlarge

    96

    192

    EBS uniquement

    150

    75

    c6in.32xlarge 128 256 EBS uniquement 200**** 100
    c6in.metal 128 256 EBS uniquement 200**** 100


    ****Pour les tailles 32xlarge et metal, au moins 2 interfaces réseau élastiques, chacune étant reliée à une carte réseau différente, sont nécessaires sur l'instance pour atteindre un débit de 200 Gbit/s. Chaque interface réseau attachée à une carte réseau peut atteindre un maximum de 170 Gbit/s. Pour plus d'informations, consultez Cartes réseau

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Charges de travail à forte intensité de calcul nécessitant une bande passante du réseau élevée ou des performances élevées de traitement des paquets, telles que les applications informatiques distribuées, les appliances réseau virtuelles, l'analyse de données, le calcul haute performance (HPC) et l'IA/ML basé sur CPU.

  • C6a
  • Les instances Amazon C6a sont alimentées par des processeurs AMD EPYC de 3e génération et sont conçues pour les charges de travail de calcul intensif.

    Fonctions :

    • Processeurs AMD EPYC de 3e génération jusqu'à 3,6 GHz (AMD EPYC 7R13)
    • Rapport prix/performances de calcul jusqu'à 15 % supérieur par rapport aux instances C5a
    • Jusqu'à 50 Gbit/s de vitesse de réseau
    • Jusqu'à 40 Gbit/s de bande passante vers Amazon Elastic Block Store
    • Jusqu'à 192 vCPU et 384 Gio de mémoire dans la plus grande taille
    • Instances certifiées SAP
    • Prend en charge Elastic Fabric Adapter sur la taille 48xlarge
    • Basée sur le AWS Nitro System, une combinaison de matériel dédié et d'un hyperviseur léger
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie AMD Transparent Single Key Memory Encryption (TSME)
    • Prise en charge des nouvelles instructions AMD Advanced Vector Extensions (AVX-2) pour une exécution plus rapide des algorithmes cryptographiques
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    c6a.large 2 4 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    c6a.xlarge 4 8 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    c6a.2xlarge 8 16 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    c6a.4xlarge 16 32 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    c6a.8xlarge 32 64 EBS uniquement 12,5 10
    c6a.12xlarge 48 96 EBS uniquement 18,75 15
    c6a.16xlarge 64 128 EBS uniquement 25 20
    c6a.24xlarge 96 192 EBS uniquement 37,5 30
    c6a.32xlarge 128 256 EBS uniquement 50 40
    c6a.48xlarge 192 384 EBS uniquement 50 40
    c6a.metal 192 384 EBS uniquement 50 40

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Applications gourmandes en calcul comme le traitement par lots, l'analytique distribuée, le calcul haute performance (HPC), les diffusions publicitaires, les jeux vidéo multijoueurs hautement évolutifs et l'encodage vidéo.

  • C5
  • Les instances C5 Amazon EC2 sont optimisées pour les charges de travail intensives en calcul et offrent des performances élevées très rentables pour un rapport prix/performances de calcul avantageux.

    Fonctions :

    • Instances C5 offrant un large choix de processeurs en fonction de la taille de l'instance.
    • Les instances C5 et C5d 12xlarge, 24xlarge et métal sont équipées de processeurs Intel Xeon Scalable personnalisés de 2e génération (Cascade Lake 8275CL) avec une fréquence turbo soutenue de 3,6 GHz pour tous les cœurs et une fréquence turbo pour un seul cœur pouvant atteindre 3,9 GHz. 
    • D'autres tailles d'instances C5 seront lancées sur les processeurs Intel Xeon Scalable de 2e génération (Cascade Lake 8223CL) ou sur les processeurs Intel Xeon Platinum 8000 de 1re génération (Skylake 8124M) avec une fréquence turbo soutenue pour tous les cœurs pouvant atteindre 3,4 GHz, et une fréquence turbo pour un seul cœur pouvant atteindre 3,5 GHz.
    • Nouvelle grande taille d'instance 24xlarge offrant 96 vCPU, 192 Gio de mémoire et un stockage en option de 3,6 To de disques SSD basés sur NVME
    • Nécessite des AMI HVM comprenant des pilotes pour ENA et NVMe
    • Avec les instances C5d, les disques SSD NVMe locaux sont connectés physiquement au serveur hôte et assurent un stockage en mode bloc couplé au cycle de vie de l'instance C5.
    • Elastic Network Adapter (ENA) offre des instances C5 avec jusqu'à 25 Gbit/s de bande passante réseau et jusqu'à 19 Gbit/s de bande passante dédiée à Amazon EBS.
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Modèle vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)***
    Bande passante EBS (Mbit/s)
    c5.large 2 4 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    c5.xlarge 4 8 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    c5.2xlarge 8 16 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    c5.4xlarge 16 32 EBS uniquement Jusqu'à 10 4 750
    c5.9xlarge 36 72 EBS uniquement 12 9 500
    c5.12xlarge 48 96 EBS uniquement 12 9 500
    c5.18xlarge 72 144 EBS uniquement 25 19 000
    c5.24xlarge 96 192 EBS uniquement 25 19 000
    c5.metal 96 192 EBS uniquement 25 19 000
    c5d.large 2 4 1 disque SSD NVMe de 50 Jusqu'à 10 Jusqu'à 4 750
    c5d.xlarge 4 8 1 disque SSD NVMe de 100 Jusqu'à 10 Jusqu'à 4 750
    c5d.2xlarge 8 16 1 disque SSD NVMe de 200 Jusqu'à 10 Jusqu'à 4 750
    c5d.4xlarge 16 32 1 disque SSD NVMe de 400 Jusqu'à 10 4 750
    c5d.9xlarge 36 72 1 disque SSD NVMe de 900 12 9 500
    c5d.12xlarge 48 96 2 disques SSD NVMe de 900 12 9 500
    c5d.18xlarge 72 144 2 disques SSD NVMe de 900 25 19 000
    c5d.24xlarge 96 192 4 disques SSD NVMe de 900 25 19 000
    c5d.metal 96 192 4 disques SSD NVMe de 900 25 19 000

    Les instances C5 et C5d 12xlarge, 24xlarge et metal présentent les spécificités suivantes :

    Toutes les autres instances C5 et C5d présentent les spécificités suivantes :

    • Processeurs personnalisés Intel Xeon Scalable (Cascade Lake) de 2e génération avec une fréquence turbo soutenue sur tous les cœurs de 3,6 GHz et une fréquence turbo maximale sur un seul cœur de 3,9 GHz, ou un processeur Intel Xeon Platinum 8000 (Skylake-SP) de 1ère génération avec une fréquence turbo soutenue sur tous les cœurs pouvant atteindre 3,4 GHz et une fréquence turbo sur un seul cœur allant jusqu'à 3,5 GHz
    • Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
    • Optimisée pour EBS
    • Mise en réseau améliorée†

    Cas d'utilisation

    Serveurs Web haute performance, modélisation scientifique, traitement par lots, analyse distribuée, calcul haute performance (HPC), inférence Machine/Deep Learning, diffusion d'annonces, jeu multijoueur hautement évolutif et encodage vidéo.

  • C5n
  • Les instances C5n Amazon EC2 conviennent parfaitement aux applications de calcul élevé (y compris les charge de travail calcul haute performance (HPC), les lacs de données et les composants de réseau comme les pare-feu et les routeurs) qui peuvent profiter d'un meilleur débit du réseau et de meilleures performances au niveau de la vitesse des paquets. Les instances C5n offrent jusqu'à 100 Gbps de bande passante réseau et une plus grande mémoire que les instances C5 comparables. Les instances C5n.18xlarge prennent en charge Elastic Fabric Adapter (EFA), une interface réseau pour les instances Amazon EC2, qui permet aux clients d'exécuter des applications nécessitant de hauts niveaux de communications entre les nœuds, telles les applications de calcul haute performance (HPC), en utilisant l'interface MPI (Message Passing Interface) à grande échelle sur AWS.

    Fonctions :

    • Processeurs Intel Xeon Platinum 3 GHz (Skylake 8124) avec jeu d'instructions Intel Advanced Vector Extension 512 (AVX-512)
    • Fréquence turbo soutenue pour tous les cœurs, jusqu'à 3,4 GHz, et fréquence turbo pour un seul cœur, jusqu'à 3,5 GHz
    • Taille d'instance plus grande, c5n.18xlarge, offrant 72 CPU virtuels et 192 Gio de mémoire
    • Nécessite des AMI HVM comprenant des pilotes pour ENA et NVMe
    • La bande passante réseau augmente jusqu'à 100 Gb/s, ce qui offre de meilleures performances pour les applications intensives sur le réseau.
    • Support EFA sur les instances c5n.18xlarge
    • Empreinte mémoire 33 % plus élevée par rapport aux instances C5
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Modèle vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)***
    Bande passante EBS (Mbit/s)
    c5n.large 2 5.25 EBS uniquement Jusqu'à 25
    Jusqu'à 4 750
    c5n.xlarge 4 10.5 EBS uniquement Jusqu'à 25 Jusqu'à 4 750
    c5n.2xlarge 8 21 EBS uniquement Jusqu'à 25 Jusqu'à 4 750
    c5n.4xlarge 16 42 EBS uniquement Jusqu'à 25 4 750
    c5n.9xlarge 36 96
    EBS uniquement 50 9 500
    c5n.18xlarge 72 192 EBS uniquement 100 19 000
    c5n.metal 72 192 EBS uniquement 100 19 000

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Serveurs Web haute performance, modélisation scientifique, traitement par lots, analyse distribuée, calcul haute performance (HPC), inférence Machine/Deep Learning, diffusion d'annonces, jeu multijoueur hautement évolutif et encodage vidéo.

  • C5a
  • Les instances C5a Amazon EC2 offrent un rapport performances/prix x86 de pointe pour un large éventail de charges de travail intensives en calcul.

    Fonctions :

    • Processeurs AMD EPYC 7002 de 2e génération (AMD EPYC 7R32) avec des fréquences pouvant atteindre 3,3 GHz
    • Elastic Network Adapter (ENA) offre des instances C5a avec jusqu'à 20 Gbit/s de bande passante réseau et jusqu'à 9,5 Gbit/s de bande passante dédiée à Amazon EBS
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Avec les instances C5ad, les disques SSD NVMe locaux sont physiquement connectés au serveur hôte et fournissent un stockage au niveau du bloc couplé au cycle de vie de l'instance C5a.
    Modèle vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)***
    Bande passante EBS (Mbit/s)
    c5a.large 2 4 EBS uniquement Jusqu'à 10
    Jusqu'à 3 170
    c5a.xlarge 4 8 EBS uniquement Jusqu'à 10 Jusqu'à 3 170
    c5a.2xlarge 8 16 EBS uniquement Jusqu'à 10 Jusqu'à 3 170
    c5a.4xlarge 16 32 EBS uniquement Jusqu'à 10 Jusqu'à 3 170
    c5a.8xlarge 32 64
    EBS uniquement 10 3 170
    c5a.12xlarge 48 96 EBS uniquement 12 4 750
    c5a.16xlarge 64 128 EBS uniquement 20 6 300
    c5a.24xlarge 96 192 EBS uniquement 20 9 500
    c5ad.large 2 4 1 disque SSD NVMe de 75 jusqu'à 10 Jusqu'à 3 170
    c5ad.xlarge 4 8 1 disque SSD NVMe de 150 jusqu'à 10 Jusqu'à 3 170
    c5ad.2xlarge 8 16 1 SSD NVMe x 300 jusqu'à 10 Jusqu'à 3 170
    c5ad.4xlarge 16 32 2 disques SSD NVMe de 300 jusqu'à 10 Jusqu'à 3 170
    c5ad.8xlarge 32 64 2 disques SSD NVMe de 600 10 3 170
    c5ad.12xlarge 48 96 2 disques SSD NVMe de 900 12 4 750
    c5ad.16xlarge 64 128 2 disques SSD NVMe de 1 200 20 6 300
    c5ad.24xlarge 96 192 2 disques SSD NVMe de 1 900 20 9 500

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Les instances C5a sont idéales pour les charges de travail nécessitant un processeur virtuel et une bande passante mémoire élevés tels que le traitement par lots, l'analyse distribuée, les transformations de données, le jeu, l'analyse des journaux, les applications web et d'autres charges de travail de calcul intensif.

  • C4
  • Les instances C4 sont optimisées pour les charges de travail de calcul intensif et offrent des performances élevées très rentables pour un rapport prix/performances de calcul avantageux.

    Fonctions :

    • Processeur Intel Xeon Scalable avec une fréquence pouvant atteindre 2,9 GHz (Haswell E5-2666 v3)
    • Processeurs Intel Xeon E5-2666 v3 (Haswell) haute fréquence, optimisés spécifiquement pour EC2
    • Par défaut optimisées pour EBS pour des performances de stockage accrues, sans frais supplémentaires
    • Performances supérieures de mise en réseau avec mise en réseau améliorée prenant en charge Intel 82599 VF
    • Amazon VPC, Amazon EBS et AMI HVM 64 bits requis
    Instance vCPU* Mém. (GiB) Stockage Bande passante dédiée à EBS (Mbit/s) Performances réseau
    c4.large 2 3,75 EBS uniquement 500 Modéré
    c4.xlarge 4 7,5 EBS uniquement 750 Élevé
    c4.2xlarge 8 15 EBS uniquement 1 000 Élevé
    c4.4xlarge 16 30 EBS uniquement 2 000 Élevé
    c4.8xlarge 36 60 EBS uniquement 4 000 10 Gigabit

    Toutes les instances ont les spécifications suivantes :

    Cas d'utilisation

    Flottes front-end à hautes performances, serveurs Web, traitements par lot, analytique distribuée, applications scientifiques et d'ingénierie à haute performance, diffusions publicitaires, jeux de type MMO et encodage de vidéos.

Chaque vCPU sur les instances Amazon EC2 basées sur Graviton est un cœur d'un processeur AWS Graviton.

Chaque vCPU sur les instances Amazon EC2 non basées sur Graviton est un thread de processeur x86, sauf pour les instances C7a.

† AVX, AVX2 et la mise en réseau améliorée ne sont disponibles que sur les instances lancées avec des AMI HVM.

* Il s'agit du nombre par défaut et maximum de vCPU disponibles pour ce type d'instance. Vous pouvez spécifier un nombre personnalisé de vCPU lors du lancement de ce type d'instance. Pour en savoir plus sur le nombre de vCPU valides et sur la façon de bien démarrer avec cette fonctionnalité, consultez la page de documentation relative à l'optimisation des CPU ici.

***Les instances avec la mention Bande passante réseau « jusqu'à » ont une bande passante de base, et peuvent utiliser un mécanisme de crédits I/O réseau pour opérer une extension au-delà de leur bande passante réseau de base, dans la mesure du possible. Pour plus d'informations, consultez Bande passante du réseau d'instance.

Mémoire optimisée

Les instances à mémoire optimisées sont conçues pour fournir des performances rapides pour les charges de travail qui traitent de grands ensembles de données en mémoire.

  • R8g
  • Les instances Amazon EC2 R8g, désormais disponibles en version préliminaire, sont alimentées par des processeurs AWS Graviton4. Elles sont idéales pour les applications optimisées pour la mémoire.

    Fonctionnalités :

    • Optimisé par des processeurs Graviton4 AWS personnalisés
    • Des tailles d’instances plus grandes avec jusqu’à 3 fois plus de processeurs virtuels et de mémoire que les instances R7g
    • Comprend la toute dernière mémoire DDR5-5600
    • Optimisé pour Amazon EBS par défaut
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d’hyperviseur léger

    Toutes les instances présentent les spécifications suivantes :

    Cas d’utilisation

    Charges de travail gourmandes en mémoire telles que les bases de données open-source, les caches en mémoire et l’analytique du big data en temps réel.

  • R7g
  • Les instances Amazon EC2 R7g sont optimisées par des processeurs Graviton3 AWS. Elles offrent le meilleur rapport qualité prix dans Amazon EC2 pour les applications optimisées pour la mémoire.

    Fonctionnalités :

    • Équipées de processeurs Graviton3 AWS personnalisés
    • Dotées de la mémoire DDR5 qui offre une bande passante supérieure de 50 % à celle de la DDR4
    • Bande passante du réseau améliorée de 20 % par rapport aux instances R6g
    • Optimisé par défaut pour EBS
    • Stockage d'instance proposé via EBS ou des disques SSD NVMe physiquement connectés au serveur hôte
    • Avec les instances R7gd, les disques SSD NVMe locaux sont physiquement connectés au serveur hôte et fournissent un stockage par bloc couplé au cycle de vie de l'instance
    • Prend en charge Elastic Fabric Adapter (EFA) sur les instances r7g.16xlarge, r7g.metal, r7gd.16xlarge, et r7gd.metal
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d’instance (Go) Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)

    r7g.medium

    1

    8

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7g.large

    2

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7g.xlarge

    4

    32

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7g.2xlarge

    8

    64

    EBS uniquement

    Jusqu'à 15

    Jusqu'à 10

    r7g.4xlarge

    16

    128

    EBS uniquement

    Jusqu'à 15

    Jusqu'à 10

    r7g.8xlarge

    32

    256

    EBS uniquement

    15

    10

    r7g.12xlarge

    48

    384

    EBS uniquement

    22,5

    15

    r7g.16xlarge

    64

    512

    EBS uniquement

    30

    20

    r7g.metal

    64

    512

    EBS uniquement

    30

    20

    r7gd.medium

    1

    8

    1 SSD NVMe x 59

    Jusqu'à 12,5

    Jusqu'à 10

    r7gd.large

    2

    16

    1 SSD NVMe x 118

    Jusqu'à 12,5

    Jusqu'à 10

    r7gd.xlarge

    4

    32

    1 SSD NVMe x 237

    Jusqu'à 12,5

    Jusqu'à 10

    r7gd.2xlarge

    8

    64

    1 SSD NVMe x 474

    Jusqu'à 15

    Jusqu'à 10

    r7gd.4xlarge

    16

    128

    1 disque SSD NVMe de 950

    Jusqu'à 15

    Jusqu'à 10

    r7gd.8xlarge

    32

    256

    1 SSD NVMe x 1 900

    15

    10

    r7gd.12xlarge

    48

    384

    2 SSD NVMe de 1 425

    22,5

    15

    r7gd.16xlarge

    64

    512

    2 SSD NVMe x 1 900

    30

    20

    r7gd.metal

    64

    512

    2 SSD NVMe x 1 900

    30

    20

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Charges de travail gourmandes en mémoire telles que les bases de données open-source, les caches en mémoire et l'analytique du big data en temps réel.

  • R7i
  • Les instances Amazon EC2 R7i sont alimentées par des processeurs Intel Xeon Scalable de 4ème génération et offrent des performances de prix 15 % supérieures à celles des instances R6i.

    Fonctionnalités :

    • Processeur Intel Xeon Scalable de 4e génération jusqu'à 3,2 GHz (Sapphire Rapids 8488C)
    • Les nouvelles extensions matricielles avancées (AMX) accélèrent les opérations de multiplication matricielle
    • 2 tailles de métal : r7i.metal-24xl and r7i.metal-48xl
    • Les accélérateurs discrets intégrés (disponibles uniquement sur les modèles R7i matériel nu) - Accélérateur de flux de données (DSA), In-Memory Analytics Accelerator (IAA) et Technologie QuickAssist (QAT) - permettent de décharger et d'accélérer efficacement les opérations de données afin d'optimiser les performances des bases de données, du cryptage et de la compression, ainsi que des charges de travail de gestion des files d'attente
    • Mémoire DDR5 la plus récente, qui offre plus de bande passante que la DDR4
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge d'un maximum de 128 pièces jointes de volumes EBS par instance
    • Jusqu'à 192 processeurs virtuels et 1 536 Go de mémoire
    • Prend en charge Elastic Fabric Adapter sur la taille 48xlarge et la taille metal-48xl
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)

    r7i.large

    2

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7i.xlarge

    4

    32

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7i.2xlarge

    8

    64

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7i.4xlarge

    16

    128

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7i.8xlarge

    32

    256

    EBS uniquement

    12,5

    10

    r7i.12xlarge

    48

    384

    EBS uniquement

    18,75

    15

    r7i.16xlarge

    64

    512

    EBS uniquement

    25

    20

    r7i.24xlarge

    96

    768

    EBS uniquement

    37,5

    30

    r7i.48xlarge

    192

    1 536

    EBS uniquement

    50

    40

    r7i.metal-24xl

    96

    768

    EBS uniquement

    37,5

    30

    r7i.metal-48xl

    192

    1 536

    EBS uniquement

    50

    40

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Les instances R7i sont certifiées SAP et idéales pour toutes les charges de travail à forte intensité de mémoire (bases de données SQL et NoSQL), les caches en mémoire distribués à l'échelle du web (Memcached et Redis), les bases de données en mémoire (SAP HANA) et l'analytique du big data en temps réel (clusters Apache Hadoop et Apache Spark).

  • R7iz
  • Les instances Amazon EC2 R7iz sont alimentées par des processeurs Intel Xeon Scalable de 4e génération et sont idéales pour les charges de travail à forte intensité de calcul et de mémoire.

    Fonctionnalités :

    • Processeurs Intel Xeon Scalable de 4ème génération (Sapphire Rapids 6455B) avec une fréquence turbo tous cœurs jusqu'à 3,9 GHz
    • Performances de calcul jusqu'à 20 % supérieures à celles des instances z1d
    • Les nouvelles extensions matricielles avancées (AMX) accélèrent les opérations de multiplication matricielle - disponible dans toutes les tailles
    • Les accélérateurs discrets intégrés (disponibles uniquement sur les modèles R7iz matériel nu) - Accélérateur de flux de données (DSA), In-Memory Analytics Accelerator (IAA) et Technologie QuickAssist (QAT) - permettent de décharger et d'accélérer efficacement les opérations de données, ce qui contribue à optimiser les performances des bases de données, le cryptage et la compression, ainsi que les charges de travail de gestion des files d'attente
    • Jusqu'à 50 Gbit/s de vitesse de réseau
    • Jusqu'à 40 Gbit/s de bande passante vers l'Amazon Elastic Block Store (EBS)
    • Taille d'instance jusqu'à 128 vCPU et 1 024 Gio de mémoire
    • Compatible avec l'Elastic Fabric Adapter sur les modèles 32xlarge et metal-32xl
    • Conçu sur AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d’instance (Go) Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)

    r7iz.large

    2

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7iz.xlarge

    4

    32

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7iz.2xlarge

    8

    64

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7iz.4xlarge

    16

    128

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7iz.8xlarge

    32

    256

    EBS uniquement

    12,5

    10

    r7iz.12xlarge

    48

    384

    EBS uniquement

    25

    19

    r7iz.16xlarge

    64

    512

    EBS uniquement

    25

    20

    r7iz.32xlarge

    128

    1 024

    EBS uniquement

    50

    40

    r7iz.metal-16xl

    64

    512

    EBS uniquement

    25

    20

    r7iz.metal-32xl

    128

    1 024

    EBS uniquement

    50

    40

    Cas d'utilisation

    Charges de travail à forte intensité de calcul et de mémoire, telles que l'Electronic Design Automation (EDA) frontale, les charges de travail des bases de données relationnelles avec des frais de licence élevés par cœur, et les charges de travail de simulation financière, actuarielle et d'analyse de données.

  • R7a
  • Les instances Amazon EC2 R7a, alimentées par des processeurs AMD EPYC de 4e génération, offrent des performances jusqu'à 50 % supérieures à celles des instances R6a.

    Fonctions :

    • Processeurs AMD EPYC de 4e génération jusqu'à 3,7 GHz (AMD EPYC 9R14)
    • Jusqu'à 50 Gbit/s de bande passante du réseau
    • Jusqu'à 40 Gbit/s de bande passante vers Amazon Elastic Block Store
    • Tailles d'instances jusqu'à 192 vCPU et 1,536 GiB de mémoire
    • Instances certifiées SAP
    • Conçu sur AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Prise en charge du cryptage permanent de la mémoire à l'aide du cryptage sécurisé de la mémoire (SME) d'AMD
    • Prise en charge de nouvelles fonctionnalités de processeur telles que AVX3-512, VNNI et bfloat16.
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)

    r7a.medium

    1

    8

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7a.large

    2

    16

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7a.xlarge

    4

    32

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7a.2xlarge

    8

    64

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7a.4xlarge

    16

    128

    EBS uniquement

    Jusqu'à 12,5

    Jusqu'à 10

    r7a.8xlarge

    32

    256

    EBS uniquement

    12,5

    10

    r7a.12xlarge

    48

    384

    EBS uniquement

    18,75

    15

    r7a.16xlarge

    64

    512

    EBS uniquement

    25

    20

    r7a.24xlarge

    96

    768

    EBS uniquement

    37,5

    30

    r7a.32xlarge

    128

    1 024

    EBS uniquement

    50

    40

    r7a.48xlarge

    192

    1 536

    EBS uniquement

    50

    40

    r7a.metal-48xl

    192

    1 536

    EBS uniquement

    50

    40

    Cas d'utilisation

    Charges de travail gourmandes en mémoire, telles que les bases de données SQL et NoSQL, les caches en mémoire distribués à l'échelle horizontale du Web, les bases de données en mémoire, l'analytique du big data en temps réel et l'Electronic Design Automation (EDA)

  • R6g
  • Les instances Amazon EC2 R6g sont alimentées par des processeurs AWS Graviton2 basés sur Arm. Ils offrent un rapport qualité-prix jusqu'à 40 % supérieur à celui des instances R5 de la génération actuelle pour les applications à gourmandes en mémoire.

    Fonctions:

    • Processeur AWS Graviton2 créé sur mesure et doté de cœurs Arm Neoverse de 64 bits
    • Prise en charge de la mise en réseau améliorée avec une bande passante réseau qui atteint 25 Gbit/s
    • Optimisé par défaut pour EBS
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Avec les instances R6gd, les disques SSD NVMe locaux sont physiquement connectés au serveur hôte et fournissent un stockage de niveau bloc couplé au cycle de vie de l'instance.
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Mbit/s)
    r6g.medium 1 8 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    r6g.large 2 16 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    r6g.xlarge 4 32 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    r6g.2xlarge 8 64 EBS uniquement Jusqu'à 10 Jusqu'à 4 750
    r6g.4xlarge 16 128 EBS uniquement Jusqu'à 10 4750
    r6g.8xlarge 32 256 EBS uniquement 12 9000
    r6g.12xlarge 48 384 EBS uniquement 20 13500
    r6g.16xlarge 64 512 EBS uniquement 25 19000
    r6g.metal 64 512 EBS uniquement 25 19000
    r6gd.medium 1 8 1 SSD NVMe x 59 Jusqu'à 10 Jusqu'à 4 750
    r6gd.large 2 16 1 SSD NVMe x 118 Jusqu'à 10 Jusqu'à 4 750
    r6gd.xlarge 4 32 1 SSD NVMe x 237 Jusqu'à 10 Jusqu'à 4 750
    r6gd.2xlarge 8 64 1 SSD NVMe x 474 Jusqu'à 10 Jusqu'à 4 750
    r6gd.4xlarge 16 128 1 disque SSD NVMe de 950 Jusqu'à 10 4 750
    r6gd.8xlarge 32 256 1 SSD NVMe x 1 900 12 9 000
    r6gd.12xlarge 48 384 2 SSD NVMe de 1 425 20 13 500
    r6gd.16xlarge 64 512 2 SSD NVMe x 1 900 25 19 000
    r6gd.metal 64 512 2 SSD NVMe x 1 900 25 19 000

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Applications gourmandes en mémoire telles que les bases de données open-source, les caches en mémoire et les analytiques de big data en temps réel

  • R6i
  • Les instances Amazon R6i sont alimentées par des processeurs Intel Xeon Scalable de 3e génération (nom de code Ice Lake) et sont idéales pour les charges de travail gourmandes en mémoire.

    Fonctions :

    • Processeurs Intel Xeon Scalable de 3e génération jusqu'à 3,5 GHz (Ice Lake 8375C)
    • Rapport prix/performances de calcul jusqu'à 15 % supérieur par rapport aux instances R5
    • Bande passante mémoire par vCPU jusqu'à 20 % supérieure à celle des instances R5
    • Jusqu'à 50 Gbit/s de vitesse de réseau
    • Jusqu'à 40 Gbit/s de bande passante vers Amazon Elastic Block Store
    • Nouvelle taille d'instance (32xlarge) avec 128 vCPU et 1 024 Gio de mémoire
    • Prend en charge Elastic Fabric Adapter sur les tailles 32xlarge et metal
    • Basée sur le AWS Nitro System, une combinaison de matériel dédié et d'un hyperviseur léger
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge des nouvelles instructions Intel Advanced Vector Extension (AVX 512) pour accélérer l'exécution des algorithmes cryptographiques
    • Avec les instances R6id, jusqu'à 7,6 To sur des disques SSD locaux NVMe physiquement connectés au serveur hôte, et vous disposez d'un stockage par bloc couplé à la durée de vie de l'instance R6i
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    r6i.large 2 16 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    r6i.xlarge 4 32 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    r6i.2xlarge 8 64 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    r6i.4xlarge 16 128 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    r6i.8xlarge 32 256 EBS uniquement 12,5 10
    r6i.12xlarge 48 384 EBS uniquement 18,75 15
    r6i.16xlarge 64 512 EBS uniquement 25 20
    r6i.24xlarge 96 768 EBS uniquement 37,5 30
    r6i.32xlarge 128 1 024 EBS uniquement 50 40
    r6i.metal 128 1 024 EBS uniquement 50 40
    r6id.large 2 16 1 disque SSD NVMe de 118 Jusqu'à 12,5 Jusqu'à 10
    r6id.xlarge 4 32 1 disque SSD NVMe de 237 Jusqu'à 12,5 Jusqu'à 10
    r6id.2xlarge 8 64 1 disque SSD NVMe de 474 Jusqu'à 12,5 Jusqu'à 10
    r6id.4xlarge 16 128 1 disque SSD NVMe de 950 Jusqu'à 12,5 Jusqu'à 10
    r6id.8xlarge 32 256 1 disque SSD NVMe de 1 900 12,5 10
    r6id.12xlarge 48 384 2 disques SSD NVMe de 1 425 18,75 15
    r6id.16xlarge 64 512 2 disques SSD NVMe de 1 900 25 20
    r6id.24xlarge 96 768 4 disques SSD NVMe de 1 425 37,5 30
    r6id.32xlarge 128 1 024 4 disques SSD NVMe de 1 900 50 40
    r6id.metal 128 1 024 4 disques SSD NVMe de 1 900 50 40

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Charges de travail gourmandes en mémoire (comme les bases de données SAP, SQL et NoSQL), caches en mémoire web distribuées à grande échelle (comme Memcached et Redis), bases de données en mémoire (comme SAP HANA) et analytique du big data en temps réel (comme les clusters Hadoop et Spark).

  • R6in
  • Les instances Amazon EC2 R6in et R6idn sont idéales pour les charges de travail gourmandes en mémoire qui peuvent tirer parti d'une bande passante du réseau élevée, telles que les bases de données SAP, SQL et NoSQL, et les bases de données en mémoire, comme SAP HANA. Les instances R6in et R6idn offrent jusqu'à 200 Gbit/s de bande passante réseau et jusqu'à 80 Gbit/s de bande passante du réseau Amazon Elastic Block Store (EBS).

    Spécifications :

    • Processeurs Intel Xeon Scalable de 3e génération jusqu'à 3,5 GHz (Ice Lake 8375C)
    • Bande passante mémoire par vCPU jusqu'à 20 % supérieure à celle des instances R5n et R5dn
    • Vitesse réseau allant jusqu'à 200 Gbit/s, soit jusqu'à deux fois supérieure à celle des instances R5n et R5dn
    • Jusqu'à 100 Gbit/s de bande passante EBS, soit jusqu'à 1,6 fois supérieure à celle des instances R5b
    • Prend en charge Elastic Fabric Adapter (EFA) sur les tailles 32xlarge et metal
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge des nouvelles instructions Intel Advanced Vector Extensions (AVX 512) pour un traitement plus rapide des algorithmes cryptographiques
    • Avec les instances R6idn, jusqu'à 7,6 To sur des disques SSD locaux NVMe sont physiquement connectés au serveur hôte, et vous disposez d'un stockage par bloc couplé à la durée de vie de l'instance R6idn
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille de l'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s) Bande passante EBS (Gbit/s)
    r6in.large 2 16 EBS uniquement Jusqu'à 25 Jusqu'à 25
    r6in.xlarge 4 32 EBS uniquement Jusqu'à 30 Jusqu'à 25
    r6in.2xlarge 8 64 EBS uniquement Jusqu'à 40 Jusqu'à 25
    r6in.4xlarge 16 128 EBS uniquement Jusqu'à 50 Jusqu'à 25
    r6in.8xlarge 32 256 EBS uniquement 50 25
    r6in.12xlarge 48 384 EBS uniquement 75 37,5
    r6in.16xlarge 64 512 EBS uniquement 100 50
    r6in.24xlarge 96 768 EBS uniquement 150 75
    r6in.32xlarge 128 1 024 EBS uniquement 200**** 100
    r6in.metal 128 1 024 EBS uniquement 200**** 100
    r6idn.large 2 16 1 disque SSD NVMe de 118 Jusqu'à 25 Jusqu'à 25
    r6idn.xlarge 4 32 1 disque SSD NVMe de 237 Jusqu'à 30 Jusqu'à 25
    r6idn.2xlarge 8 64 1 disque SSD NVMe de 474 Jusqu'à 40 Jusqu'à 25
    r6idn.4xlarge 16 128 1 disque SSD NVMe de 950 Jusqu'à 50 Jusqu'à 25
    r6idn.8xlarge 32 256 1 disque SSD NVMe de 1 900 50 25
    r6idn.12xlarge 48 384 2 disques SSD NVMe de 1 425 75 37,5
    r6idn.16xlarge 64 512 2 disques SSD NVMe de 1 900 100 50
    r6idn.24xlarge 96 768 4 disques SSD NVMe de 1 425 150 75
    r6idn.32xlarge 128 1 024 4 disques SSD NVMe de 1 900 200**** 100
    r6idn.metal 128 1 024 4 disques SSD NVMe de 1 900 200**** 100


    ****Pour les tailles 32xlarge et metal, au moins deux interfaces réseau Elastic, chacune étant attachée à une carte réseau différente, sont nécessaires sur l'instance pour atteindre un débit de 200 Gbit/s. Chaque interface réseau attachée à une carte réseau peut atteindre un maximum de 170 Gbit/s. Pour plus d'informations, voir Cartes réseau.

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Les charges de travail à forte intensité de mémoire qui peuvent tirer parti d'un débit réseau élevé, comme les bases de données SAP, SQL et NoSQL, et les bases de données en mémoire, comme SAP HANA.

  • R6a
  • Les instances R6a Amazon EC2 sont alimentées par des processus AMD EPYC de 3e génération et sont idéales pour les charges de travail lourdes en matière de mémoire.

    Fonctions :

    • Processeurs AMD EPYC de 3e génération jusqu'à 3,6 GHz (AMD EPYC 7R13)
    • Rapport prix/performance de calcul jusqu'à 35 % supérieur par rapport aux instances R5a
    • Jusqu'à 50 Go/s de vitesse de réseau
    • Jusqu'à 40 Gbit/s de bande passante vers Amazon Elastic Block Store
    • Taille d'instance jusqu'à 192 vCPU et 1,536 GiB de mémoire
    • Instances certifiées SAP
    • Prend en charge Elastic Fabric Adapter sur les tailles 48xlarge et métal
    • Basée sur le AWS Nitro System, une combinaison de matériel dédié et d'un hyperviseur léger
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie AMD Transparent Single Key Memory Encryption (TSME)
    • Prise en charge des nouvelles instructions AMD Advanced Vector Extensions (AVX-2) pour une exécution plus rapide des algorithmes cryptographiques
    Taille de l'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    r6a.large 2 16 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    r6a.xlarge 4 32 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    r6a.2xlarge 8 64 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    r6a.4xlarge 16 128 EBS uniquement Jusqu'à 12,5 Jusqu'à 10
    r6a.8xlarge 32 256 EBS uniquement 12,5 10
    r6a.12xlarge 48 384 EBS uniquement 18,75 15
    r6a.16xlarge 64 512 EBS uniquement 25 20
    r6a.24xlarge 96 768 EBS uniquement 37,5 30
    r6a.32xlarge 128 1 024 EBS uniquement 50 40
    r6a.48xlarge 192 1 536 EBS uniquement 50 40
    r6a.metal 192 1 536 EBS uniquement 50 40

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Charges de travail à forte intensité de mémoire, telles que les bases de données SAP, SQL et NoSQL, les caches en mémoire distribués à l'échelle du web, comme Memcached et Redis, les bases de données en mémoire et l'analytique en temps réel des big data, comme les clusters Hadoop et Spark, ainsi que d'autres applications d'entreprise

  • R5
  • Les instances R5 Amazon EC2 fournissent 5 % de mémoire supplémentaire par vCPU par rapport aux instances R4, et l'instance la plus grande offre 768 GiB de mémoire. De plus, les instances R5 offrent un rapport qualité/prix amélioré de 10 % par Gio et environ 20 % d'augmentation des performances CPU par rapport aux instances R4.

    Fonctions :

    • Processeurs Intel Xeon® Platinum series 8000 jusqu'à 3,1 GHz (Skylake 8175M ou Cascade Lake 8259CL) avec le nouveau jeu d'instructions Intel Advanced Vector Extension (AVX-512)
    • Jusqu'à 768 Gio de mémoire par instance
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Avec les instances R5d, les disques SSD NVMe locaux sont physiquement joints au serveur hôte et fournissent un stockage de niveau bloc couplé au cycle de vie de l'instance R5.
    • Nouvelles tailles 8xlarge et 16xlarge désormais disponibles.
    Instance vCPU Mémoire (Gio) Stockage d'instance (Go) Performances réseaux (Gbit/s)*** Bande passante EBS (Mbit/s)
    r5.large 2 16 EBS uniquement jusqu'à 10 Jusqu'à 4 750
    r5.xlarge 4 32 EBS uniquement jusqu'à 10 Jusqu'à 4 750
    r5.2xlarge 8 64 EBS uniquement jusqu'à 10 Jusqu'à 4 750
    r5.4xlarge 16 128 EBS uniquement jusqu'à 10 4 750
    r5.8xlarge 32 256 EBS uniquement 10 6 800
    r5.12xlarge 48 384 EBS uniquement 10 9 500
    r5.16xlarge 64 512 EBS uniquement 20 13 600
    r5.24xlarge 96 768 EBS uniquement 25 19 000
    r5.metal 96* 768 EBS uniquement 25 19 000
    r5d.large 2 16 1 disque SSD NVMe de 75 jusqu'à 10 Jusqu'à 4 750
    r5d.xlarge 4 32 1 disque SSD NVMe de 150 jusqu'à 10 Jusqu'à 4 750
    r5d.2xlarge 8 64 1 SSD NVMe x 300 jusqu'à 10 Jusqu'à 4 750
    r5d.4xlarge 16 128 2 disques SSD NVMe de 300 jusqu'à 10 4 750
    r5d.8xlarge 32 256 2 SSD NVMe x 600 10 6 800
    r5d.12xlarge 48 384 2 disques SSD NVMe de 900 10 9 500
    r5d.16xlarge 64 512 4 SSD NVMe x 600 20 13 600
    r5d.24xlarge 96 768 4 disques SSD NVMe de 900 25 19 000
    r5d.metal 96* 768 4 disques SSD NVMe de 900 25 19 000

    * r5.metal et r5d.metal fournissent 96 processeurs logiques sur 48 cœurs physiques ; ils fonctionnent sur des serveurs uniques avec deux sockets Intel physiques

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Les instances R5 sont tout indiquées pour les applications exigeantes en mémoire comme les bases de données hautes performances, les caches Web distribués en mémoire, les bases de données en mémoire de taille moyenne, les analyses Big Data en temps réel et d'autres applications entreprise.

  • R5n
  • Les instances R5 Amazon EC2 sont idéales pour les charges de travail limitées par la mémoire, notamment les bases de données hautes performances, les caches en mémoire à l'échelle web distribués, les bases de données en mémoire de taille moyenne, l'analytique big data en temps réel et d'autres applications métier. Les variantes d'instances à bande passante plus élevée, R5n et R5dn, sont idéales pour les applications pouvant tirer parti de débits réseau et de débits de transfert de paquets améliorés.

    Fonctions :

    • Processeurs Intel Xeon Scalable de 2e génération (Cascade Lake 8259CL) avec une fréquence turbo soutenue de 3,1 GHz pour l'ensemble des cœurs et une fréquence turbo maximale de 3,5 GHz pour un seul cœur
    • Prise en charge des nouvelles instructions Intel Vector Neural Network (AVX-512 VNNI) qui permettront d'accélérer les opérations de machine learning typiques, telles que la convolution, et d'améliorer automatiquement les performances d'inférence sur un large éventail de charges de travail de deep learning
    • Bande passante maximale de 25 Gbit/s sur des instances de petite taille
    • 100 Gbit/s de bande passante réseau sur la plus grande taille d'instance
    • Nécessite des AMI HVM comprenant des pilotes pour ENA et NVMe
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Stockage d'instance proposé via EBS ou des disques SSD NVMe physiquement connectés au serveur hôte
    • Avec les instances R5dn, les disques SSD NVMe locaux sont connectés physiquement au serveur hôte et fournissent un stockage de niveau bloc couplé au cycle de vie de l'instance R5.
    Taille d'instance
    vCPU Mémoire (Gio) Stockage d'instance (Go) Performances réseaux (Gbit/s)*** Bande passante EBS (Mbit/s)
    r5n.large 2 16 EBS uniquement Jusqu'à 25 Jusqu'à 4 750
    r5n.xlarge 4 32 EBS uniquement Jusqu'à 25 Jusqu'à 4 750
    r5n.2xlarge 8 64 EBS uniquement Jusqu'à 25 Jusqu'à 4 750
    r5n.4xlarge 16 128 EBS uniquement Jusqu'à 25 4 750
    r5n.8xlarge 32 256 EBS uniquement 25 6 800
    r5n.12xlarge 48 384 EBS uniquement 50 9 500
    r5n.16xlarge 64 512 EBS uniquement 75 13 600
    r5n.24xlarge 96 768 EBS uniquement 100 19 000
    r5n.metal 96* 768 EBS uniquement 100 19 000
    r5dn.large 2 16 1 disque SSD NVMe de 75 Jusqu'à 25 Jusqu'à 4 750
    r5dn.xlarge 4 32 1 disque SSD NVMe de 150 Jusqu'à 25 Jusqu'à 4 750
    r5dn.2xlarge 8 64 1 SSD NVMe x 300 Jusqu'à 25 Jusqu'à 4 750
    r5dn.4xlarge 16 128 2 disques SSD NVMe de 300 Jusqu'à 25 4 750
    r5dn.8xlarge 32 256 2 SSD NVMe x 600 25 6 800
    r5dn.12xlarge 48 384 2 disques SSD NVMe de 900 50 9 500
    r5dn.16xlarge 64 512 4 SSD NVMe x 600 75 13 600
    r5dn.24xlarge 96 768 4 disques SSD NVMe de 900 100 19 000
    r5dn.metal 96* 768 4 disques SSD NVMe de 900 100 19 000

    *Les instances r5n.metal et r5dn.metal fournissent 96 processeurs logiques sur 48 cœurs physiques.

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Bases de données hautes performances, caches en mémoire à l'échelle Web distribués, bases de données en mémoire de taille moyenne, analyses Big Data en temps réel et autres applications d'entreprise

  • R5b
  • Les instances Amazon EC2 R5b sont des variantes optimisées pour EBS des instances R5 optimisées pour la mémoire. Les instances R5b triplent les performances d'EBS par rapport à des instances R5 de même taille. Les instances R5b offrent une bande passante pouvant atteindre 60 Gbit/s et des performances EBS de 260 000 IOPS, le stockage par bloc le plus rapide sur EC2.

    Fonctions :

    • Processeurs personnalisés Intel Xeon Scalable de 2e génération (Cascade Lake 8259CL) avec une fréquence turbo soutenue de 3,1 GHz pour l'ensemble des cœurs et une fréquence turbo maximale de 3,5 GHz pour un seul cœur
    • Jusqu'à 96 CPU, jusqu'à 768 Gio de mémoire
    • Jusqu'à 25 Gbit/s de bande passante réseau
    • Jusqu'à 60 Gbit/s de bande passante EBS
    Taille d'instance
    vCPU Mémoire (Gio) Stockage d'instance (Go) Performances réseaux (Gbit/s)*** Bande passante EBS (Mbit/s)

    r5b.large

    2

    16

    EBS uniquement

    jusqu'à 10

    Jusqu'à 10 000

    r5b.xlarge

    4

    32

    EBS uniquement

    jusqu'à 10

    Jusqu'à 10 000

    r5b.2xlarge

    8

    64

    EBS uniquement

    jusqu'à 10

    Jusqu'à 10 000

    r5b.4xlarge

    16

    128

    EBS uniquement

    jusqu'à 10

    10 000

    r5b.8xlarge

    32

    256

    EBS uniquement

    10

    20 000

    r5b.12xlarge

    48

    384

    EBS uniquement

    10

    30 000

    r5b.16xlarge

    64

    512

    EBS uniquement

    20

    40 000

    r5b.24xlarge

    96

    768

    EBS uniquement

    25

    60 000

    r5b.metal

    96*

    768

    EBS uniquement

    25

    60 000

    Cas d'utilisation

    Bases de données hautes performances, caches en mémoire distribués à l'échelle du Web, bases de données en mémoire de taille moyenne, analyses de Big Data en temps réel.

  • R5a
  • Les instances R5a Amazon EC2 constituent la toute dernière génération d'instances de mémoire optimisée. Elles sont idéales pour les charges de travail dépendantes des capacités de mémoire, et elles sont optimisées par des processeurs AMD EPYC 7000 series. Les instances R5a permettent de réaliser jusqu'à 10 % d'économie par Gio par rapport aux autres instances comparables.

    Fonctions :

    • Processeurs AMD EPYC 7000 series (AMD EPYC 7571) avec vitesse d'horloge turbo de 2,5 GHz pour tous les cœurs
    • Bande passante réseau jusqu'à 20 Gbit/s grâce aux réseaux améliorés
    • Jusqu'à 768 Gio de mémoire par instance
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Stockage d'instance proposé via EBS ou des disques SSD NVMe physiquement connectés au serveur hôte
    • Avec les instances R5ad, les disques SSD NVMe locaux sont physiquement joints au serveur hôte et fournissent un stockage de niveau bloc couplé au cycle de vie de l'instance R5a
    Taille d'instance
    vCPU Mémoire (Gio) Stockage d'instance (Go) Performances réseaux (Gbit/s)*** Bande passante EBS (Mbit/s)
    r5a.large 2 16
    EBS uniquement Jusqu'à 10 
    Jusqu'à 2 880
    r5a.xlarge 4 32 EBS uniquement Jusqu'à 10  Jusqu'à 2 880
    r5a.2xlarge 8 64 EBS uniquement Jusqu'à 10  Jusqu'à 2 880
    r5a.4xlarge 16 128 EBS uniquement Jusqu'à 10  2 880
    r5a.8xlarge 32 256 EBS uniquement Jusqu'à 10 4 750
    r5a.12xlarge 48 384 EBS uniquement 10 6 780
    r5a.16xlarge 64 512 EBS uniquement 12 9 500
    r5a.24xlarge 96 768 EBS uniquement 20 13 570
    r5ad.large 2 16 1 disque SSD NVMe de 75 Jusqu'à 10
    Jusqu'à 2 880
    r5ad.xlarge 4 32 1 disque SSD NVMe de 150 Jusqu'à 10
    Jusqu'à 2 880
    r5ad.2xlarge 8 64 1 SSD NVMe x 300 Jusqu'à 10
    Jusqu'à 2 880
    r5ad.4xlarge 16 128 2 disques SSD NVMe de 300 Jusqu'à 10
    2 880
    r5ad.8xlarge 32 256 2 SSD NVMe x 600 Jusqu'à 10 4 750
    r5ad.12xlarge 48 384 2 disques SSD NVMe de 900 10 6 780
    r5ad.16xlarge 64 512 4 SSD NVMe x 600 12 9 500
    r5ad.24xlarge 96 768 4 disques SSD NVMe de 900 20 13 570

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Les instances R5a sont tout indiquées pour les applications exigeantes en mémoire comme les bases de données hautes performances, les caches Web distribués en mémoire, les bases de données en mémoire de taille moyenne, les analyses Big Data en temps réel et d'autres applications entreprise.

  • R4
  • Les instances R4 Amazon EC2 sont optimisées pour les applications gourmandes en mémoire et offrent un meilleur coût par GiB de RAM que les instances R3.

    Fonctions :

    • Processeurs Intel Xeon Scalable haute fréquence (Broadwell E5-2686 v4)
    • Mémoire DDR4
    • Prise en charge de la mise en réseau améliorée
    Instance vCPU Mém. (GiB) Stockage Performances réseaux (Gbit/s)***
    r4.large 2 15,25 EBS uniquement Jusqu'à 10
    r4.xlarge 4 30,5 EBS uniquement Jusqu'à 10
    r4.2xlarge 8 61 EBS uniquement Jusqu'à 10
    r4.4xlarge 16 122 EBS uniquement Jusqu'à 10
    r4.8xlarge 32 244 EBS uniquement 10
    r4.16xlarge 64 488 EBS uniquement 25

    Toutes les instances ont les spécifications suivantes :

    Cas d'utilisation

    Bases de données hautes performances, exploitation et analyse des données, bases de données en mémoire, caches en mémoire distribués à l'échelle web, applications procédant au traitement en temps réel de données Big Data non structurées, clusters Hadoop/Spark et autres applications d'entreprise.

  • X2gd
  • Les instances Amazon EC2 X2gd sont optimisées par des processeurs AWS Graviton2 basés sur Arm et fournissent le coût le plus bas par Go de mémoire dans Amazon EC2. Elles fournissent un rapport prix/performances jusqu'à 55 % supérieur à celui des instances X1 de génération actuelle.

    Fonctions:

    • Processeur AWS Graviton2 créé sur mesure et doté de cœurs Arm Neoverse de 64 bits
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Prise en charge de la mise en réseau améliorée avec une bande passante réseau qui atteint 25 Gbit/s
    • Le stockage SSD local basé sur NVMe permet un accès à grande vitesse et à faible latence aux données en mémoire
    • Optimisé par défaut pour EBS

    Taille d'instance

    vCPU

    Mémoire (Gio)

    Stockage d'instance (Go)

    Bande passante réseau (Gbit/s)***

    Bande passante EBS (Gbit/s)

    x2gd.medium

    1

    16

    1 disque SSD NVMe de 59

    Jusqu'à 10

    Jusqu'à 4,75

    x2gd.large

    2

    32

    1 disque SSD NVMe de 118

    Jusqu'à 10

    Jusqu'à 4,75

    x2gd.xlarge

    4

    64

    1 disque SSD NVMe de 237

    Jusqu'à 10

    Jusqu'à 4,75

    x2gd.2xlarge

    8

    128

    1 disque SSD NVMe de 475

    Jusqu'à 10

    Jusqu'à 4,75

    x2gd.4xlarge

    16

    256

    1 disque SSD NVMe de 950

    Jusqu'à 10

    4,75

    x2gd.8xlarge

    32

    512

    1 disque SSD NVMe de 1 900

    12

    9,5

    x2gd.12xlarge

    48

    768

    2 disques SSD NVMe de 1 425

    20

    14,25

    x2gd.16xlarge

    64

    1 024

    2 disques SSD NVMe de 1 900

    25

    19

    x2gd.metal

    64

    1 024

    2 disques SSD NVMe de 1 900

    25

    19

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Les charges de travail gourmandes en mémoire telles que les bases de données open source (MySQL, MariaDB et PostgreSQL), les caches en mémoire (Redis, KeyDB, Memcached), les charges de travail Electronic Design Automation (EDA), les analyses en temps réel et les serveurs de mise en cache en temps réel.

  • X2idn
  • Les instances X2idn Amazon EC2 sont alimentées par des processeurs Intel Xeon Scalable de troisième génération dotés d'une fréquence d'horloge turbo allant jusqu'à 3,5 GHz et constituent un bon choix pour un large éventail d'applications gourmandes en mémoire.

    Fonctions :

    • Processeurs Intel Xeon Scalable de 3e génération jusqu'à 3,5 GHz (Ice Lake 8375C)
    • Un rapport de 16 pour 1 entre la mémoire et le vCPU sur toutes les tailles
    • Un rapport qualité prix jusqu'à 50 % supérieur aux instances X1
    • Jusqu'à 100 Gbit/s de vitesse de réseau
    • Jusqu'à 80 Gbit/s de bande passante vers Amazon Elastic Block Store
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge des nouvelles instructions Intel Advanced Vector Extensions (AVX 512) pour une exécution plus rapide des algorithmes cryptographiques

    Taille d'instance

    vCPU

    Mémoire (Gio)

    Stockage d'instance (Go)

    Bande passante réseau (Gbit/s)

    Bande passante EBS (Gbit/s)

    x2idn.16xlarge

    64

    1 024

    1 SSD NVMe x 1 900

    50

    40

    x2idn.24xlarge

    96 1 536

    2 SSD NVMe x 1 425

    75

    60

    x2idn.32xlarge

    128

    2 048

    2 SSD NVMe x 1 900

    100

    80

    x2idn.metal

    128

    2 048

    2 SSD NVMe x 1 900

    100

    80

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Base de données en mémoire (par exemple SAP HANA, Redis), base de données traditionnelles (par exemple, Oracle DB, Microsoft SQL Server) et analyses en mémoire (par exemple, SAS, Aerospike).

  • X2iedn
  • Les instances X2iedn Amazon EC2 sont alimentées par des processeurs Intel Xeon Scalable de troisième génération (nom de code Ice lake) dotés d'une fréquence d'horloge turbo allant jusqu'à 3,5 GHz et constituent un bon choix pour un large éventail d'applications à grande échelle gourmandes en mémoire.

    Fonctions :

    • Processeurs Intel Xeon Scalable de 3e génération jusqu'à 3,5 GHz (Ice Lake 8375C)
    • Rapport 32/1 entre la mémoire et la vCPU sur toutes les tailles
    • Un rapport qualité prix jusqu'à 50 % supérieur aux instances X1
    • Jusqu'à 100 Gbit/s de vitesse de réseau
    • Jusqu'à 80 Gbit/s de bande passante vers Amazon Elastic Block Store
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Prise en charge des nouvelles instructions Intel Advanced Vector Extensions (AVX 512) pour une exécution plus rapide des algorithmes cryptographiques

    Taille d'instance

    vCPU

    Mémoire (Gio)

    Stockage d'instance (Go)

    Bande passante réseau (Gbit/s)***

    Bande passante EBS (Gbit/s)

    x2iedn.xlarge

    4

    128

    1 SSD NVMe x 118

    Jusqu'à 25

    Jusqu'à 20

    x2iedn.2xlarge

    8

    256

    1 SSD NVMe x 237

    Jusqu'à 25

    Jusqu'à 20

    x2iedn.4xlarge

    16

    512

    1 disque SSD NVMe de 475

    Jusqu'à 25

    Jusqu'à 20

    x2iedn.8xlarge

    32

    1 024

    1 disque SSD NVMe de 950

    25

    20

    x2iedn.16xlarge

    64

    2 048

    1 SSD NVMe x 1 900

    50

    40

    x2iedn.24xlarge

    96

    3 072

    2 SSD NVMe x 1 425

    75

    60

    x2iedn.32xlarge

    128

    4 096

    2 SSD NVMe x 1 900

    100

    80

    x2iedn.metal

    128

    4 096

    2 SSD NVMe x 1 900

    100

    80

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Base de données en mémoire à grande échelle (par exemple SAP HANA, Redis), base de données traditionnelles (par exemple, Oracle DB, Microsoft SQL Server) et analyses en mémoire (par exemple, SAS, Aerospike).

  • X2iezn
  • Les instances X2iezn Amazon EC2 sont alimentées par les processeurs Intel Xeon Scalable les plus rapides (nom de code Cascade Lake) dans le cloud, avec une fréquence d'horloge turbo sur tous les cœurs pouvant atteindre 4,5 GHz et sont un bon choix pour des charges de travail Electronic Design Automation (EDA) gourmandes en mémoire.

    Fonctions :

    • Processeurs Intel Xeon Scalable de 2e génération jusqu'à 4,5 GHz (Cascade Lake 8252C)
    • Rapport 32/1 entre la mémoire et la vCPU sur toutes les tailles
    • Un rapport qualité prix jusqu'à 55 % supérieur aux instances X1e
    • Jusqu'à 100 Gbit/s de vitesse de réseau
    • Jusqu'à 19 Gbit/s de bande passante vers Amazon Elastic Block Store
    • Prend en charge Elastic Fabric Adapter sur les tailles 12xlarge et metal
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    x2iezn.2xlarge 8 256 EBS uniquement Jusqu'à 25 3,17
    x2iezn.4xlarge 16 512 EBS uniquement Jusqu'à 25 4,75
    x2iezn.6xlarge 24 768 EBS uniquement 50 9,5
    x2iezn.8xlarge 32 1 024 EBS uniquement 75 12
    x2iezn.12xlarge 48 1 536 EBS uniquement 100 19
    x2iezn.metal 48 1 536 EBS uniquement 100 19

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Les charges de travail Electronic Design Automation (EDA), telles que la vérification physique, l'analyse de synchronisation statique, le contrôle de la puissance et la simulation au niveau des portes de circuits complets.

  • X1
  • Les instances X1 Amazon EC2 sont optimisée pour les bases de données professionnelles et les applications en mémoire. 

    Fonctions :

    • Processeurs Intel Xeon E7-8880 v3 (Haswell) à haute fréquence
    • L'un des tarifs les plus bas par GiB de RAM
    • Jusqu'à 1 952 Gio de mémoire d'instance basée sur la DRAM
    • Stockage d'instances sur SSD pour un stockage au niveau bloc temporaire et optimisé pour EBS par défaut, sans frais supplémentaires
    • Capacité de contrôle de la configuration des états C et P du processeur
    Instance vCPU Mém. (GiB) Stockage sur SSD (Go) Bande passante EBS dédiée (Mbit/s) Performances réseau (Gbit/s)
    x1.16xlarge 64 976 1 disque de 1 920 7 000 10
    x1.32xlarge 128 1 952 2 disques durs de 1 920 14 000 25

    Toutes les instances ont les spécifications suivantes :

    Cas d'utilisation

    Bases de données en mémoire (SAP HANA, par exemple), moteurs de traitement Big Data (Apache Spark ou Presto, par exemple), calcul hautes performances (HPC). Certification SAP pour l'exécution de Business Warehouse sous HANA (BW), de solutions Datamart sous HANA, de Business Suite sous HANA (SoH) et de Business Suite S/4HANA.

  • X1e
  • Les instances X1e Amazon EC2 sont optimisées pour les bases de données à grande échelle, les bases de données en mémoire et d'autres applications métier gourmandes en mémoire.

    Fonctions :

    • Processeurs Intel Xeon E7-8880 v3 (Haswell) à haute fréquence
    • L'un des tarifs les plus bas par GiB de RAM
    • Jusqu'à 3 904 Gio de mémoire d'instance basée sur la DRAM
    • Stockage d'instances sur SSD pour un stockage au niveau bloc temporaire et optimisé pour EBS par défaut, sans frais supplémentaires
    • Possibilité de contrôler la configuration des états C et P sur des instances x1e.32xlarge, x1e.16xlarge et x1e.8xlarge
    Instance vCPU Mém. (GiB) Stockage sur SSD (Go) Bande passante EBS dédiée (Mbit/s) Performances réseaux (Gbit/s)***
    x1e.xlarge 4 122 1 disque de 120 500 Jusqu'à 10
    x1e.2xlarge 8 244 1 disque de 240 1 000 Jusqu'à 10
    x1e.4xlarge 16 488 1 disque de 480 1 750 Jusqu'à 10
    x1e.8xlarge 32 976 1 disque de 960 3 500 Jusqu'à 10
    x1e.16xlarge 64 1 952 1 disque de 1 920 7 000 10
    x1e.32xlarge 128 3 904 2 disques durs de 1 920 14 000 25

    Toutes les instances ont les spécifications suivantes :

    x1e.16xlarge et x1e.32xlarge possèdent également

    Cas d'utilisation

    Bases de données hautes performances, bases de données en mémoire (comme SAP HANA) et applications gourmandes en mémoire. L'instance x1e.32xlarge est certifiée par SAP pour l'exécution de Business Suite S/4HANA nouvelle génération, Business Suite sous HANA (SoH), Business Warehouse sous HANA (BW) et les solutions Data Mart sous HANA dans le cloud AWS.

  • Mémoire élevée
  • Les instances de mémoire élevée Amazon EC2 sont conçues pour exécuter d'importantes bases de données en mémoire, notamment des déploiements de production de SAP HANA, dans le cloud.

    Fonctions :

    • Maintenant disponible en mémoire matériel nu et virtualisée
    • De 3 à 24 Tio de mémoire d'instance
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Des instances virtualisées sont disponibles avec des options d'achat On-Demand et Savings Plan d'un et de trois ans
    Nom Processeurs logiques* Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)  Bande passante EBS (Gbit/s)
    u-3tb1.56xlarge 224 3,072 EBS uniquement 50 19
    u-6tb1.56xlarge 224 6144 EBS uniquement 100 38
    u-6tb1.112xlarge 448 6144 EBS uniquement 100 38
    u-6tb1.metal** 448 6144 EBS uniquement 100 38
    u-9tb1.112xlarge 448 9216 EBS uniquement 100 38
    u-9tb1.metal** 448 9216 EBS uniquement 100 38
    u-12tb1.112xlarge 448 12 288 EBS uniquement 100 38
    u-12tb1.metal** 448 12 288 EBS uniquement 100 38
    u-18tb1.112xlarge 448 18 432 EBS uniquement 100 38
    u-18tb1.metal 448 18 432 EBS uniquement 100 38
    u-24tb1.112xlarge 448 24 576 EBS uniquement 100 38
    u-24tb1.metal 448 24 576 EBS uniquement 100 38

     

    **Il est possible que certaines instances, lancées avant le 12 mars 2020, offrent des performances moindres. Contactez votre équipe de compte pour mettre votre instance à niveau (sans frais supplémentaires) pour profiter de meilleures performances.

    * Chaque processeur logique est un hyperthread sur 224 cœurs

    • Les instances de 6, 9 et 12 To sont équipées de processeurs Intel Xeon Scalable de 2,1 GHz (avec Turbo Boost à 3,80 GHz) (Skylake 8176M) ou de processeurs Intel Xeon Scalable de 2e génération de 2,7 GHz (avec Turbo Boost à 4,0 GHz) (Cascade Lake 8280L)
    • Les instances de 18 et 24 To sont optimisées par des processeurs Intel Xeon Scalable de 2e génération cadencés à 2,7 GHz (avec Turbo Boost à 4.0 GHz) (Cascade Lake 8280L)

    Toutes les instances ont les spécifications suivantes :

    Cas d'utilisation

    Idéal pour l'exécution de grandes bases de données d'entreprise, y compris les installations de production de la base de données en mémoire de SAP HANA dans le cloud. Elles sont certifiées par SAP pour l'exécution de Business Suite sous HANA, de Business Suite S/4HANA nouvelle génération, de solutions Data Mart sous HANA, de Business Warehouse sous HANA et de SAP BW/4HANA dans des environnements de production.

  • z1d
  • Les instance Amazon EC2 z1d offrent une forte capacité de calcul et une forte empreinte mémoire. Les instances z1d haute fréquence présentent une fréquence de tous les cœurs maintenue à 4,0 GHz au maximum, ce qui en fait les instances cloud les plus rapides.

    Fonctions :

    • Processeur personnalisé Intel® Xeon® Scalable (Skylake 8151) avec une fréquence soutenue de tous les cœurs allant jusqu'à 4,0 GHz et le nouveau jeu d'instructions Intel Advanced Vector Extension (AVX-512)
    • Jusqu'à 1,8 To de stockage d'instance
    • Mémoire élevée avec un maximum de 384 Gio de RAM
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Avec les instances z1d, les disques SSD NVMe locaux sont physiquement joints au serveur hôte et fournissent un stockage de niveau bloc couplé au cycle de vie de l'instance z1d.
    Instance vCPU Mém. (GiB) Performances réseaux (Gbit/s)*** Stockage sur SSD (Go)
    z1d.large 2 16 Jusqu'à 10 1 disque SSD NVMe de 75
    z1d.xlarge 4 32 Jusqu'à 10 1 disque SSD NVMe de 150
    z1d.2xlarge 8 64 Jusqu'à 10 1 x 300 NVMe SSD
    z1d.3xlarge 12 96 Jusqu'à 10 1 x 450 NVMe SSD
    z1d.6xlarge 24 192 10 1 disque SSD NVMe de 900
    z1d.12xlarge 48 384 25 2 disques SSD NVMe de 900
    z1d.metal 48* 384 25 2 disques SSD NVMe de 900

    * Les instances z1d.metal fournissent 48 processeurs logiques sur 24 cœurs physiques

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Idéal pour les charges de travail Electronic Design Automation (EDA) et certaines charges de travail de bases de données relationnelles avec des coûts de licence élevés par cœur.

Chaque vCPU sur les instances Amazon EC2 basées sur Graviton est un cœur d'un processeur AWS Graviton.

Chaque vCPU sur les instances Amazon EC2 non basées sur Graviton est un thread de processeur x86, sauf pour les instances R7a.

† AVX, AVX2 et la mise en réseau améliorée ne sont disponibles que sur les instances lancées avec des AMI HVM.

*** Les instances avec la mention Bande passante réseau « jusqu'à » ont une bande passante de base, et peuvent utiliser un mécanisme de crédits I/O réseau pour opérer une extension au-delà de leur bande passante réseau de base, dans la mesure du possible. Pour plus d'informations, consultez bande passante du réseau d'instance.

Calcul accéléré

Les instances de calcul accéléré utilisent des accélérateurs matériels aussi appelés coprocesseurs pour accomplir plus efficacement que les logiciels s'exécutant sur des processeurs, des fonctions comme les calculs des nombres à virgule flottante, le traitement graphique ou la mise en correspondance des modèles de données.

  • P5
  • Les instances Amazon EC2 P5 constituent la dernière génération d'instances basées sur GPU et offrent les performances les plus élevées d'Amazon EC2 pour le deep learning et le calcul haute performance (HPC).

    Fonctions :

    • Processadores AMD EPYC 3ª geração (AMD EPYC 7R13)
    • Jusqu'à 8 GPU Tensor Core NVIDIA H100
    • Mise en réseau d'instances 3,200 Gbit/s avec prise en charge d'Elastic Fabric Adapter (EFA) et NVIDIA GPUDirect RDMA (Remote Direct Memory Access)
    • Communications GPU pair à pair 900 Go/s avec NVSwitch NVIDIA
    • Déployé dans des UltraClusters EC2 comprenant plus de 20 000 GPU NVIDIA H100 Tensor Core, un réseau à l'échelle du pétabit et un stockage évolutif à faible latence avec Amazon FSx for Lustre
    Instance GPU vCPU Instance
    Mémoire (TiB)
    GPU
    Mémoire 
    Bande passante du réseau GPUDirect RDMA Pair à pair GPU Storage d'instance (To) Bande passante EBS (Gbit/s)

    p5.48xlarge

    8

    192

    640 GO HBM3

    EFAv2 à 3 200 Gbit/s

    Oui

    NVSwitch 900 Go/s

    8 x 3.84 (SSD NVMe)

    80

    Spécifications des instances P5 :

    Cas d'utilisation

    Applications génératives d'IA, y compris la réponse aux questions, la génération de code, la génération de vidéos et d'images, la reconnaissance vocale, etc.

    Applications HPC à grande échelle dans les domaines de la découverte pharmaceutique, de l'analyse sismique, des prévisions météorologiques et de la modélisation financière.

  • P4
  • Les instances Amazon EC2 P4 fournissent des performances élevées pour la formation au machine learning et le calcul haute performance dans le cloud.

    • Processeurs Intel Xeon Scalable de 2e génération à 3 GHz (Cascade Lake P-8275CL)
    • Jusqu'à 8 GPU Tensor Core NVIDIA A100
    • Mise en réseau d'instances 400 Gbit/s avec prise en charge d'Elastic Fabric Adapter (EFA) et NVIDIA GPUDirect RDMA (Remote Direct Memory Access)
    • Communications GPU pair à pair 600 Go/s avec NVSwitch NVIDIA
    • Déployé dans des UltraClusters EC2 comprenant plus de 4 000 GPU NVIDIA A100 Tensor Core, un réseau à l'échelle du pétabit et un stockage évolutif à faible latence avec Amazon FSx for Lustre
    Instance GPU vCPU Instance
    Mémoire (Gio)
    GPU
    Mémoire 
    Bande passante du réseau GPUDirect RDMA Pair à pair GPU Stockage d'instance (Go) Bande passante EBS (Gbit/s)
    p4d.24xlarge 8 96 1 152 320 Go HBM2 400 ENA et EFA Oui NVSwitch 600 Go/s 8 disques SSD NVMe de 1 000 19
    p4de.24xlarge
    (En version préliminaire)
    8 96 1 152 640 Go HBM2e 400 ENA et EFA Oui NVSwitch 600 Go/s 8 disques SSD NVMe de 1 000 19

    Les instances P4d ont les spécifications suivantes :

     

    Cas d'utilisation

    Machine learning, calcul hautes performances, mécanique des fluides numérique, finance informatique, analyse sismique, reconnaissance vocale, véhicules autonomes et découverte de médicaments.

  • P3
  • Les instances P3 d'Amazon EC2 offrent des fonctionnalités de calcul haute performance dans le cloud avec jusqu'à 8 GPU NVIDIA® V100 Tensor Core et un débit réseau pouvant atteindre 100 Gb/s pour les applications de machine learning et HPC (calcul haute performance).

    Fonctions:

    • Jusqu'à 8 GPU NVIDIA Tesla V100, associant chacun 5 120 cœurs CUDA et 640 cœurs Tensor
    • Processeur haute fréquence Intel Xeon Scalable (Broadwell E5-2686 v4) pour les instances p3.2xlarge, p3.8xlarge et p3.16xlarge. 
    • Processeur haute fréquence 2,5 GHz (base) Intel Xeon Scalable Processor (Skylake 8175) pour instances p3dn.24xlarge.
    • Prise en charge de NVLink pour la communication de GPU pair à pair
    • Offre jusqu'à 100 Gbit/s de bande passante réseau totale.
    • Support EFA sur les instances p3dn.24xlarge
    Instance GPU vCPU Mém. (GiB) Mémoire GPU (Gio) GPU P2P Stockage (Go) Bande passante EBS dédiée (Gbit/s) Performances réseaux (Gbit/s)***
    p3.2xlarge 1 8 61 16 - EBS uniquement 1,5  Jusqu'à 10
    p3.8xlarge 4 32 244 64 NVLink EBS uniquement 10
    p3.16xlarge 8 64 488 128 NVLink EBS uniquement 14  25 
    p3dn.24xlarge 8 96 768 256 NVLink 2 disques SSD NVMe de 900 19 100 

    Toutes les instances présentent les spécifications suivantes :

     
    Les modèles p3.2xlarge, p3.8xlarge et p3.16xlarge comportent des processeurs Intel Xeon E5-2686 v4 2,3 GHz (base) et 2,7 GHz (turbo).  
     
    L'instance p3dn.24xlarge dispose de processeurs Intel Xeon 8175M cadencés à 2,5 GHz (base) et à 3,1 GHz (turbo maintenu sur tous les cœurs) et prend en charge les instances Intel AVX-512. Les instances p3dn.24xlarge prennent également en charge Elastic Fabric Adapter (EFA), qui permet aux applications de calcul haute performance (HPC) utilisant l'interface MPI (Message Passing Interface) et aux applications de Machine Learning (ML) utilisant la NVIDIA Collective Communications Library (NCCL) de passer à des milliers de GPU.

    Cas d'utilisation

    Apprentissage automatique/deep learning, calcul hautes performances, mécanique des fluides numérique, finance informatique, analyse sismique, reconnaissance vocale, véhicules autonomes, découverte de médicaments.

  • P2
  • Les instances P2 sont destinées aux applications de calcul GPU à usage général.

    Fonctions :

    • Processeurs haute fréquence Intel Xeon Scalable (Broadwell E5-2686 v4)
    • GPU NVIDIA K80 de haute performance, chacun avec 2 496 cœurs de traitement parallèle et 12 Go de mémoire GPU
    • Prise en charge de GPUDirect™ pour les communications de GPU peer-to-peer
    • Mise en réseau améliorée à l'aide d'Elastic Network Adapter (ENA) avec jusqu'à 25 Gb/s de bande passante réseau totale dans un groupe de placement
    • Optimisées pour EBS par défaut, sans frais supplémentaires
    Instance GPU vCPU Mém. (GiB) Mémoire GPU (GiB) Performances réseau (Gbit/s)
    p2.xlarge 1 4 61 12 Élevé
    p2.8xlarge 8 32 488 96 10
    p2.16xlarge 16 64 732 192 25 

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Machine learning, bases de données hautes performances, mécanique des fluides numérique, finance informatique, analyse sismique, modélisation moléculaire, génomique, rendu et autres charges de travail de calcul GPU côté serveur.

  • G6
  • Les instances Amazon EC2 G6 permettent d'accélérer les applications grosses consommatrices de ressources graphiques et l'inférence de machine learning.

    Caractéristiques :

    • Processeurs AMD EPYC de 3e génération (AMD EPYC 7R13)
    • Jusqu'à 8 GPU NVIDIA L4 Tensor Core
    • Bande passante réseau jusqu'à 100 Gbit/s
    • Jusqu'à 7,52 To de stockage NVMe local
    Nom de l'instance vCPU Mémoire (GiB) GPU NVIDIA T4G Tensor Core Mémoire GPU (GiB) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    g6.xlarge 4 16 1 24 Jusqu'à 10 Jusqu'à 5
    g6.2xlarge 8 32 1 24 Jusqu'à 10 Jusqu'à 5
    g6.4xlarge 16 64 1 24 Jusqu'à 25 8
    g6.8xlarge 32 128 1 24 25 16
    g6.16xlarge 64 256 1 24 25 20
    gr6.4xlarge 16
    128
    1
    24
    Jusqu'à 25
    8
    gr6.8xlarge 32 256 1 24 25 16
    g6.12xlarge 48 192 4 96 40 20
    g6.24xlarge 96 384 4 96 50 30
    g6.48xlarge 192 768 8 192 100 60

    Cas d'utilisation

    Déployer des modèles de machine learning pour le traitement du langage naturel, la traduction linguistique, l'analyse de vidéos et d'images, la reconnaissance vocale et la personnalisation, ainsi que pour les charges de travail graphiques, telles que la création et le rendu en temps réel de graphismes de qualité cinématographique et la diffusion de jeux en streaming.

  • G5g
  • Les instances G5g Amazon EC2 sont alimentées par des processeurs AWS Graviton2 et sont dotées de GPU NVIDIA T4G Tensor Core pour fournir le meilleur rapport prix/performances en ce qui concerne Amazon EC2 pour les charges de travail de graphiques comme le streaming de jeux Android. Il s'agit des premières instances basées sur Arm dans un cloud majeur à disposer de l'accélération GPU. Les clients peuvent également utiliser les instances G5g pour une inférence de machine learning rentable.

    Fonctions :

    • Processeur AWS Graviton2 créé sur mesure et doté de cœurs Arm Neoverse de 64 bits
    • Jusqu'à 2 GPU NVIDIA T4G Tensor Core
    • Jusqu'à 25 Gbit/s de réseau de bande passante
    • Optimisé par défaut pour EBS
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'un hyperviseur léger
    Nom de l'instance vCPU Mémoire (GiB) GPU NVIDIA T4G Tensor Core Mémoire GPU (GiB) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    g5g.xlarge 4 8 1 16 Jusqu'à 10 Jusqu'à 3,5
    g5g.2xlarge 8 16 1 16 Jusqu'à 10 Jusqu'à 3,5
    g5g.4xlarge 16 32 1 16 Jusqu'à 10 Jusqu'à 3,5
    g5g.8xlarge 32 64 1 16 12 9
    g5g.16xlarge 64 128 2 32 25 19
    g5g.metal 64 128 2 32 25 19

    Cas d'utilisation

    Streaming de jeux Android, inférence de machine learning, rendu graphique et simulations de véhicules autonomes

  • G5
  • Les instances Amazon EC2 G5 permettent d'accélérer les applications grosses consommatrices de ressources graphiques et l'inférence de machine learning. Elles peuvent être également utilisées pour entraîner des modèles de machine learning simples à modérément complexes.

    Fonctions :

    • Processeurs AMD EPYC de 2e génération (AMD EPYC 7R32)
    • Jusqu'à 8 GPU Tensor Core NVIDIA A10G
    • Bande passante réseau jusqu'à 100 Gbit/s
    • Jusqu'à 7,6 To de stockage NVMe local
    Taille d'instance GPU Mémoire GPU (Gio) vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    g5.xlarge 1 24 4 16 1 disque SSD NVMe de 250 Jusqu'à 10 Jusqu'à 3,5
    g5.2xlarge 1 24 8 32 1 disque SSD NVMe de 450 Jusqu'à 10 Jusqu'à 3,5
    g5.4xlarge 1 24 16 64 1 disque SSD NVMe de 600 Jusqu'à 25 8
    g5.8xlarge 1 24 32 128 1 disque SSD NVMe de 900 25 16
    g5.16xlarge 1 24 64 256 1 SSD NVMe de 1 900 25 16
    g5.12xlarge 4 96 48 192 1 disque SSD NVMe de 3 800 40 16
    g5.24xlarge 4 96 96 384 1 disque SSD NVMe de 3 800 50 19
    g5.48xlarge 8 192 192 768 2 SSD NVMe de 3 800 100 19

    Spécifications des instances G5 :

    Cas d'utilisation

    Applications qui utilisent massivement les ressources graphiques telles que les postes de travail à distance, le rendu vidéo et les jeux en cloud pour produire des graphiques haute fidélité en temps réel. Entraînement et inférence de modèles de deep learning pour les cas d'utilisation de machine learning tels que le traitement du langage naturel, la reconnaissance d’image et les cas d'utilisation des moteurs de recommandation.

  • G4dn
  • Les instances Amazon EC2 G4dn sont conçues pour accélérer l'inférence de machine learning et les charges de travail gourmandes en ressources graphiques.

    Fonctionnalités :

    • Processeurs de 2e génération Intel Xeon Scalable (Cascade Lake P-8259CL)
    • Jusqu'à 8 GPU NVIDIA T4 Tensor Core
    • Jusqu'à 100 Gbit/s de débit réseau
    • Jusqu'à 1,8 To de stockage NVMe
    Instance GPU vCPU Mémoire (Gio) Mémoire GPU (Gio) Stockage d'instance (Go) Performances réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    g4dn.xlarge 1 4 16 16 1 disque SSD NVMe de 125 Jusqu'à 25 Jusqu'à 3,5
    g4dn.2xlarge 1 8
    32 16 1 disque SSD NVMe de 225 Jusqu'à 25 Jusqu'à 3,5
    g4dn.4xlarge 1 16 64 16 1 disque SSD NVMe de 225 Jusqu'à 25 4,75
    g4dn.8xlarge 1 32 128 16 1 disque SSD NVMe de 900 50 9,5
    g4dn.16xlarge 1 64 256 16 1 disque SSD NVMe de 900 50 9,5
    g4dn.12xlarge 4 48 192 64 1 disque SSD NVMe de 900 50 9,5
    g4dn.metal 8 96 384 128 2 disques SSD NVMe de 900 100 19


    Toutes les instances présentent les spécificités suivantes :

    Cas d'utilisation

    L'inférence du machine learning pour les applications comme l'ajout de métadonnées sur une image, la détection d'objets, les systèmes de recommandation, la reconnaissance vocale et la traduction. Les instances G4 fournissent également une plateforme très rentable pour la construction et l'exécution d'applications gourmandes en ressources graphiques, telles que les stations de travail graphiques à distance, le transcodage vidéo, la conception photo réaliste et les jeux vidéo en streaming dans le cloud.  

  • G4ad
  • Les instances G4ad Amazon EC2 offrent le meilleur rapport qualité-prix pour les applications gourmandes en graphiques dans le cloud.

    Fonctions :

    • Processeurs AMD EPYC de 2e génération (AMD EPYC 7R32)
    • GPU AMD Radeon Pro V520
    • Jusqu'à 2,4 To de stockage NVMe local
    Instance GPU vCPU Mémoire (Gio) Mémoire GPU (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    g4ad.xlarge 1 4 16 8 1 disque SSD NVMe de 150 Jusqu'à 10 Jusqu'à 3
    g4ad.2xlarge 1 8 32 8 1 disque SSD NVMe de 300 Jusqu'à 10 Jusqu'à 3
    g4ad.4xlarge 1 16 64 8 1 disque SSD NVMe de 600 Jusqu'à 10 Jusqu'à 3
    g4ad.8xlarge 2 32 128 16 1 disque SSD NVMe de 1 200 15 3
    g4ad.16xlarge 4 64 256 32 1 disque SSD NVMe de 2 400 25 6


    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Applications exigeantes en ressources graphiques, par exemple, stations de travail graphiques, transcodage vidéo, conception photo réaliste et streaming de jeu dans le cloud.

  • G3
  • Les instances G3 Amazon EC2 sont optimisées pour les applications gourmandes en ressources graphiques.

    Fonctions :

    • Processeurs haute fréquence Intel Xeon Scalable (Broadwell E5-2686 v4)
    • GPU NVIDIA Tesla M60, chacun doté de 2 048 cœurs de traitement parallèle et de 8 Gio de mémoire vidéo
    • Active les fonctionnalités de poste de travail virtuel NVIDIA GRID, notamment la prise en charge de 4 écrans d'une résolution maximale de 4 096 x 2 160. Chaque GPU inclus dans votre instance autorise un « utilisateur connecté simultané »
    • Active les capacités d'application virtuelle NVIDIA GRID pour les logiciels de virtualisation d'applications tels que Citrix XenApp Essentials et VMware Horizon, qui prennent en charge jusqu'à 25 utilisateurs simultanés par GPU
    • Chaque GPU comprend un encodeur vidéo matériel intégré conçu pour prendre en charge jusqu'à 10 flux H.265 (HEVC) 1080p30 et jusqu'à 18 flux H.264 1080p30, offrant ainsi un encodage et une capture de trames à faible latence, ainsi que des expériences de streaming interactives de haute qualité
    • Mise en réseau améliorée à l'aide d'Elastic Network Adapter (ENA) avec 25 Gbit/s de bande passante réseau totale dans un groupe de placement
    Instance GPU vCPU Mém. (GiB) Mémoire GPU (GiB) Performances réseau (Gbit/s)***
    g3s.xlarge 1 4 30,5 8 Jusqu'à 10
    g3.4xlarge 1 16 122 8 Jusqu'à 10
    g3.8xlarge 2 32 244 16 10
    g3.16xlarge 4 64 488 32 25

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Visualisations 3D, postes de travail distants utilisant de nombreux graphiques, rendu 3D, streaming d'applications, encodage vidéo et autres charges de travail graphiques côté serveur.

  • Trn1
  • Les instances Amazon EC2 Trn1, alimentées par les puces d'AWS Trainium, sont spécialement conçues pour la formation deep learning de haute performance, tout en offrant une réduction jusqu'à 50 % sur le coût de la formation par rapport aux instances Amazon EC2 comparables.

    Fonctions :

    • 16 accélérateurs AWS Trainium
    • Pris en charge par le kit SDK AWS Neuron
    • Processeur Intel Xeon Scalable (Ice Lake SP) de 3e génération
    • Jusqu'à 1600 Gbit/s de bande passante du réseau Elastic Fabric Adapter (EFA) de deuxième génération
    • Jusqu'à 8 To de stockage NVMe local
    • Connectivité intra-instance à large bande passante avec NeuronLink
    • Déployé dans des UltraClusters EC2 qui permettront de faire évoluer jusqu'à plus de 30 000 accélérateurs AWS Trainium, connectés à un réseau non bloquant à l'échelle du pétabit, et un stockage évolutif à faible latence avec Amazon FSx pour Lustre
    • Optimisé pour Amazon EBS
    • Mise en réseau améliorée
    Taille de l'instance Accélérateurs Trainium Mémoire de l'accélérateur (Go) vCPU Mémoire (Gio)

    Instance
    Stockage (Go)

    Réseau
    Bande passante (Gbit/s)***

    Bande passante EBS
    (Gbit/s)

    trn1.2xlarge 1 32 8 32 1 disque SSD NVMe de 500
    Jusqu'à 12,5 Jusqu’à 20
    trn1.32xlarge 16 512 128 512 4 disques SSD NVMe de 2000
    800 80
    trn1n.32xlarge 16 512 128 512 4 disques SSD NVMe de 2000 1 600 80

    Cas d'utilisation

    La formation deep learning pour le traitement du langage naturel (NLP), la reconnaissance d'image, la recherche, la recommandation, le classement et plus encore

  • Inf2
  • Les instances Amazon EC2 Inf2 sont spécialement conçues pour l'inférence basée sur le deep learning (DL). Ils offrent des performances élevées au moindre coût dans Amazon EC2 pour les modèles d'intelligence artificielle (IA) générative, y compris les grands modèles de langage (LLM) et les transformateurs de vision. Les instances Inf2 sont optimisées par AWS Inferentia2. Ces nouvelles instances offrent des performances de calcul trois fois supérieures, une mémoire d'accélérateur quatre fois supérieure, un débit jusqu'à quatre fois supérieur et une latence jusqu'à dix fois inférieure par rapport aux instances Inf1

    Fonctions :

    • Jusqu'à 12 accélérateurs AWS Inferentia2
    • Pris en charge par le kit SDK AWS Neuron
    • Deux processeurs AMD EPYC (AMD EPYC 7R13)
    • Jusqu'à 384 Go de mémoire d'accélérateur partagée (32 Go HBM par accélérateur)
    • Réseau jusqu'à 100 Gbit/s
    Taille de l'instance

    Accélérateurs Inferentia2

    Mémoire de l'accélérateur (Go) vCPU Mémoire (Gio) Stockage local Interconnexion inter-accélérateur Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)
    inf2.xlarge 1 32 4 16 EBS uniquement SO Jusqu'à 15 Jusqu'à 10
    inf2.8xlarge 1 32 32 128 EBS uniquement Pas disponible Jusqu'à 25 10
    inf2.24xlarge 6 192 96 384 EBS uniquement Oui 50 30
    inf2.48xlarge 12 384 192 768 EBS uniquement Oui 100 60

    Cas d'utilisation

    Compréhension du langage naturel (analyse avancée de textes, analyse de documents, agents conversationnels), traduction, génération d'images et de vidéos, reconnaissance vocale, personnalisation, détection des fraudes, et plus encore.

  • Inf1
  • Les instances Inf1 d'Amazon EC2 sont créées de A à Z pour prendre en charge les applications d'inférence de machine learning.

    Fonctions:

    • Jusqu'à 16 puces AWS Inferentia
    • Pris en charge par le kit SDK AWS Neuron
    • Processeurs haute fréquence Intel Xeon Scalable de 2e génération (Cascade Lake P-8259L)
    • Réseau jusqu'à 100 Gbit/s
    Taille de l'instance Accélérateurs Inferentia vCPU Mémoire (Gio) Stockage d'instance Interconnexion inter-accélérateur Bande passante réseau (Gbit/s)*** Bande passante EBS
    inf1.xlarge 1 4 8 EBS uniquement S/O Jusqu'à 25 Jusqu'à 4,75
    inf1.2xlarge 1 8 16 EBS uniquement S/O Jusqu'à 25 Jusqu'à 4,75
    inf1.6xlarge 4 24 48 EBS uniquement Oui 25 4,75
    inf1.24xlarge 16 96 192 EBS uniquement Oui 100 19

    Cas d'utilisation

    Moteurs de recommandation, prédiction, analyse d'images et de vidéos, analytique avancée de texte, analyse de documents, voix, agents conversationnels, traduction, transcription et détection des fraudes.

  • DL1
  • Les instances Amazon EC2 DL1 sont équipées des accélérateurs Gaudi de Habana Labs (une société Intel). Elles offrent un rapport prix/performance jusqu'à 40 % supérieur pour l'entraînement de deep learning par rapport à la génération actuelle d'instances EC2 basées sur les GPU.

    Fonctions :

    • Processeurs de 2e génération Intel Xeon Scalable (Cascade Lake P-8275CL)
    • Jusqu'à 8 accélérateurs Gaudi avec 32 Go de mémoire à large bande passante (HBM) par accélérateur
    • 400 Gbit/s de débit réseau
    • 4 To de stockage NVMe local

    Taille d'instance

    vCPU

    Accélérateurs Gaudi

    Mémoire d'instance (Gio)

    Stockage d'instance (Go)

    Accélérateur pair-à-pair bidirectionnel
    (Gbit/s)

    Bande passante réseau (Gbit/s)

    Bande passante EBS (Gbit/s)

    dl1.24xlarge

    96

    8

    768

    4 disques SSD NVMe de 1 000

    100

    400

    19


    Les instances DL1 ont les spécifications suivantes :

    Cas d'utilisation

    Entraînement au deep learning, détection d'objets, reconnaissance d'images, traitement du langage naturel et moteurs de recommandation.

  • DL2q
  • Les instances Amazon EC2 DL2q, alimentées par les accélérateurs Qualcomm AI 100, peuvent être utilisées pour déployer de manière rentable des charges de travail de deep learning (DL) dans le cloud ou pour valider les performances et la précision des charges de travail DL qui seront déployées sur les appareils Qualcomm.

    Fonctionnalités :

    • 8 accélérateurs Qualcomm AI 100
    • Soutenu par la plateforme Qualcomm Cloud IA et le SDK des applications
    • Processeurs de 2e génération Intel Xeon Scalable (Cascade Lake P-8259CL)
    • Jusqu'à 128 Go de mémoire d'accélérateur partagée  
    • Réseau jusqu'à 100 Gbit/s
    Taille d'instance

    Accélérateurs Qualcomm IA 100

    Mémoire de l'accélérateur (Go) vCPU Mémoire (Gio) Stockage local Interconnexion inter-accélérateur Bande passante du réseau (Gbit/s) Bande passante EBS (Gbit/s)
    dl2q.24xlarge 8 128 96 768 EBS uniquement Non 100 19

    Cas d'utilisation

    Exécutez des applications populaires de DL et d'IA générative, telles que la génération de contenu, l'analyse d'images, la synthèse de texte et les assistants virtuels. ; Validez les charges de travail d'IA avant de les déployer sur des smartphones, des automobiles, des robots et des casques de réalité étendue.

  • F1
  • Les instances F1 Amazon EC2 permettent une accélération personnalisable du matériel avec un circuit intégré composé d'un réseau de portes programmables (FGPA, Field Programmable Gate Arrays).

    Fonctions des instances :

    • Processeurs haute fréquence Intel Xeon Scalable (Broadwell E5-2686 v4)
    • Stockage sur disque SSD NVMe
    • Prise en charge de la mise en réseau améliorée

    Fonctions FPGA :

    • FGPA Xilinx UltraScale+ VU9P
    • 64 GiB de mémoire protégée par ECC sur 4 mémoires DDR4
    • Interface PCI-Express x16 dédiée
    • Environ 2,5 millions d'éléments logiques
    • Environ 6 800 moteurs de traitement numérique du signal (DSP ou Digital Signal Processing)
    • AMI pour développeurs FPGA
    Instance FPGA vCPU Mémoire (Gio) Stockage d'instance (Go) Performances réseaux (Gbit/s)***
    f1.2xlarge 1 8 122 1 x 470 Jusqu'à 10
    f1.4xlarge 2 16 244 1 x 940 Jusqu'à 10
    f1.16xlarge 8 64 976 4 disques de 940 25

    Pour les instances f1.16xlarge, la structure PCI-e dédiée permet aux FPGA de partager le même espace mémoire et de communiquer entre eux sur cette structure à une vitesse pouvant atteindre 12 Gbit/s dans un sens ou dans l'autre.

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Recherche en génomique, analytique financière, traitement vidéo en temps réel, recherche et analyse Big Data et sécurité.

  • VT1
  • Les instances VT1 Amazon EC2 offrent un transcodage vidéo en temps réel à faible coût, avec prise en charge d'une résolution allant jusqu'à 4K UHD.

    Fonctions :

    • Processeurs de 2e génération Intel Xeon Scalable (Cascade Lake P-8259CL)
    • Jusqu'à 8 cartes accélératrices multimédias Xilinx U30 avec codecs H.264/AVC et H.265/HEVC accélérés
    • Jusqu'à 25 Gbit/s de débit réseau amélioré
    • Jusqu'à 19 Gbit/s de bande passante EBS

    Taille d'instance

    Accélérateurs U30

    vCPU

    Mémoire (Gio)

    Bande passante réseau (Gbit/s)

    Bande passante EBS
    (Gbit/s)

    Flux 1080p60

    Flux 4Kp60

    vt1.3xlarge

    1

    12

    24

    3,125

    Jusqu'à 4,75

    8

    2

    vt1.6xlarge

    2

    24

    48

    6,25

    4,75

    16

    4

    vt1.24xlarge

    8

    96

    192

    25

    19

    64

    16

     

    Toutes les instances ont les spécifications suivantes :

    Cas d'utilisation

    Diffusion d'événements en direct, vidéoconférence et transcodage en temps réel.

Chaque vCPU est un thread issu soit d'un processeur Intel Xeon core, soit d'un processeur AMD EPYC core, sauf pour T2 et m3.medium.

† AVX, AVX2, AVX-512 et la mise en réseau améliorée ne sont disponibles que sur les instances lancées avec des images AMI HVM.

* Il s'agit du nombre de vCPU par défaut et maximum disponibles pour ce type d'instance. Vous pouvez spécifier un nombre personnalisé de vCPU lors du lancement de ce type d'instance. Pour en savoir plus sur le nombre de vCPU valides et sur la façon de bien démarrer avec cette fonctionnalité, consultez la page de documentation relative à l'optimisation des CPU ici.

*** Les instances avec la mention Bande passante réseau « jusqu'à » ont une bande passante de base, et peuvent utiliser un mécanisme de crédits I/O réseau pour opérer une extension au-delà de leur bande passante réseau de base, dans la mesure du possible. Pour plus d'informations, consultez bande passante du réseau d'instance.

Stockage optimisé

Les instances optimisées pour le stockage sont conçues pour les charges de travail qui nécessitent un accès séquentiel élevé en lecture et en écriture à de très grands ensembles de données sur le stockage local. Elles sont optimisées pour fournir aux applications des dizaines de milliers d'opérations d'I/O aléatoires à faible temps de latence par seconde (IOPS).

  • I4g
  • Les instances Amazon EC2 I4g sont alimentées par les processeurs AWS Graviton2 et offrent le meilleur rapport prix/performance pour les charges de travail à forte intensité de stockage dans Amazon EC2. Les instances I4g offrent des performances de calcul jusqu'à 15 % supérieures à celles des instances similaires optimisées pour le stockage.

    Spécifications :

    • Développé par les processeurs AWS Graviton2
    • Jusqu'à 15 To de stockage d'instance SSD NVMe avec les AWS Nitro SSD qui offrent une latence d'I/O jusqu'à 60 % inférieure et une variabilité de la latence jusqu'à 75 % inférieure par rapport aux instances I3 et I3en, avec un chiffrement permanent
    • Optimisé pour les charges de travaillent qui nécessitent 8 Go de mémoire par vCPU
    • Jusqu'à 38 Gbit/s de bande passante du réseau grâce à la mise en réseau améliorée basée sur l'adaptateur réseau élastique (ENA)
    • Prend en charge Elastic Fabric Adapter (EFA) sur les instances i4g.16xlarge
    • Jusqu'à 20 Gbit/s de bande passante vers l'Amazon Elastic Block Store (EBS)
    • Basée sur le AWS Nitro System, une combinaison de matériel dédié et d'un hyperviseur léger
    • Prise en charge de la sauvegarde d'écriture (TWP) pour permettre des performances supplémentaires et réduire les latences avec les charges de travail de bases de données telles que MySQL et MariaDB.
    Taille d'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s) Bande passante EBS (Gbit/s)
    i4g.large 2 16 1 x 468 Go = 468 Go Jusqu'à 10 Jusqu'à 10
    i4g.xlarge 4 32 1 x 937 Go = 937 Go Jusqu'à 10 Jusqu'à 10
    i4g.2xlarge 8 64 1 x 1 875 Go = 1 875 Go Jusqu'à 12 Jusqu'à 10
    i4g.4xlarge 16 128 1 x 3 750 Go = 3 750 Go Jusqu'à 25 Jusqu'à 10
    i4g.8xlarge 32 256 2 x 3 750 Go = 7 500 Go 18,75 10
    i4g.16xlarge 64 512 4 x 3 750 Go = 15 000 Go 37,5 20

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Les instances Amazon EC2 I4g sont optimisées pour les applications gourmandes en E/S et sont destinées aux clients utilisant des bases de données transactionnelles (Amazon DynamoDB, MySQL et PostgreSQL), Amazon OpenSearch Service et des analyses en temps réel telles qu'Apache Spark.

  • Im4gn
  • Les instances Amazon EC2 Im4gn sont alimentées par les processeurs AWS Graviton2 et offrent le meilleur rapport prix/performance pour les charges de travail à forte intensité de stockage dans Amazon EC2. Elles offrent un rapport qualité prix jusqu'à 40 % supérieur, un coût par To de stockage jusqu'à 44 % inférieur à celui des instances I3.

    Spécifications :

    • Développé par les processeurs AWS Graviton2
    • Jusqu'à 30 To de stockage d'instance SSD NVMe avec les AWS Nitro SSD qui offrent une latence d'I/O jusqu'à 60 % inférieure et une variabilité de la latence jusqu'à 75 % inférieure par rapport aux instances I3 et I3en, avec un chiffrement permanent
    • Optimisé pour les charges de travaillent qui nécessitent 4 Go de mémoire par vCPU
    • 2 disques SSD NVMe de densité de stockage par vCPU comparé aux instances I3
    • Jusqu'à 100 Gbit/s de bande passante réseau en utilisant la mise en réseau améliorée basée sur Elastic Network Adapter (ENA)
    • Prise en charge pour Elastic Fabric Adapter sur im4gn.16xlarge
    • Jusqu'à 38 Gbit/s de bande passante vers Amazon Elastic Block Store
    • Basée sur le AWS Nitro System, une combinaison de matériel dédié et d'un hyperviseur léger
    • Prise en charge de Torn Write Prevention (TWP) pour permettre des performances supplémentaires et réduire les latences avec les charges de travail de bases de données telles que MySQL et MariaDB.
    Taille de l'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    Im4gn.large 2 8 1 AWS Nitro SSD de 937 Jusqu'à 25 Jusqu'à 9,5
    Im4gn.xlarge 4 16 1 AWS Nitro SSD de 1 875 Jusqu'à 25 Jusqu'à 9,5
    Im4gn.2xlarge 8 32 1 AWS Nitro SSD de 3 750 Jusqu'à 25 Jusqu'à 9,5
    Im4gn.4xlarge 16 64 1 AWS Nitro SSD de 7 500 25 9,5
    Im4gn.8xlarge 32 128 2 AWS Nitro SSD de 7 500 50 19
    Im4gn.16xlarge 64 256 4 AWS Nitro SSD de 7 500 100 38

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Ces instances maximisent le nombre de transactions traitées par seconde (TPS) pour les charges de travail à forte intensité d'I/O et essentielles à l'entreprise qui comportent des jeux de données de taille moyenne et pouvant bénéficier de performances de calcul et d'un débit réseau élevés telles que les bases de données relationnelles (par exemple MySQL, MariaDB, PostgreSQL) et les bases de données NoSQL (KeyDB, ScyllaDB, Cassandra). Elles conviennent également parfaitement aux charges de travail qui nécessitent un accès très rapide aux jeux de données de taille moyenne sur le stockage local, comme les moteurs de recherche et les charges de travail d'analyse des données.

  • Is4gen
  • Les instances EC2 Is4gen sont alimentées par les processeurs AWS Graviton2 et offrent le coût le plus bas par To de stockage SSD et la plus haute densité de stockage SSD par vCPU dans Amazon EC2 pour les charges de travail à forte intensité de stockage. Ces instances offrent un coût par To jusqu'à 15 % inférieur et des performances de calcul par vCPU jusqu'à 48 % supérieures à celles des instances I3en.

    Spécifications :

    • Développé par les processeurs AWS Graviton2
    • Jusqu'à 30 To de stockage d'instance SSD NVMe avec les AWS Nitro SSD qui offrent une latence d'I/O jusqu'à 60 % inférieure et une variabilité de la latence jusqu'à 75 % inférieure par rapport aux instances I3 et I3en, avec un chiffrement permanent
    • Optimisé pour les charges de travaillent qui nécessitent 6 Go de mémoire par vCPU
    • 50 % plus de stockage sur disque SSD NVMe par vCPU par rapport à I3en
    • Jusqu'à 50 Gbit/s de bande passante réseau en utilisant la mise en réseau améliorée basée sur Elastic Network Adapter (ENA)
    • Jusqu'à 19 Gbit/s de bande passante vers Amazon Elastic Block Store
    • Basée sur le AWS Nitro System, une combinaison de matériel dédié et d'un hyperviseur léger
    • Prise en charge de Torn Write Prevention (TWP) pour permettre des performances supplémentaires et réduire les latences avec les charges de travail de bases de données telles que MySQL et MariaDB.
    Taille de l'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    Is4gen.medium 1 6 1 AWS Nitro SSD de 937 Jusqu'à 25 Jusqu'à 9,5
    Is4gen.large 2 12 1 AWS Nitro SSD de 1 875 Jusqu'à 25 Jusqu'à 9,5
    Is4gen.xlarge 4 24 1 AWS Nitro SSD de 3 750 Jusqu'à 25 Jusqu'à 9,5
    Is4gen.2xlarge 8 48 1 AWS Nitro SSD de 7 500 Jusqu'à 25 Jusqu'à 9,5
    Is4gen.4xlarge 16 96 2 AWS Nitro SSD de 7 500 25 9,5
    Is4gen.8xlarge 32 192 4 AWS Nitro SSD de 7 500 50 19

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Ces instances maximisent le nombre de transactions traitées par seconde (TPS) pour les charges de travail exigeante en matière d'I/O qui ont de grands jeux de données et peuvent être associées à la plus haute densité de stockage NVMe par vCPU, comme les bases données NoSQL (KeyDB, MongoDB, ScyllaDB et Cassandra) qui ont de grands jeux de données et peuvent être associées à la plus haute densité de stockage NVMe par vCPU. Elles conviennent également parfaitement aux charges de travail qui nécessitent une plus haute densité de stockage et un accès très rapide à de grands jeux de données en stockage local, comme les moteurs de recherche (Splunk and Elasticsearch), les flux de données et les grands systèmes de fichiers distribués.

  • I4i
  • Les instances I4i Amazon EC2 sont alimentées par les processeurs Intel Xeon Scalable de 3e génération (Ice Lake) et offrent les performances de stockage locales les plus hautes au sein d'Amazon EC2 grâce aux disques SSD NVMe d'AWS Nitro.

    Fonctions :

    • Processeurs Intel Xeon Scalable de 3e génération jusqu'à 3,5 GHz (Ice Lake 8375C)
    • Rapport prix/performances de calcul jusqu'à 30 % supérieur par rapport aux instances I3
    • Jusqu'à 30 To de stockage NVMe grâce aux AWS Nitro SSD qui offrent une latence d'I/O jusqu'à 60 % inférieure et une variabilité de latence jusqu'à 75 % inférieure par rapport aux instances I3
    • Jusqu'à 75 Gbit/s de vitesse de réseau
    • Jusqu'à 40 Gbit/s de bande passante vers Amazon Elastic Block Store
    • Nouvelle taille d'instance (32xlarge) avec 128 vCPU et 1 024 Gio de mémoire
    • Prend en charge Elastic Fabric Adapter sur la taille 32xlarge
    • Prise en charge du chiffrement permanent de la mémoire à l'aide de la technologie Intel Total Memory Encryption (TME)
    • Basée sur le AWS Nitro System, une combinaison de matériel dédié et d'un hyperviseur léger
    • Prise en charge des nouvelles instructions Intel Advanced Vector Extensions (AVX 512) pour une exécution plus rapide des algorithmes cryptographiques
    • Prise en charge de Torn Write Prevention (TWP) pour permettre des performances supplémentaires et réduire les latences avec les charges de travail de bases de données telles que MySQL et MariaDB.
    Taille de l'instance vCPU Mémoire (Gio) Stockage d'instance (Go) Bande passante réseau (Gbit/s)*** Bande passante EBS (Gbit/s)
    i4i.large 2 16 1 AWS Nitro SSD de 468 Jusqu'à 10 Jusqu'à 10
    i4i.xlarge 4 32 1 AWS Nitro SSD de 937 Jusqu'à 10 Jusqu'à 10
    i4i.2xlarge 8 64 1 AWS Nitro SSD de 1 875 Jusqu'à 12 Jusqu'à 10
    i4i.4xlarge 16 128 1 AWS Nitro SSD de 3 750 Jusqu'à 25 Jusqu'à 10
    i4i.8xlarge 32 256 2 AWS Nitro SSD de 3 750 18,75 10
    i4i.12xlarge 48 384 3 AWS Nitro SSD de 3750 28,12 15
    i4i.16xlarge 64 512 4 AWS Nitro SSD de 3 750 37,5 20
    i4i.24xlarge 96 768 6 AWS Nitro SSD de 3750 56,25 30
    i4i.32xlarge 128 1 024 8 AWS Nitro SSD de 3 750 75 40
    i4i.metal 128 1 024 8 AWS Nitro SSD de 3 750 75 40

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Ces instances sont conçues pour maximiser les transactions par secondes (TPS) pour les charges de travail exigeantes en I/O qui nécessitent un accès très rapide aux jeux de données de taille petite ou moyenne sur le stockage local, comme les bases de données transactionnelles (par exemple MySQL, Oracle DB, et Microsoft SQL Server), et les bases de données NoSQL (par exemple MongoDB, Couchbase, Aerospike et Redis). Les instances I4i sont également idéales pour les charges de travail qui peuvent bénéficier de performances de calcul élevées par To de stockage telles que l'analytique des données et les moteurs de recherche.

  • I3
  • Cette famille d'instances propose un stockage d'instance sauvegardé sur SSD NVMe (Non-Volatile Memory Express), optimisé pour une faible latence, des performances très élevées en I/O aléatoires et un débit de lecture séquentielle élevé. Elle fournit également un grand nombre d'opérations IOPS à faible coût. I3 propose également des instances de matériel nu (i3.metal), alimentées par le système Nitro pour les charges de travail non virtualisées, les charges de travail ayant un accès aux ressources physiques ou les charges de travail pouvant présenter des restrictions de licence.

    Fonctions :

    • Processeurs haute fréquence Intel Xeon Scalable (Broadwell E5-2686 v4) avec une fréquence de base de 2,3 GHz
    • Jusqu'à 25 Gbit/s de bande passante réseau grâce à la mise en réseau améliorée basée sur Elastic Network Adapter (ENA)
    • Performances I/O aléatoires très élevées et débit séquentiel en lecture élevé
    • Prise en charge de la taille d'instance bare metal pour les charges de travail tirant parti d'un accès direct à la mémoire et au processeur physique
    Instance vCPU* Mém. (GiB) Stockage d'instance (Go) Performances réseaux (Gbit/s)***
    i3.large 2 15,25 1 disque SSD NVMe de 475 Jusqu'à 10
    i3.xlarge 4 30,5 1 disque SSD NVMe de 950 Jusqu'à 10
    i3.2xlarge 8 61 1 SSD NVMe x 1 900 Jusqu’à 10
    i3.4xlarge 16 122 2 SSD NVMe x 1 900 Jusqu’à 10
    i3.8xlarge 32 244 4 x 1 900 (SSD NVMe) 10
    i3.16xlarge 64 488 8 x 1 900 (SSD NVMe) 25
    i3.metal 72** 512 8 x 1 900 (SSD NVMe) 25

     

    Toutes les instances présentent les spécifications suivantes :

    Cas d'utilisation

    Bases de données NoSQL de taille petite ou moyenne (comme Cassandra, MongoDB, Aerospike), bases de données en mémoire (comme Redis), bases de données transactionnelles évolutives, entreposage de données, Elasticsearch et charges de travail d'analyses.

  • I3en
  • Cette famille d'instances fournit un stockage d'instance SSD NVMe (Non-Volatile Memory Express) dense optimisé pour une faible latence, de hautes performances d'E/S aléatoires, un haut débit séquentiel de disque, et offre le prix le plus bas par Go de stockage d'instance SSD sur Amazon EC2. I3en propose également des instances bare metal (i3en.metal) optimisées par le système Nitro pour les charges de travail non virtualisées, les charges de travail ayant un accès aux ressources physiques ou les charges de travail pouvant présenter des restrictions de licence.

    Fonctions:

    • Jusqu'à 60 To de stockage d'instance SSD NVMe
    • Jusqu'à 100 Gbit/s de bande passante réseau en utilisant la mise en réseau améliorée basée sur ENA (Elastic Network Adapter)
    • Hautes performances I/O aléatoires et haut débit séquentiel de disque
    • Processeurs Intel® Xeon® Scalable jusqu'à 3,1 GHz (Skylake 8175M ou Cascade Lake 8259CL) avec le nouveau jeu d'instructions Intel Advanced Vector Extension (AVX-512)
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    • Prise en charge de la taille d'instance bare metal pour les charges de travail tirant parti d'un accès direct à la mémoire et au processeur physique
    • Prise en charge pour Elastic Fabric Adapter sur i3en.24xlarge
    Instance vCPU Mém. (GiB) Stockage d'instance (Go) Bande passante réseau (Gbit/s)***
    i3en.large 2 16 1 x 1 250 (SSD NVMe)
    Jusqu'à 25
    i3en.xlarge 4 32 1 x 2 500 (SSD NVMe)
    Jusqu'à 25
    i3en.2xlarge 8 64 2 x 2 500 (SSD NVMe)
    Jusqu'à 25
    i3en.3xlarge 12 96 1 x 7 500 (SSD NVMe)
    Jusqu'à 25
    i3en.6xlarge 24 192 2 x 7 500 (SSD NVMe)
    25
    i3en.12xlarge 48 384 4 x 7 500 (SSD NVMe)
    50
    i3en.24xlarge
    96 768 8 x 7 500 (SSD NVMe)
    100
    i3en.metal 96 768 8 x 7 500 (SSD NVMe) 100

    Toutes les instances présentent les spécifications suivantes :

    • Processeurs Intel® Xeon® Scalable (Skylake) avec turbo sur tous les cœurs 3,1 GHz
    • Intel AVX†, Intel AVX2†, Intel AVX-512†, Intel Turbo 
    • Optimisée pour EBS
    • Mise en réseau améliorée

    Cas d'utilisation

    Bases de données NoSQL de taille petite ou grande (telles que Cassandra, MongoDB, Aerospike), bases de données en mémoire (telles que Redis), bases de données transactionnelles évolutives, systèmes de fichiers distribués, entreposage de données, Elasticsearch, charges de travail d'analyse.

  • D3
  • Les instances D3 Amazon EC2 sont optimisées pour les applications qui nécessitent des performances d'I/O séquentielles et un débit de disque élevés. Les instances D3 représentent un chemin de mise à niveau optimal pour les charges de travail exécutées sur des instances D2 nécessitant des performances de calcul et réseau supérieures à un prix/To inférieur.

    Fonctions :

    • Processeurs Intel® Xeon® Scalable de 2e génération jusqu'à 3,1 GHz (Intel Cascade Lake 8259CL) avec le nouveau jeu d'instructions Intel Advanced Vector Extension (AVX-512)
    • Jusqu'à 48 To de stockage d'instance sur disque dur
    • Débit de disque en lecture et écriture jusqu'à 45 % supérieur à celui d'instances EC2 D2
    • À technologie AWS Nitro System

    Taille d'instance

    vCPU

    Mémoire (Gio)

    Storage d'instance (To)

    Débit de disque agrégé (MiB/s)

    Bande passante réseau (Gbit/s)***

    Bande passante EBS (Mbit/s)

    d3.xlarge

    4

    32

    3 x 2 disques durs

    580

    Jusqu'à 15

    850

    d3.2xlarge

    8

    64

    6 x 2 disques durs

    1 100

    Jusqu'à 15

    1 700

    d3.4xlarge

    16

    128

    12 x 2 disques durs

    2 300

    Jusqu'à 15

    2 800

    d3.8xlarge

    32

    256

    24 x 2 disques durs

    4 600

    25

    5 000

    *Taille des blocs de 128 Ko, lecture et écriture séquentielles (arrondi à la centaine la plus proche sauf pour xlarge)

    Toutes les instances présentent les spécifications suivantes :

    • Up to 3.1 GHz 2e Generation Intel® Xeon® Scalable (Cascade Lake) processors
    • Intel AVX†, Intel AVX2†, Intel AVX-512†, Intel Turbo
    • Mise en réseau améliorée

    Cas d'utilisation

    Systèmes de fichiers distribués (par exemple HDFS, MapReduce File Systems), applications d'analytique Big Data (par exemple Elastic MapReduce, Spark, Hadoop), entrepôt de données MPP (Massively Parallel Processing) (par exemple Redshift, HP Vertica), applications de traitement de journaux ou de données (par exemple Kafka, Elastic Search)

  • D3en
  • Les instances D3en Amazon EC2 sont optimisées pour les applications nécessitant des performances d'I/O séquentielles et un débit de disque élevés, ainsi qu'un stockage à coût réduit pour les jeux de données très volumineux. Les instances D3en offrent les coûts de stockage dense les plus bas parmi toutes les offres de cloud.

    Fonctions :

    • Processeurs Intel® Xeon® Scalable de 2e génération jusqu'à 3,1 GHz (Intel Cascade Lake 8259CL) avec le nouveau jeu d'instructions Intel Advanced Vector Extension (AVX-512)
    • Jusqu'à 336 To de stockage d'instance sur disque dur
    • Bande passante réseau jusqu'à 75 Gbit/s
    • Débit de disque en lecture et écriture jusqu'à 2x supérieur à celui d'instances EC2 D2
    • À technologie AWS Nitro System

    Taille d'instance

    vCPU

    Mémoire (Gio)

    Storage d'instance (To)

    Débit de disque agrégé (MiB/s)

    Bande passante réseau (Gbit/s)***

    Bande passante EBS (Mbit/s)

    d3en.xlarge

    4

    16

    2 x 14 disques durs

    500

    Jusqu'à 25

    850

    d3en.2xlarge

    8

    32

    4 x 14 disques durs

    1 000

    Jusqu'à 25

    1 700

    d3en.4xlarge

    16

    64

    8 x 14 disques durs

    2 000

    25

    2 800

    d3en.6xlarge

    24

    96

    12 x 14 disques durs

    3 100

    40

    4 000

    d3en.8xlarge

    32

    128

    16 x 14 disques durs

    4 100

    50

    5 000

    d3en.12xlarge

    48

    192

    24 x 14 disques durs

    6 200

    75

    7 000

    *Taille des blocs de 128 Ko, lecture et écriture séquentielles (arrondi à la centaine la plus proche)

    Toutes les instances présentent les spécifications suivantes :

    • Up to 3.1 GHz 2e Generation Intel® Xeon® Scalable (Cascade Lake) processors
    • Intel AVX†, Intel AVX2†, Intel AVX-512†, Intel Turbo
    • Mise en réseau améliorée

    Cas d'utilisation

    Systèmes de stockage de fichiers à nœuds multiples tels que Lustre, BeeGFS, GPFS, VxCFS et GFS2. Lacs de données de grande capacité avec des performances d'entrées/sorties séquentielles cohérentes

  • D2
  • Les instances D2 Amazon EC2 fournissent jusqu'à 48 To de stockage local sur disques durs et un débit de disque élevé, le tout au tarif le plus bas d'Amazon EC2 en matière de performances de débit par disque.

    Fonctions :

    • Processeurs Intel Xeon Scalable haute fréquence (Haswell E5-2676 v3)
    • Stockage sur disques durs
    • Performances élevées et homogènes dès le lancement
    • Débit de disque élevé
    • Prise en charge de la mise en réseau améliorée
    Instance vCPU* Mém. (GiB) Stockage d'instance (Go) Performances réseau
    d2.xlarge 4 30,5 3 disques durs de 2 000 Modéré
    d2.2xlarge 8 61 6 x 2 000 (disque dur) Élevé
    d2.4xlarge 16 122 12 x 2 000 (disque dur) Élevé
    d2.8xlarge 36 244 24 x 2 000 (disque dur) 10 Go/s

    Toutes les instances présentent les spécificités suivantes :

    Cas d'utilisation

    Entreposage de données à traitement massivement parallèle (MPP), calcul distribué via MapReduce et Hadoop, systèmes DFS (Distributed File System) et NFS (Network File System), traitement de données ou de fichiers journaux.

  • H1
  • Les instances H1 Amazon EC2 fournissent jusqu'à 16 To de stockage local sur disques durs, un débit de disque élevé et un ensemble équilibré de ressources de calcul et de mémoire.

    Fonctions :

    • À technologie processeur Intel Xeon Scalable de 2,3 GHz (Broadwell E5 2686 v4)
    • Jusqu'à 16 To de stockage sur disque dur
    • Débit de disque élevé
    • Mise en réseau améliorée compatible ENA, jusqu'à 25 Gbit/s
    Instance vCPU* Mém. (GiB) Performances réseaux (Gbit/s)*** Stockage d'instance (Go)
    h1.2xlarge 8 32 Jusqu'à 10 1 x 2 000 (disque dur)
    h1.4xlarge 16 64 Jusqu'à 10 2 x 2 000 (disque dur)
    h1.8xlarge 32 128 10 4 x 2 000 (disque dur)
    h1.16xlarge 64 256 25 8 x 2 000 (disque dur)

    Toutes les instances présentent les spécificités suivantes :

    Cas d'utilisation

    Workloads basés sur MapReduce, systèmes de fichiers distribués tels que HDFS et MapR-FS, systèmes de gestion de fichiers en réseau, applications de journalisation ou de traitement des données telles qu'Apache Kafka, et clusters de charges de travail Big Data.

** Les instances i3.metal fournissent 72 processeurs logiques sur 36 cœurs physiques

Vous recherchez des instances de la génération précédente qui ne sont pas répertoriées ici ? Consultez la page Instances de la génération précédente.

Optimisée pour HPC

Les instances de calcul haute performance (HPC) sont spécialement conçues pour offrir les meilleures performances en termes de prix pour l'exécution de charges de travail HPC à grande échelle sur AWS. Les instances HPC sont idéales pour les applications qui bénéficient de processeurs haute performance, comme les simulations complexes de grande envergure et les charges de travail de deep learning.

  • Hpc7g
  • Les instances Amazon EC2 Hpc7g sont conçues pour les charges de travail de calcul hautes performances (HPC) à forte intensité de calcul, telles que la dynamique informatique des fluides (CFD), les prévisions météorologiques et la dynamique moléculaire.

    Fonctions :

    • Jusqu'à 64 cœurs de processeurs Graviton3E avec 128 Gio de mémoire
    • Elastic Fabric Adapter (EFA) est activé pour des vitesses de bande passante du réseau entre les nœuds allant jusqu'à 200 Gbit/s, offrant des performances accrues pour les applications qui utilisent massivement le réseau
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille de l'instance Cœurs physiques Mémoire (Gio) Stockage d'instance Bande passante du réseau EFA (Gbit/s) Bande passante du réseau (Gbit/s)
    hpc7g.4xlarge 16 128 EBS uniquement 200 25
    hpc7g.8xlarge 32 128 EBS uniquement 200 25
    hpc7g.16xlarge 64 128 EBS uniquement 200 25

     

    *Bande passante du réseau de 500 Mbits/s en dehors du cloud privé virtuel (VPC) et d'Amazon Simple Storage Service (Amazon S3)
  • Hpc7a
  • Les instances Amazon EC2 HPC7a sont dotées de processeurs AMD EPYC de 4e génération et sont conçues pour les charges de travail de calcul haute performance (HPC) étroitement couplées et gourmandes en calcul, telles que la dynamique des fluides (CFD), les prévisions météorologiques et les simulations multiphysiques.

    Fonctionnalités :

    • Jusqu'à 192 cœurs de processeurs AMD EPYC de 4e génération avec 768 Go de mémoire (AMD EPYC 9R14)
    • Elastic Fabric Adapter (EFA) est activé pour des vitesses de bande passante du réseau entre les nœuds allant jusqu'à 300 Gbit/s, offrant des performances accrues pour les applications qui utilisent massivement le réseau
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance Cœurs physiques Mémoire (Gio) Stockage d'instance Bande passante du réseau EFA (Gbit/s) Bande passante du réseau (Gbit/s)*

    hpc7a.12xlarge

    24

    768

    EBS uniquement

    300

    25

    hpc7a.24xlarge

    48

    768

    EBS uniquement

    300

    25

    hpc7a.48xlarge

    96

    768

    EBS uniquement

    300

    25

    hpc7a.96xlarge

    192

    768

    EBS uniquement

    300

    25

     

    *Bande passante du réseau de 500 Mbits/s en dehors du cloud privé virtuel (VPC) et d'Amazon Simple Storage Service (Amazon S3).

  • Hpc6id
  • Les instances Hpc6id Amazon EC2 sont conçues pour les charges de travail de calcul haute performance (HPC) gourmandes en mémoire et en données, telles que l'analyse par éléments finis (FEA) pour les simulations de collisions, les simulations de réservoirs sismiques et les simulations structurelles.

    Fonctions :

    • Fréquence turbo allant jusqu'à 3,5 GHz, 64 cœurs de processeurs Intel Xeon Scalable avec 5 Go/s par vCPU de bande passante mémoire et 1 024 Gio de mémoire
    • Elastic Fabric Adapter (EFA) est activé pour des vitesses de bande passante du réseau entre les nœuds allant jusqu'à 200 Gbit/s, offrant des performances accrues pour les applications qui utilisent massivement le réseau
    • Le multithreading simultané est désactivé pour optimiser la performance et la gestion des clusters
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'hyperviseur léger
    Taille d'instance Cœurs Mémoire (Gio) Stockage sur SSD (Gio) Bande passante du réseau (Gbit/s)* Bande passante du réseau EFA (Gbit/s)
    hpc6id.32xlarge 64 1 024 4 disques SSD NVMe de 3 800 25 200

     

    *Bande passante du réseau de 500 Mbits/s en dehors du cloud privé virtuel (VPC) et d'Amazon Simple Storage Service (S3).
  • Hpc6a
  • Les instances Amazon EC2 Hpc6a sont optimisées pour les charges de travail de calcul haute performance (HPC) étroitement couplés et à forte intensité de calcul, afin de fournir des performances rentables. Les instances Hpc6a sont conçues pour des charges de travail telles que la dynamique des fluides numériques, la dynamique moléculaire et les prévisions météorologiques. Elles sont également conçues pour les charges de travail qui peuvent tirer profit de débits réseau et de débits de transfert de paquets améliorés.

    Spécifications :

    • Processeurs AMD EPYC de troisième génération jusqu'à 3,6 GHz (AMD EPYC 7R13)
    • Elastic Fabric Adapter (EFA) est activé pour des vitesses de bande passante du réseau entre les nœuds allant jusqu'à 100 Gbit/s, offrant des performances accrues pour les applications qui utilisent massivement le réseau
    • Le multithreading simultané est désactivé pour optimiser la performance et la gestion des clusters
    • À technologie AWS Nitro System, une combinaison de matériel dédié et d'un hyperviseur léger
    Taille de l'instance Cœurs Mémoire (Gio) Bande passante du réseau (Gbit/s)* Bande passante du réseau EFA (Gbit/s)
    hpc6a.48xlarge 96 384 25 100

     

    * Bande passante du réseau de 25 Gbit/s en dehors du cloud privé virtuel (VPC), Amazon Simple Storage Service (S3) ou Amazon Elastic Block Store (EBS).

Fonctions des instances

Les instances Amazon EC2 intègrent plusieurs fonctionnalités supplémentaires afin de vous aider à déployer, gérer et mettre à l'échelle vos applications.

Instances de performance à capacité extensible

Amazon EC2 vous permet de choisir entre des familles d'instances de performance à capacité fixe (par exemple : M6, C6 et R6) et des familles d'instances de performance à capacité extensible (par exemple : T3). Les instances de performance à capacité extensible fournissent un niveau de référence en matière de capacités de CPU, avec la possibilité de dépasser le seuil de base.

Les instances T illimité peuvent maintenir des performances CPU élevées, aussi longtemps qu'une charge de travail en a besoin. Pour la plupart des charges de travail à usage général, les instances T illimitées fourniront d'excellentes performances sans frais supplémentaires. Le prix horaire de l'instance T couvre automatiquement tous les pics transitoires d'utilisation lorsque l'utilisation moyenne du processeur d'une instance T est inférieure ou égale à la valeur de référence sur une fenêtre de 24 heures. Si l'instance doit être exécutée avec une utilisation de CPU plus élevée pendant une période prolongée, c'est possible moyennant des frais supplémentaires fixes s'élevant à 5 cents par heure vCPU.

La capacité de base et la possibilité de débordement des instances T sont contrôlés par les crédits CPU. Chaque instance T reçoit des crédits CPU en continu, sur la base d'un taux défini selon la taille de l'instance. Les instances T accumulent les crédits CPU lorsqu'elles ne sont pas utilisées, et les utilisent lorsqu'elles sont actives. Un crédit CPU fournit la capacité d'un cœur de CPU complet pendant une minute.

Par exemple, une instance t2.small reçoit continuellement des crédits, à un rythme de 12 crédits CPU par heure. Cela fournit une capacité de base équivalente à 20 % d'un cœur de CPU (20 % x 60 min. = 12 min). Si l'instance n'utilise pas les crédits qu'elle reçoit, ils sont stockés dans son solde de crédit CPU jusqu'à un maximum de 288 crédits CPU. Lorsque l'instance t2.small a besoin de dépasser les 20 % d'un cœur, elle les retire de son solde de crédits CPU afin de gérer cette poussée automatiquement.

Avec T2 illimité activé, l'instance t2.small peut dépasser ses capacités de base, même avec un solde de crédits CPU de zéro. Pour une grande majorité des charges de travail à usage général où l'utilisation moyenne du processeur est égale ou inférieure aux performances de base, le prix horaire de base de l'instance t2.small couvre toutes les périodes d'utilisation élevée de CPU. Si l'instance fonctionne à 25 % d'utilisation du processeur en moyenne (5 % au-dessus de la valeur de référence) sur une période de 24 heures après que son solde de crédits CPU a été réduit à zéro, elle sera facturée 6 cents supplémentaires (5 cents/vCPU-heure x 1 vCPU x 5 % x 24 heures).

De nombreuses applications telles que les serveurs web, les environnements de développement et les petites bases de données n'ont pas constamment besoin de grandes capacités de CPU, mais lorsqu'elles en ont besoin, l'accès à des CPU très rapides leur est très profitable. Les instances T sont conçues spécifiquement pour ces cas d'utilisation. Si vous avez continuellement besoin de capacités élevées en matière de CPU pour des applications telles que l'encodage de vidéos, les sites web à gros trafic ou les applications HPC, nous vous recommandons d'utiliser des instances à capacité fixe. Les instances T sont conçues pour fonctionner comme si elles disposaient de cœurs de processeur à haut débit dédiés et disponibles lorsque votre application a vraiment besoin de capacités en matière de CPU, en vous protégeant de la variabilité des capacités ou des autres effets secondaires que vous pouvez généralement observer dans les autres environnements lorsque le nombre d'abonnements est trop élevé.

Options de stockage multiples

Amazon EC2 vous permet de choisir parmi diverses options de stockage celle la plus adaptée à vos besoins. Amazon EBS constitue un volume de stockage durable de niveau bloc, que vous pouvez associer à une seule instance Amazon EC2 en cours d'exécution. Vous pouvez utiliser Amazon EBS comme périphérique de stockage principal pour les données nécessitant des mises à jour fréquentes et précises. Amazon EBS est notamment l'option de stockage recommandée lorsque vous exécutez une base de données sur Amazon EC2. Les volumes Amazon EBS persistent indépendamment de la durée d'exécution d'une instance Amazon EC2. Une fois qu'un volume est associé à une instance, vous pouvez l'utiliser comme n'importe quel disque dur physique. Amazon EBS propose trois types de volumes pour répondre au mieux aux besoins de vos charges de travail : les volumes à usage général (SSD), les volumes IOPS provisionnés (SSD) et les volumes magnétiques. Le volume à usage général (SSD) est un nouveau type de volume EBS à usage général (stockage SSD) que nous recommandons comme choix par défaut à nos clients. Les volumes à usage général (SSD) sont adaptés à une grande variété de charges de travail, y compris les bases de données petites à moyennes, les environnements de développement et de test, et les volumes de démarrage. Les volumes IOPS provisionnés (SSD) offrent des performances de stockage constantes et à faible latence, et sont conçus pour les applications dont les charges de travail nécessitent un taux d'E/S élevé, telles que les grandes bases de données relationnelles ou les bases de données NoSQL. Les volumes magnétiques présentent le prix par gigaoctet le plus bas de tous les types de volume EBS. Les volumes magnétiques sont parfaits pour les charges de travail où l'accès aux données est rare et les applications où le coût de stockage le plus bas est requis.

De nombreuses instances Amazon EC2 peuvent également inclure du stockage provenant d'appareils situés à l'intérieur de l'ordinateur hôte, appelé stockage d'instance. Le stockage d'instance fournit un stockage temporaire de niveau bloc aux instances Amazon EC2. Les données figurant dans un stockage d'instance ne sont maintenues que pendant la durée de vie de l'instance Amazon EC2 associée.

Outre le stockage de niveau bloc via Amazon EBS ou le stockage d'instance, vous pouvez également utiliser Simple Storage Service (Amazon S3) pour un stockage d'objets à haute disponibilité et haute durabilité. Pour en savoir plus sur les options de stockage d'Amazon EC2, consultez la documentation Amazon EC2.

Instances optimisées pour EBS

Moyennant des frais supplémentaires minimes (taux horaire), nos clients peuvent lancer des types d'instances Amazon EC2 sélectionnés en tant qu'instances optimisées pour EBS. Les instances optimisées pour EBS permettent aux instances EC2 d'utiliser pleinement les opérations d'E/S par seconde allouées sur un volume EBS. Ces instances optimisées pour EBS fournissent un débit dédié entre Amazon EC2 et Amazon EBS, avec des options variant entre 500 mégabits par seconde (Mbit/s) et 80 gigabits par seconde (Gbit/s), selon le type d'instance utilisé. Ce débit dédié permet de minimiser les problèmes d'encombrement entre les I/O Amazon EBS et le reste du trafic issu de votre instance EC2, afin de bénéficier de performances optimales pour vos volumes EBS. Les instances optimisées pour EBS sont conçues pour être utilisées avec tous les volumes EBS. Lorsqu'ils sont associés à des instances optimisées pour EBS, les volumes IOPS provisionnés peuvent atteindre des latences de l'ordre de quelques millisecondes seulement et sont conçus pour fournir environ 10 % des performances IOPS provisionnées sur la quasi-totalité de la période (99,9 %). Pour vos applications présentant un taux élevé d'E/S au niveau du stockage, nous vous recommandons d'utiliser des volumes IOPS provisionnés avec les instances optimisées pour EBS ou les instances prenant en charge la mise en réseau des clusters.

Mise en réseau des clusters

Certaines instances EC2 prennent en charge la mise en réseau des clusters si elles sont lancées dans un groupe de placement de cluster commun. Un groupe de placement de cluster permet une mise en réseau à faible latence entre toutes les instances du cluster. La bande passante utilisable par une instance EC2 dépend du type d'instance et de ses spécifications de performances en termes de mise en réseau. Le trafic inter-instances au sein d'une même région peut consommer jusqu'à 5 Gbit/s pour un flux individuel, et jusqu'à 100 Gbit/s pour un trafic à flux multiples dans chaque direction (full duplex). Le trafic vers et depuis les compartiments S3 d'une même région peut utiliser l'intégralité de la bande passante de toutes les instances disponibles. Lorsqu'elles sont lancées dans un groupe de placement, les instances peuvent consommer jusqu'à 10 Gbit/s pour un trafic à flux individuel, et jusqu'à 100 Gbit/s pour un trafic à flux multiples. Le trafic réseau vers Internet est limité à 5 Gbit/s (full duplex). La mise en réseau des clusters convient parfaitement aux systèmes d'analyse à hautes performances ainsi qu'à diverses applications scientifiques et d'ingénierie, notamment celles utilisant la norme de bibliothèque MPI pour la programmation parallèle.

Fonctionnalités du processeur Intel

Les instances Amazon EC2 qui utilisent un processeur Intel peuvent donner accès aux fonctionnalités de processeur suivantes :

  • Jeu d'instructions Intel AES-NI : le nouveau jeu d'instructions de chiffrement Intel AES-NI améliore l'algorithme Advanced Encryption Standard (AES) d'origine afin d'offrir une meilleure protection des données et une sécurité accrue. Toutes les instances EC2 de la génération actuelle prennent en charge cette fonctionnalité du processeur.
  • Extensions Intel Advanced Vector (Intel AVX, Intel AVX2 et AVX-512) : Intel AVX et Intel AVX2 sont des extensions de jeux d'instructions 256 bits et Intel AVX-512 est une extension 512 bits, toutes destinées aux applications exigeantes en matière de virgule flottante (FP). Les instructions Intel AVX améliorent les performances des applications telles que le traitement d'images et audio/vidéo, les simulations scientifiques, les analyses financières, ainsi que la modélisation et l'analyse 3D. Ces fonctionnalités ne sont disponibles que sur les instances lancées avec des AMI HVM.
  • Technologie Intel Turbo Boost : la technologie Intel Turbo Boost offre des performances accrues lorsque cela est nécessaire. Le processeur est capable d'exécuter automatiquement les cœurs à une fréquence plus rapide que celle du fonctionnement de base, afin de vous permettre de réaliser plus de tâches en moins de temps.
  • Intel Deep Learning Boost (Intel DL Boost) : un nouvel ensemble de technologies de processeur intégré conçu pour accélérer les cas d'utilisation de deep learning pour l'IA. Les processeurs évolutifs Intel Xeon de 2e génération étendent Intel AVX-512 avec une nouvelle instruction de réseau neuronal vectoriel (VNNI/INT8) qui augmente considérablement les performances d'inférence du deep learning par rapport aux processeurs Intel Xeon Scalable de génération précédente (avec FP32), pour la reconnaissance/segmentation d'image, la détection d'objet, la reconnaissance vocale, traduction, les systèmes de recommandation, l'apprentissage par renforcement, entre autres. VNNI peut ne pas être compatible avec toutes les distributions Linux. Consultez la documentation avant toute utilisation. 

Les fonctionnalités du processeur ne sont pas toutes disponibles pour certains types d'instances. Veuillez consulter le tableau des types d'instances pour plus d'informations sur les fonctionnalités disponibles pour chaque type d'instance.

Mesure des performances des instances

Pourquoi mesurer les performances des instances ?

Amazon EC2 vous permet de mettre en service divers types d'instances, lesquels correspondent à différentes combinaisons en termes de capacités de CPU, de mémoire, de disque et de mise en réseau. Il est facile de lancer de nouvelles instances et d'exécuter plusieurs tests en parallèle ; aussi, recommandons-nous de mesurer les performances des applications afin d'identifier les types d'instances les plus appropriés et de valider l'architecture de chaque application. Nous vous invitons également à conduire des tests de charge et de mise à l'échelle rigoureux afin de vérifier que vos applications pourront évoluer comme prévu.

Considérations relatives à l'évaluation des performances Amazon EC2

Amazon EC2 fournit diverses options à travers dix types d'instances distincts, lesquels incluent une ou plusieurs options de taille, le tout étant organisé au sein de familles d'instances optimisées pour différents types d'applications. Pour commencer à tester les performances de votre application, nous vous recommandons de déterminer les besoins de votre application et de sélectionner la famille d'instance la plus appropriée. Pour ce faire, vous devez (a) mettre en parallèle les besoins de votre application avec les caractéristiques des différentes familles d'instances (par ex., l'application est-elle dépendante des capacités de calcul ou de mémoire ?), et (b) redimensionner votre charge de travail afin d'identifier la taille d'instance appropriée. Rien ne remplace la mesure des performances de votre application complète, car les performances applicatives peuvent différer selon l'infrastructure sous-jacente ou les limites logicielles et architecturales. Nous vous recommandons un test au niveau de l'application, incluant l'utilisation d'outils et de services pour déterminer le profil d'application et effectuer un test de charge. Pour plus d'informations, ouvrez un dossier d'assistance et demandez des spécifications de performance réseau supplémentaires pour les types d'instances spécifiques qui vous intéressent.