Uso geral

Instâncias de uso geral fornecem um equilíbrio de recursos de computação, memória e rede e podem ser usadas para diversas cargas de trabalho. Essas instâncias são ideais para aplicativos que usam esses recursos em proporções iguais, como servidores da Web e repositórios de código. 

  • A1
  • T3
  • T3a
  • T2
  • M5
  • M5a
  • M5n
  • M4
  • A1
  • As instâncias A1 do Amazon EC2 oferecem economia substancial e são ideais para cargas de trabalho com escalabilidade horizontal baseadas em Arm com suporte do amplo ecossistema do Arm. As instâncias A1 são as primeiras instâncias do EC2 baseadas em processadores AWS Graviton, que oferecem núcleos Arm Neoverse de 64 bits e silício personalizado projetado pela AWS.

    Recursos:

    • Processador AWS Graviton Custom personalizado com núcleos Arm Neoverse de 64 bits
    • Suporte a redes avançadas com até 10 Gbps de largura de banda de rede
    • Otimizado para EBS por padrão
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    Instância vCPU Mem (GiB) Armazenamento Performance de rede (Gbps)
    a1.medium 1 2 Somente EBS
    Até 10
    a1.large 2 4 Somente EBS Até 10
    a1.xlarge 4 8 Somente EBS Até 10
    a1.2xlarge 8 16 Somente EBS Até 10
    a1.4xlarge 16 32 Somente EBS Até 10
    a1.metal 16* 32 Somente EBS Até 10

    *a1.metal fornece 16 núcleos físicos

    Todas as instâncias têm as seguintes especificações:

    Casos de uso:

    Cargas de trabalho aumentadas, como servidores da web, microsserviços em contêineres, frotas em cache e datastores distribuídos, além de ambientes de desenvolvimento.

  • T3
  • As instâncias T3 são o tipo de instância de uso geral com capacidade de intermitência de última geração que fornecem a um nível de linha de base de desempenho de CPU a capacidade de intermitência para uso de CPU a qualquer momento, pelo tempo que for necessário. As instâncias T3 oferecem equilíbrio entre recursos de computação, memória e rede, e foram projetadas para aplicativos com uso moderado de CPU que enfrentam picos temporários de uso.

    As instâncias T3 acumulam créditos de CPU quando uma carga de trabalho está operando abaixo do limite de referência. Cada crédito de CPU obtido permite que a instância T3 exceda o limite de referência com a performance de um núcleo de CPU completo por um minuto, quando necessário. As instâncias T3 são capazes de exceder o limite a qualquer momento, pelo tempo necessário, conforme exigido no modo Ilimitado.

    Recursos:

    • CPU com capacidade de intermitência, regida por créditos de CPU e performance de referência consistente
    • Modo ilimitado por padrão para garantir a performance durante períodos de pico e a opção de modo Standard para obter um custo mensal previsível
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    • A combinação entre o AWS Nitro System e os processadores escaláveis Intel Xeon de alta frequência resulta em um aprimoramento de performance de preço até 30% melhor em relação a instâncias T2
    Instância vCPU* Créditos de CPU/hora Mem (GiB) Armazenamento Performance de rede (Gbps)
    t3.nano 2
    6
    0,5 Somente EBS Até 5
    t3.micro 2
    12
    1 Somente EBS
    Até 5
    t3.small 2
    24
    2 Somente EBS
    Até 5
    t3.medium 2 24
    4 Somente EBS
    Até 5
    t3.large 2 36
    8 Somente EBS Até 5
    t3.xlarge 4 96
    16 Somente EBS Até 5
    t3.2xlarge 8 192
    32 Somente EBS Até 5

    Todas as instâncias têm as seguintes especificações:

    Casos de uso:

    Microsserviços, aplicativos interativos de baixa latência, bancos de dados de pequeno e médio porte, desktops virtuais, ambientes de desenvolvimento, repositórios de código e aplicativos essenciais aos negócios

  • T3a
  • As instâncias T3a são a última geração do tipo de instância de uso geral com capacidade de intermitência que fornecem uma linha de base de desempenho de CPU com capacidade de intermitência da CPU a qualquer momento e por quanto tempo for necessário. As instâncias T3a oferecem equilíbrio entre recursos de computação, memória e rede, e foram projetadas para aplicativos com uso moderado de CPU que enfrentam picos temporários de uso.

    As instâncias T3a acumulam créditos de CPU quando uma carga de trabalho está operando abaixo do limite de referência. Cada crédito de CPU obtido permite que a instância T3a exceda o limite de referência com a performance de um núcleo de CPU completo por um minuto, quando necessário. As instâncias T3a são capazes de exceder o limite a qualquer momento, pelo tempo necessário, conforme exigido no modo ilimitado.

    Recursos:

    • CPU com capacidade de intermitência, regida por créditos de CPU e performance de referência consistente
    • Modo ilimitado por padrão para garantir a performance durante períodos de pico e a opção de modo Standard para obter um custo mensal previsível
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    • A T3a oferece processadores AMD EPYC série 7000 de 2,5 GHz que proporcionam aos clientes uma economia de 10% em relação a instâncias T3
    Instância vCPU* Créditos de CPU/hora Mem (GiB) Armazenamento Performance de rede (Gbps)
    t3a.nano 2
    6
    0,5 Somente EBS Até 5
    t3a.micro 2
    12
    1 Somente EBS
    Até 5
    t3a.small 2
    24
    2 Somente EBS
    Até 5
    t3a.medium 2 24
    4 Somente EBS
    Até 5
    t3a.large 2 36
    8 Somente EBS Até 5
    t3a.xlarge 4 96
    16 Somente EBS Até 5
    t3a.2xlarge 8 192
    32 Somente EBS Até 5

    Todas as instâncias têm as seguintes especificações:

    Casos de uso:

    Microsserviços, aplicativos interativos de baixa latência, bancos de dados de pequeno e médio porte, desktops virtuais, ambientes de desenvolvimento, repositórios de código e aplicativos essenciais aos negócios

  • T2
  • As instâncias T2 são instâncias de performance com capacidade de intermitência que oferecem um nível de referência de performance de CPU com capacidade de intermitência acima da referência.

    As instâncias T2 ilimitadas podem manter a alta performance de CPU por tanto tempo quanto a carga de trabalho precisar. Para a maioria das cargas de trabalho de uso geral, as instâncias de T2 ilimitado fornecerão performance ampla sem cobranças adicionais. Se for necessário executar a instância com uma utilização maior da CPU para um período de tempo prolongado, isso também poderá ser feito com uma tarifa contínua de 5 cêntimos por hora de vCPU.

    A performance de referência e a capacidade de intermitência são regidas pelos créditos de CPU. As instâncias T2 recebem continuamente créditos de CPU a uma determinada razão, dependendo do tamanho da instância, e acumulam créditos de CPU quando ociosas e consomem esses créditos quando ativas. As instâncias T2 são uma boa opção para diversas cargas de trabalho de uso geral, incluindo microsserviços; aplicativos interativos de baixa latência; bancos de dados de pequeno e médio portes; desktops virtuais; ambientes de desenvolvimento, compilação e preparação; repositórios de código e protótipos de produtos. Para mais informações, leia Instâncias de performance com capacidade de intermitência.

    Recursos:

    • Processadores Intel Xeon de alta frequência
    • CPU com capacidade de intermitência, regida por créditos de CPU e performance de referência consistente
    • Tipo de instância de uso geral de custo mais baixo e elegível para o nível gratuito*
    • Equilíbrio entre recursos de computação, memória e rede

    * Somente t2.micro. Se configurada como T2 ilimitada, poderá incorrer em cobranças se a utilização média de CPU exceder a referência da instância. Leia nossa documentação para obter mais detalhes.

    Instância vCPU* Créditos de CPU/hora
    Mem (GiB)  Armazenamento
    Performance de rede
    t2.nano 1 3 0,5 Somente EBS Baixa
    t2.micro 1 6 1 Somente EBS
    Baixa a moderada
    t2.small 1 12 2 Somente EBS
    Baixa a moderada
    t2.medium 2 24 4 Somente EBS
    Baixa a moderada
    t2.large 2 36 8 Somente EBS Baixa a moderada
    t2.xlarge 4 54 16 Somente EBS Moderada
    t2.2xlarge 8 81 32 Somente EBS Moderada

    Todas as instâncias têm as seguintes especificações:

    • Intel AVX†, Intel Turbo†
    • t2.nano, t2.micro, t2.small e t2.medium têm processador escalável Intel de até 3.3 GHz
    • t2.large, t2.xlarge e t2.2xlarge têm processador escalável Intel de até 3.0 GHz

    Casos de uso

    Sites e aplicativos web, ambientes de desenvolvimento, servidores de compilação repositórios de código, microsserviços, ambientes de teste e preparação e aplicativos de linha de negócios.  

  • M5
  • As instâncias M5 são a última geração de instâncias de uso geral. Essa família oferece equilíbrio entre recursos de computação, memória e rede, sendo uma boa opção para muitos aplicativos.

    Recursos:

    • Processadores Intel Xeon® Platinum 8175 de até 3,1 GHz com o novo conjunto de instruções Intel Advanced Vector Extension (AVX-512)
    • Novo tamanho maior de instância, m5.24xlarge, que oferece 96 vCPUs e 384 GiB de memória
    • Até 25 Gbps de largura de banda de rede usando redes aperfeiçoadas
    • Exige AMIs HVM com drivers para ENA e NVMe
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    • O armazenamento de instâncias é oferecido por meio do EBS ou de SSDs NVMe fisicamente associados ao servidor host
    • Nas instâncias do M5d, os SSDs baseados em NVMe locais são fisicamente conectados ao servidor host e fornecem armazenamento em nível de bloco que é acoplado ao tempo de vida da instância do M5
    • Novos tamanhos 8xlarge e 16xlarge já estão disponíveis.
    Instância vCPU Memória (GiB) Armazenamento de instâncias (GiB) Largura de banda de rede (Gbps)
    Largura de banda do EBS (Mbps)
    m5.large 2 8 Somente EBS Até 10 Até 3.500
    m5.xlarge 4 16 Somente EBS Até 10 Até 3.500
    m5.2xlarge 8 32 Somente EBS Até 10 Até 3.500
    m5.4xlarge 16 64 Somente EBS Até 10 3.500
    m5.8xlarge 32 128 Somente EBS 10 5.000
    m5.12xlarge 48 192 Somente EBS 10 7.000
    m5.16xlarge 64 256 Somente EBS 20 10.000
    m5.24xlarge 96 384 Somente EBS 25 14.000
    m5.metal 96* 384 Somente EBS 25 14.000
    m5d.large 2 8 1 x 75 SSD NVMe Até 10 Até 3.500
    m5d.xlarge 4 16 1 x 150 SSD NVMe Até 10 Até 3.500
    m5d.2xlarge 8 32 1 x 300 SSD NVMe Até 10 Até 3.500
    m5d.4xlarge 16 64 2 x 300 SSD NVMe Até 10 3.500
    m5d.8xlarge 32 128 2 x 600 SSD NVMe 10 5.000
    m5d.12xlarge 48 192 2 x 900 SSD NVMe 10 7.000
    m5d.16xlarge 64 256 4 x 600 SSD NVMe 20 10.000
    m5d.24xlarge 96 384 4 x 900 SSD NVMe 25 14.000
    m5d.metal 96* 384 4 x 900 SSD NVMe 25 14.000

    * As instâncias m5.metal e m5d.metal oferecem 96 processadores lógicos em 48 núcleos físicos

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Bancos de dados de pequeno e médio porte, tarefas de processamento de dados que exigem memória adicional, frotas de armazenamento em cache e para executar servidores de backend para SAP, Microsoft SharePoint, computação em cluster e outros aplicativos empresariais

  • M5a
  • As instâncias M5a são a última geração de instâncias de uso geral. Essa família oferece equilíbrio entre recursos de computação, memória e rede, sendo uma boa opção para muitos aplicativos.

    Recursos:

    • Processadores AMD EPYC série 7000 com uma velocidade de clock turbo de 2.5 GHz em todos os núcleos
    • Novo tamanho maior de instância, m5.24xlarge, que oferece 96 vCPUs e 384 GiB de memória
    • Até 20 Gbps de largura de banda de rede usando redes avançadas
    • Exige AMIs HVM com drivers para ENA e NVMe
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    • O armazenamento de instâncias é oferecido por meio do EBS ou de SSDs NVMe fisicamente associados ao servidor host
    • Com as instâncias M5ad, os SSDs baseados em NVMe locais são fisicamente conectados ao servidor host e fornecem armazenamento em nível de bloco que é acoplado à vida útil da instância do M5a.
    • Novos tamanhos 8xlarge e 16xlarge já estão disponíveis.
    Instância vCPU Memória (GiB)
    Armazenamento de instâncias (GiB)
    Largura de banda de rede (Gbps) Largura de banda do EBS (Mbps)
    m5a.large 2 8 Somente EBS Até 10 Até 2.120
    m5a.xlarge 4 16 Somente EBS Até 10 Até 2.120
    m5a.2xlarge 8 32 Somente EBS Até 10 Até 2.120
    m5a.4xlarge 16 64 Somente EBS Até 10 2.120
    m5a.8xlarge 32 128 Somente EBS Até 10 3.500
    m5a.12xlarge 48 192 Somente EBS 10 5.000
    m5a.16xlarge 64 256 Somente EBS 12 7.000
    m5a.24xlarge 96 384 Somente EBS 20 10.000
    m5ad.large 2 8 1 x 75 SSD NVMe Até 10 Até 2.120
    m5ad.xlarge 4 16 1 x 150 SSD NVMe Até 10 Até 2.120
    m5ad.2xlarge 8 32 1 x 300 SSD NVMe Até 10 Até 2.120
    m5ad.4xlarge 16 64 2 x 300 SSD NVMe Até 10 2.120
    m5ad.12xlarge 48 192 2 x 900 SSD NVMe 10 5.000
    m5ad.24xlarge 96 384 4 x 900 SSD NVMe 20 10.000

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Bancos de dados de pequeno e médio porte, tarefas de processamento de dados que exigem memória adicional, frotas de armazenamento em cache e para executar servidores de backend para SAP, Microsoft SharePoint, computação em cluster e outros aplicativos empresariais

  • M5n
  • As instâncias M5 são ideais para cargas de trabalho que exigem equilíbrio de recursos de processamento, memória e rede, incluindo servidores de web e aplicativos, bancos de dados pequenos e médios, processamento de cluster, servidores de jogos e frota de armazenamento de cache. As variáveis de instâncias de bandas maiores, M5n e M5dn, são ideais para aplicativos que podem se beneficiar de níveis mais altos de taxa de transferência de rede e performance de taxa de pacotes.
    Recurso:

    • Processadores escaláveis Intel Xeon de 2ª geração (Cascade Lake) com uma frequência de CPU de turbo de todos os núcleos de 3.1GHz e frequência máxima de turbo de núcleo único de 3.5GHz 
    • Suporta o novo Intel Vector Neural Network Instructions (AVX-512 VNNI), que ajuda a acelerar operações comuns de machine learning, como convolução, e aprimora automaticamente a performance de inferências em uma grande variedade de cargas de trabalho de aprendizagem profunda
    • 25 Gbps de banda de pico em tamanhos de instância pequena 
    • 100 Gbps de banda de rede nos tamanhos de instância grande
    • Exige AMIs HVM com drivers para ENA e NVMe
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve 
    • O armazenamento de instâncias é oferecido por meio do EBS ou de SSDs NVMe fisicamente associados ao servidor host 
    • Nas instâncias do M5dn, os SSDs baseados em NVMe locais são fisicamente conectados ao servidor host e fornecem armazenamento em nível de bloco que é acoplado ao tempo de vida da instância do M5
    Instância vCPU Memória (GiB) Armazenamento de instâncias (GiB) Largura de banda de rede (Gbps)
    Largura de banda do EBS (Mbps)
    m5n.large 2 8 Somente EBS Até 25 Até 3.500
    m5n.xlarge 4 16 Somente EBS Até 25 Até 3.500
    m5n.2xlarge 8 32 Somente EBS Até 25 Até 3.500
    m5n.4xlarge 16 64 Somente EBS Até 25 3.500
    m5n.8xlarge 32 128 Somente EBS 25 5.000
    m5n.12xlarge 48 192 Somente EBS 50 7.000
    m5n.16xlarge 64 256 Somente EBS 75 10.000
    m5n.24xlarge 96 384 Somente EBS 100 14.000
    m5dn.large 2 8 1 x 75 SSD NVMe Até 25 Até 3.500
    m5dn.xlarge 4 16 1 x 150 SSD NVMe Até 25 Até 3.500
    m5dn.2xlarge 8 32 1 x 300 SSD NVMe Até 25 Até 3.500
    m5dn.4xlarge 16 64 2 x 300 SSD NVMe Até 25 3.500
    m5dn.8xlarge 32 128 2 x 600 SSD NVMe 25 5.000
    m5dn.12xlarge 48 192 2 x 900 SSD NVMe 50 7.000
    m5dn.16xlarge 64 256 4 x 600 SSD NVMe 75 10.000
    m5dn.24xlarge 96 384 4 x 900 SSD NVMe 100 14.000

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Servidores de aplicativos e da web, bancos de dados pequenos e médios, processamento de cluster, servidores de jogos, frotas de armazenamento em cache e outros aplicativos empresariais

  • M4
  • As instâncias M4 oferecem recursos equilibrados de computação, memória e rede e são uma boa opção para muitos aplicativos.

    Recursos:

    • Processadores Intel Xeon® E5-2686 v4 (Broadwell) de 2,3 GHz ou processadores Intel Xeon® E5-2676 v3 (Haswell) de 2,4 GHz
    • Otimizado para EBS por padrão, sem custo adicional
    • Suporte a redes avançadas
    • Equilíbrio entre recursos de computação, memória e rede
    Instância vCPU* Mem (GiB) Armazenamento Largura de banda dedicada do EBS (Mbps) Performance de rede
    m4.large 2 8 Somente EBS 450 Moderada
    m4.xlarge 4 16 Somente EBS 750 Alta
    m4.2xlarge 8 32 Somente EBS 1.000 Alta
    m4.4xlarge 16 64 Somente EBS 2.000 Alta
    m4.10xlarge 40 160 Somente EBS 4.000 10 Gigabit
    m4.16xlarge 64 256 Somente EBS 10.000 25 Gigabit

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Bancos de dados de pequeno e médio porte, tarefas de processamento de dados que exigem memória adicional, frotas de armazenamento em cache e para executar servidores de backend para SAP, Microsoft SharePoint, computação em cluster e outros aplicativos empresariais.

Cada vCPU é um thread de um núcleo Intel Xeon ou de um núcleo AMD EPYC, exceto para as instâncias A1, instâncias T2 e m3.medium.

Cada vCPU em instâncias A1 é um núcleo de um processador AWS Graviton.

† AVX, AVX2 e redes avançadas estão disponíveis apenas em instâncias executadas com AMIs de HVM.

* O número padrão e máximo de vCPUs disponíveis para esse tipo de instância. Você pode especificar um número personalizado de vCPUs ao iniciar esse tipo de instância. Para obter mais detalhes sobre as quantidades válidas de vCPU e sobre como começar a usar esse recurso, acesse a página de documentação sobre otimização de CPUs aqui.

** Essas instâncias M4 podem ser executadas em um processador Intel Xeon E5-2686 v4 (Broadwell).  

Otimizadas para computação

As instâncias otimizadas para computação são ideais para aplicativos vinculados a computação que se beneficiam de processadores de alto desempenho. As instâncias pertencentes a essa família são adequadas para cargas de trabalho de processamento em lote, transcodificação de mídia, servidores da Web de alto desempenho, computação de alto desempenho (HPC), modelagem científica, servidores de jogos dedicados e mecanismos de servidor de anúncios, inferência de machine learning e outros aplicativos de uso intensivo de computação.

  • C5
  • C5n
  • C4
  • C5
  • As instâncias C5 são otimizadas para cargas de trabalho com uso intensivo de computação e oferecem performance alta e econômica a um preço baixo por taxa computação.

    Recursos:

    • As instâncias C5 oferecem opções de processadores de acordo com o tamanho da instância.
    • As novas instâncias C5 e C5d 12xlarge, 24xlarge e metal oferecem processadores Intel Xeon Scalable de segunda geração (Cascade Lake) personalizados com uma frequência turbo sustentada de 3,6 GHz em todos os núcleos e uma frequência turbo de até 3,9 GHz em um único núcleo.
    • Os outros tamanhos das instâncias C5 serão executados no processador Intel Xeon Scalable de segunda geração (Cascade Lake) ou no processador Intel Xeon Platinum série 8000 de primeira geração (Skylake-SP) com uma frequência turbo sustentada de 3,4 GHz em todos os núcleos e uma frequência máxima turbo de até 3,5 GHz em um único núcleo.
    • O novo tamanho de instância maior de 24xlarge oferece 96 vCPUs, 192 GiB de memória e 3,6 TB de SSDs com base em NVMe locais opcionais
    • Exige AMIs HVM com drivers para ENA e NVMe
    • Com as instâncias C5d, os SSDs locais baseados em NVMe são conectados fisicamente ao servidor host e oferecem armazenamento de blocos acoplado ao tempo de vida da instância C5
    • O Elastic Network Adapter (ENA) oferece instâncias C5 com até 25 Gbps de largura de banda de rede e até 14 Gbps de largura de banda dedicada ao Amazon EBS.
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    Instância vCPU Memória (GiB) Armazenamento de instâncias (GiB) Largura de banda de rede (Gbps) Largura de banda do EBS (Mbps)
    c5.large 2 4 Somente EBS Até 10 Até 3.500
    c5.xlarge 4 8 Somente EBS Até 10 Até 3.500
    c5.2xlarge 8 16 Somente EBS Até 10 Até 3.500
    c5.4xlarge 16 32 Somente EBS Até 10 3.500
    c5.9xlarge 36 72 Somente EBS 10 7.000
    c5.12xlarge 48 96 Somente EBS 12 7.000
    c5.18xlarge 72 144 Somente EBS 25 14.000
    c5.24xlarge 96 192 Somente EBS 25 14.000
    c5.metal 96 192 Somente EBS 25 14.000
    c5d.large 2 4 1 x 50 SSD NVMe Até 10 Até 3.500
    c5d.xlarge 4 8 1 x 100 SSD NVMe Até 10 Até 3.500
    c5d.2xlarge 8 16 1 x 200 SSD NVMe Até 10 Até 3.500
    c5d.4xlarge 16 32 1 x 400 SSD NVMe Até 10 3.500
    c5d.9xlarge 36 72 1 x 900 SSD NVMe 10 7.000
    c5d.12xlarge 48 96 2 x 900 SSD NVMe 12 7.000
    c5d.18xlarge 72 144 2 x 900 SSD NVMe 25 14.000
    c5d.24xlarge 96 192 4 x 900 SSD NVMe 25 14.000
    c5d.metal 96 192 4 x 900 SSD NVMe 25 14.000

    As instâncias C5 e C5d 12xlarge, 24xlarge e metal têm as seguintes especificações:

    Todas as instâncias C5 e C5d têm as seguintes especificações:

    • Processadores Intel Xeon Scalable de segunda geração (Cascade Lake) personalizados com uma frequência turbo sustentada de 3,6 GHz em todos os núcleos e uma frequência turbo de até 3,9 GHz em um único núcleo ou processador Intel Xeon Platinum série 8000 de primeira geração (Skylake-SP) com uma frequência turbo sustentada de 3,4 GHz em todos os núcleos e uma frequência máxima turbo de até 3,5 GHz em um único núcleo.
    • Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
    • Otimizado para EBS
    • Redes avançadas†

    Casos de uso

    Servidores web de alta performance, modelagem científica, processamento de lotes, análises distribuídas, computação de alta performance (HPC), inferência de Machine Learning/aprendizado profundo, veiculação de anúncios, jogos multijogador altamente escaláveis e codificação de vídeo.

  • C5n
  • As instâncias C5n são ideias para aplicativos de computação de alta performance (incluindo cargas de trabalho, data lakes, e equipamentos de rede de computação de alta performance (HPC), como firewalls e roteadores) que podem aproveitar a taxa de transferência de rede melhorada e do desempenho do taxa de pacotes. As instâncias C5n oferecem até 100 Gbps de largura de banda de rede e memória maior em relação a instâncias C5 comparáveis. As instâncias C5n.18xlarge são compatíveis com Elastic Fabric Adapter (EFA), uma interface de rede para instâncias do Amazon EC2 que habilita os clientes a executar aplicativos que exigem altos níveis de comunicações entre nós, como aplicativos High Performance Computing (HPC), que usam a Message Passing Interface (MPI, Interface de passagem de mensagens), em escala na AWS.

    Recursos:

    • Processadores Intel Xeon Platinum 3,0 GHz com o conjunto de instruções Intel Advanced Vector Extension 512 (AVX-512)
    • Execução de cada núcleo a até 3.5 GHz usando a Intel Turbo Boost Technology
    • Tamanho de instância maior, c5n.18xlarge, que oferece 72 vCPUs e 192 GiB de memória
    • Exige AMIs HVM com drivers para ENA e NVMe
    • A largura de banda da rede aumenta para até 100 Gbps, fornecendo desempenho aumentado para aplicativos com uso intensivo de rede.
    • Suporte a EFA nas instâncias C5n.18xlarge
    • Espaço de memória 33% maior comparado a instâncias C5
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    Instância vCPU* Mem (GiB) Armazenamento Largura de banda dedicada do EBS (Mbps) Performance de rede (Gbps)
    c5n.large 2 5.25 Somente EBS Até 3.500 Até 25
    c5n.xlarge 4 10.5 Somente EBS Até 3.500 Até 25
    c5n.2xlarge 8 21 Somente EBS Até 3.500 Até 25
    c5n.4xlarge 16 42 Somente EBS 3.500 Até 25
    c5n.9xlarge 36 96 Somente EBS 7.000 50
    c5n.18xlarge 72 192 Somente EBS 14.000 100
    c5n.metal 72 192 Somente EBS 14.000 100

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Servidores web de alta performance, modelagem científica, processamento de lotes, análises distribuídas, computação de alta performance (HPC), inferência de Machine Learning/aprendizado profundo, veiculação de anúncios, jogos multijogador altamente escaláveis e codificação de vídeo.

  • C4
  • As instâncias C4 são otimizadas para cargas de trabalho com uso intensivo de computação e oferecem alto desempenho e grande economia com uma baixa relação de preço por desempenho de computação.

    Recursos:

    • Processadores Intel Xeon E5-2666 v3 (Haswell) de alta frequência otimizados especificamente para o EC2
    • Otimização para EBS por padrão para maior performance de armazenamento sem custo adicional
    • Maior performance de rede com redes avançadas compatíveis com Intel 82599 VF
    • Exige Amazon VPC, Amazon EBS e AMIs HVM de 64 bits
    Instância vCPU* Mem (GiB) Armazenamento Largura de banda dedicada do EBS (Mbps) Performance de rede
    c4.large 2 3,75 Somente EBS 500 Moderada
    c4.xlarge 4 7,5 Somente EBS 750 Alta
    c4.2xlarge 8 15 Somente EBS 1.000 Alta
    c4.4xlarge 16 30 Somente EBS 2.000 Alta
    c4.8xlarge 36 60 Somente EBS 4.000 10 Gigabit

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Frotas de front-end de alta performance, servidores da web, processamento em lotes, análises distribuídas, aplicativos científicos e de engenharia de alta performance, veiculação de anúncios, jogos MMO e codificação de vídeo.

Cada vCPU é um thread de um núcleo Intel Xeon ou de um núcleo AMD EPYC, exceto para T2 e m3.medium.

† AVX, AVX2 e redes avançadas estão disponíveis apenas em instâncias executadas com AMIs de HVM.

* O número padrão e máximo de vCPUs disponíveis para esse tipo de instância. Você pode especificar um número personalizado de vCPUs ao iniciar esse tipo de instância. Para obter mais detalhes sobre as quantidades válidas de vCPU e sobre como começar a usar esse recurso, acesse a página de documentação sobre otimização de CPUs aqui.

** Essas instâncias M4 podem ser executadas em um processador Intel Xeon E5-2686 v4 (Broadwell).  

Otimizadas para memória

As instâncias otimizadas de memória são projetadas para fornecer desempenho rápido para cargas de trabalho que processam grandes conjuntos de dados na memória.

  • R5
  • R5a
  • R5n
  • R4
  • X1e
  • X1
  • Mais memória
  • z1d
  • R5
  • As instâncias R5 fornecem 5% a mais de memória por vCPU que as R4 e a maior instância R5 fornece 768 GiB de memória. Além disso, as instâncias R5 oferecem um aprimoramento de preço de 10% por GiB e um aumento de performance de CPU de aproximadamente 20% em relação às instâncias R4.

    Recursos:

    • Processadores Intel Xeon® Platinum 8175 de até 3,1 GHz com o novo conjunto de instruções Intel Advanced Vector Extension (AVX-512)
    • Até 768 GiB de memória por instância
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    • Com instâncias R5d, os SSDs baseados em NVMe locais são conectados fisicamente ao servidor host e fornecem armazenamento em nível de bloco que é acoplado ao tempo de vida da instância do R5
    • Novos tamanhos 8xlarge e 16xlarge já estão disponíveis.
    Instância vCPU Memória (GiB) Armazenamento de instâncias (GiB) Performance de rede (Gbps) Largura de banda do EBS (Mbps)
    r5.large 2 16 Somente EBS até 10 até 3.500
    r5.xlarge 4 32 Somente EBS até 10 até 3.500
    r5.2xlarge 8 64 Somente EBS até 10 até 3.500
    r5.4xlarge 16 128 Somente EBS até 10 3.500
    r5.8xlarge 32 256 Somente EBS 10 5.000
    r5.12xlarge 48 384 Somente EBS 10 7.000
    r5.16xlarge 64 512 Somente EBS 20 10.000
    r5.24xlarge 96 768 Somente EBS 25 14.000
    r5.metal 96* 768 Somente EBS 25 14.000
    r5d.large 2 16 1 x 75 SSD NVMe até 10 até 3.500
    r5d.xlarge 4 32 1 x 150 SSD NVMe até 10 até 3.500
    r5d.2xlarge 8 64 1 x 300 SSD NVMe até 10 até 3.500
    r5d.4xlarge 16 128 2 x 300 SSD NVMe até 10 3.500
    r5d.8xlarge 32 256 2 x 600 SSD NVMe 10 5.000
    r5d.12xlarge 48 384 2 x 900 SSD NVMe 10 7.000
    r5d.16xlarge 64 512 4 x 600 SSD NVMe 20 10.000
    r5d.24xlarge 96 768 4 x 900 SSD NVMe 25 14.000
    r5d.metal 96* 768 4 x 900 SSD NVMe 25 14.000

    *As instâncias r5.metal e r5d.metal oferecem 96 processadores lógicos em 48 núcleos físicos

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    As instâncias R5 são bastante adequadas para aplicativos com uso intensivo de memória, como bancos de dados de alta performance, caches em memória distribuídos na escala da web, bancos de dados em memória de porte médio, análises de big data em tempo real e outros aplicativos empresariais.

  • R5a
  • As instâncias R5a fornecem 5% a mais de memória por vCPU que as R4 e a maior instância R5 fornece 768 GiB de memória. Além disso, as instâncias R5a oferecem uma redução de preço por GiB de 10% e um aumento de performance de CPU de aproximadamente 20% em relação às instâncias R4.

    Recursos:

    • Até 768 GiB de memória por instância
    • Processadores AMD EPYC série 7000 com uma velocidade de clock turbo de 2.5 GHz em todos os núcleos
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    • Com as instâncias R5ad, os SSDs locais baseados em NVMe são fisicamente conectados ao servidor host e oferecem armazenamento em nível de bloco vinculado à existência da instância R5a
    • Novos tamanhos 8xlarge e 16xlarge já estão disponíveis.
    Instância vCPU Memória (GiB) Armazenamento de instâncias (GiB) Performance de rede (Gbps) Largura de banda do EBS (Mbps)
    r5a.large 2 16
    Somente EBS Até 10 
    até 2.120
    r5a.xlarge 4 32 Somente EBS Até 10  até 2.120
    r5a.2xlarge 8 64 Somente EBS Até 10  até 2.120
    r5a.4xlarge 16 128 Somente EBS Até 10  2.120
    r5a.8xlarge 32 256 Somente EBS Até 10 3.500
    r5a.12xlarge 48 384 Somente EBS 10 5.000
    r5a.16xlarge 64 512 Somente EBS 12 7.000
    r5a.24.xlarge 96 768 Somente EBS 20 10.000
    r5ad.large 2 16 1 x 75 SSD NVMe Até 10
    até 2.120
    r5ad.xlarge 4 32 1 x 150 SSD NVMe Até 10
    até 2.120
    r5ad.2xlarge 8 64 1 x 300 SSD NVMe Até 10
    até 2.120
    r5ad.4xlarge 16 128 2 x 300 SSD NVMe Até 10
    2.120
    r5ad.12xlarge 48 384 2 x 900 SSD NVMe 10 5.000
    r5ad.24.xlarge 96 768 4 x 900 SSD NVMe 20 10.000

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    As instâncias R5a são bastante adequadas para aplicativos com uso intensivo de memória, como bancos de dados de alta performance, caches em memória distribuídos na escala da web, bancos de dados em memória de porte médio, análises de big data em tempo real e outros aplicativos empresariais.

  • R5n
  • As instâncias R5 são ideais para cargas de trabalho com uso intensivo de memória, incluindo bancos de dados de alta performance, caches distribuídos na memória na escala da web, bancos de dados na memória de porte médio, análises de big data em tempo real e outros aplicativos empresariais. As variáveis de instâncias de bandas maiores, R5n e R5dn, são ideais para aplicativos que podem se beneficiar de níveis mais altos de taxa de transferência de rede e performance de taxa de pacotes.

    Recursos:

    • Processadores escaláveis Intel Xeon de 2ª geração (Cascade Lake) com uma frequência de CPU de turbo de todos os núcleos de 3.1GHz e frequência máxima de turbo de núcleo único de 3.5GHz
    • Suporta o novo Intel Vector Neural Network Instructions (AVX-512 VNNI), que ajuda a acelerar operações comuns de machine learning, como convolução, e aprimora automaticamente a performance de inferências em uma grande variedade de cargas de trabalho de aprendizagem profunda
    • 25 Gbps de banda de pico em tamanhos de instância pequena
    • 100 Gbps de banda de rede nos tamanhos de instância grande
    • Exige AMIs HVM com drivers para ENA e NVMe
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    • O armazenamento de instâncias é oferecido por meio do EBS ou de SSDs NVMe fisicamente associados ao servidor host
    • Com instâncias R5dn, os SSDs baseados em NVMe locais são conectados fisicamente ao servidor host e fornecem armazenamento em nível de bloco que é acoplado ao tempo de vida da instância do R5
    Instância vCPU Memória (GiB) Armazenamento de instâncias (GiB) Performance de rede (Gbps) Largura de banda do EBS (Mbps)
    r5n.large 2 16 Somente EBS Até 25 Até 3.500
    r5n.xlarge 4 32 Somente EBS Até 25 Até 3.500
    r5n.2xlarge 8 64 Somente EBS Até 25 Até 3.500
    r5n.4xlarge 16 128 Somente EBS Até 25 3.500
    r5n.8xlarge 32 256 Somente EBS 25 5.000
    r5n.12xlarge 48 384 Somente EBS 50 7.000
    r5n.16xlarge 64 512 Somente EBS 75 10.000
    r5n.24xlarge 96 768 Somente EBS 100 14.000
    r5dn.large 2 16 1 x 75 SSD NVMe Até 25 Até 3.500
    r5dn.xlarge 4 32 1 x 150 SSD NVMe Até 25 Até 3.500
    r5dn.2xlarge 8 64 1 x 300 SSD NVMe Até 25 Até 3.500
    r5dn.4xlarge 16 128 2 x 300 SSD NVMe Até 25 3.500
    r5dn.8xlarge 32 256 2 x 600 SSD NVMe 25 5.000
    r5dn.12xlarge 48 384 2 x 900 SSD NVMe 50 7.000
    r5dn.16xlarge 64 512 4 x 600 SSD NVMe 75 10.000
    r5dn.24xlarge 96 768 4 x 900 SSD NVMe 100 14.000

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Bancos de dados de alta performance, caches distribuídos na memória na escala da web, bancos de dados na memória de porte médio, análises de big data em tempo real e outros aplicativos empresariais

  • R4
  • As instâncias R4 são otimizadas para aplicativos com uso intensivo de memória e oferecem um preço por GiB de RAM melhor que as instâncias R3.

    Recursos:

    • Processadores Intel Xeon E5-2686 v4 (Broadwell) de alta frequência
    • Memória DDR4
    • Suporte a redes avançadas
    Instância vCPU Mem (GiB) Armazenamento Performance de rede (Gbps)
    r4.large 2 15,25 Somente EBS Até 10
    r4.xlarge 4 30,5 Somente EBS Até 10
    r4.2xlarge 8 61 Somente EBS Até 10
    r4.4xlarge 16 122 Somente EBS Até 10
    r4.8xlarge 32 244 Somente EBS 10
    r4.16xlarge 64 488 Somente EBS 25

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Bancos de dados de alta performance, mineração e análise de dados, bancos de dados na memória, armazenamento distribuído em caches na memória com escala de web, aplicativos que executam processamento de big data não estruturado em tempo real, clusters de Hadoop/Spark e outros aplicativos empresariais.

  • X1e
  • As instâncias X1e são otimizadas para bancos de dados de alta performance, bancos de dados em memória e outros aplicativos empresariais com uso intensivo de memória. As instâncias X1e oferecem um dos menores preços por GiB de RAM entre os tipos de instância do Amazon EC2.

    Recursos:

    • Processadores Intel Xeon E7-8880 v3 (Haswell) de alta frequência
    • Um dos menores preços por GiB de RAM
    • Até 3.904 GiB de memória de instância baseada em DRAM
    • Armazenamento de instâncias em SSD para armazenamento temporário a nível de bloco e otimizado para EBS por padrão e sem custo adicional
    • Capacidade de controlar estados C e P do processador em instâncias x1e.32xlarge, x1e.16xlarge e x1e.8xlarge
    Instância vCPU Mem (GiB) Armazenamento em SSD (GB) Largura de banda dedicada do EBS (Mbps) Performance de redes
    x1e.xlarge 4 122 1 x 120 500 Até 10 Gigabit
    x1e.2xlarge 8 244 1 x 240 1.000 Até 10 Gigabit
    x1e.4xlarge 16 488 1 x 480 1.750 Até 10 Gigabit
    x1e.8xlarge 32 976 1 x 960 3.500 Até 10 Gigabit
    x1e.16xlarge 64 1.952 1 x 1.920 7.000 10 Gigabit
    x1e.32xlarge 128 3.904 2 x 1.920 14.000 25 Gigabit

    Todas as instâncias têm as seguintes especificações:

    Além disso, x1e.16xlarge e x1e.32xlarge têm

    Casos de uso

    Bancos de dados de alta performance, bancos de dados na memória (por exemplo, SAP HANA) e aplicativos intensivos de memória. Instâncias x1e.32xlarge são certificadas pela SAP para executar ambientes de produção do Business Suite S/4HANA, do Business Suite on HANA (SoH), do Business Warehouse on HANA (BW) e do Data Mart Solutions on HANA de próxima geração na Nuvem AWS.

  • X1
  • As instâncias X1 são otimizadas para aplicativos em memória, de grande escala e nível empresarial, e oferecem um dos menores preços por GiB de RAM entre os tipos de instância do Amazon EC2.

    Recursos:

    • Processadores Intel Xeon E7-8880 v3 (Haswell) de alta frequência
    • Um dos menores preços por GiB de RAM
    • Até 1.952 GiB de memória de instância baseada em DRAM
    • Armazenamento de instâncias em SSD para armazenamento temporário a nível de bloco e otimizado para EBS por padrão e sem custo adicional
    • Capacidade de controlar a configuração de estado C e estado P do processador
    Instância vCPU Mem (GiB) Armazenamento em SSD (GB) Largura de banda dedicada do EBS (Mbps) Performance de rede
    x1.16xlarge 64 976 1 x 1.920 7.000 10 Gigabit
    x1.32xlarge 128 1.952 2 x 1.920 14.000 25 Gigabit

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Bancos de dados na memória (por exemplo, SAP HANA), mecanismos de processamento de big data (por exemplo, Apache Spark ou Presto) e computação de alta performance (HPC). Certificado pela SAP para executar Business Warehouse on HANA (BW), Data Mart Solutions on HANA, Business Suite on HANA (SoH) e Business Suite S/4HANA.

  • Mais memória
  • As instâncias com mais memória foram criadas especificamente para executar grandes bancos de dados em memória, inclusive implantações de produção do SAP HANA, na nuvem.

    Recursos:

    • 6, 9, 12, 18 e 24 TiB de memória de instância, o maior de qualquer instância do EC2
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    • Performance sem sistema operacional com acesso direto ao hardware host
    • Otimizado para EBS por padrão, sem custo adicional
    • Disponível no Amazon Virtual Private Cloud (VPC)
    Nome Processadores lógicos* RAM (GiB) Perf. de rede (Gbps) Largura de banda dedicada do EBS (Gbps)
    u-6tb1.metal 448 6144 25 14
    u-9tb1.metal 448 9216 25 14
    u-12tb1.metal 448 12288 25 14
    u-18tb1.metal 448 18432 100 28
    u-24tb1.metal 448 24576 100 28

    * Cada processador lógico é uma hyperthread em 224 núcleos

    • Instâncias de 6, 9 e 12 TB baseadas em processadores Intel® Xeon® Platinum 8176M (Skylake) de 2.1 GHz (com Turbo Boost para 3.80 GHz)
    • Instâncias de 18 e 24 TB são baseadas em processadores da segunda geração Intel® Xeon® Scalable (Cascade Lake) de 2.7 GHz (com Turbo Boost para 4.0 GHz)

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Ideal para executar grandes bancos de dados corporativos, incluindo instalações de produção do banco de dados de memória SAP HANA na nuvem. Certificada pela SAP para executar Business Suite on HANA, Business Suite S/4HANA de próxima geração, Data Mart Solutions on HANA, Business Warehouse on HANA e SAP BW/4HANA em ambientes de produção.

  • z1d
  • As instâncias z1d do Amazon EC2 oferecem alta capacidade computacional e grandes quantidades de memória. As instâncias z1d de alta frequência oferecem uma frequência contínua de até 4,0 GHz em todos os núcleos, a mais rápida entre todas as instâncias de nuvem.

    Recursos:

    • Um processador Intel® Xeon® Scalable personalizado com uma frequência sustentada de até 4,0 GHz em todos os núcleos
    • Até 1,8 TB de armazenamento de instâncias
    • Grande capacidade de memória com até 384 GiB de RAM
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    • Nas instâncias z1d, os SSDs locais baseados em NVMe são fisicamente conectados ao servidor host e oferecem armazenamento a nível de bloco vinculado à existência da instância z1d
    Instância vCPU Mem (GiB) Performance de redes Armazenamento em SSD (GB)
    z1d.large 2 16 Até 10 Gigabit 1 x 75 SSD NVMe
    z1d.xlarge 4 32 Até 10 Gigabit 1 x 150 SSD NVMe
    z1d.2xlarge 8 64 Até 10 Gigabit 1 x 300 SSD NVMe
    z1d.3xlarge 12 96 Até 10 Gigabit 1 x 450 SSD NVMe
    z1d.6xlarge 24 192 10 Gigabit 1 x 900 SSD NVMe
    z1d.12xlarge 48 384 25 Gigabit 2 x 900 SSD NVMe
    z1d.metal 48* 384 25 Gigabit 2 x 900 SSD NVMe

    *A instância z1d.metal oferece 48 processadores lógicos em 24 núcleos físicos

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Ideal para cargas de trabalho de Electronic Design Automation (EDA – Automação de projetos eletrônicos) e alguns bancos de dados relacionais com alto custo de licenciamento por núcleo.

Computação acelerada

Instâncias de computação aceleradas usam aceleradores de hardware, ou coprocessadores, para executar funções, como cálculos de número de ponto flutuante, processamento de gráficos ou correspondência de padrões de dados, mais eficientemente do que é possível no software em execução nas CPUs.

  • P3
  • P2
  • G4
  • G3
  • F1
  • P3
  • As instâncias P3 são a geração mais recente de instâncias de GPU computacionais de uso geral.

    Recursos:

    • Até 8 GPUs NVIDIA Tesla V100 GPUs, cada uma emparelhando 5.120 núcleos CUDA e 640 núcleos Tensor
    • Processadores Intel Xeon E5-2686 v4 (Broadwell) de alta frequência para p3.2xlarge, p3.8xlarge e p3.16xlarge.
    • Processadores Intel Xeon P-8175M de 2.5-GHz (base) de alta frequência para p3dn.24xlarge.
    • Suporte a NVLink para comunicação peer-to-peer entre GPUs
    • Oferece até 100 Gbps de largura de banda de rede agregada.
    • Suporte a EFA nas instâncias p3dn.24xlarge
    Instância GPUs vCPU Mem (GiB) Mem GPU (GiB) P2P entre GPUs Armazenamento (GB) Largura de banda dedicada do EBS   Performance de redes
    p3.2xlarge 1 8 61 16 Somente EBS 1.5 Gbps Até 10 Gigabit
    p3.8xlarge 4 32 244 64 NVLink Somente EBS 7 Gbps 10 Gigabit
    p3.16xlarge 8 64 488 128 NVLink Somente EBS 14 Gbps 25 Gigabit
    p3dn.24xlarge 8 96 768 256 NVLink 2 x 900 SSD NVMe 14 Gbps 100 Gigabit

    Todas as instâncias têm as seguintes especificações:

     
    As instâncias p3.2xlarge, p3.8xlarge e p3.16xlarge têm processadores Intel Xeon E5-2686 v4 de 2.3 GHz (base) e de 2.7 GHz (turbo).  
     
    A p3dn.24xlarge tem processadores Intel Xeon P-8175M de 2,5 GHz (básicos) e 3,1 GHz (sustentado em todos os núcleos) e são compatíveis com Intel AVX-512. As instâncias p3dn.24xlarge também são compatíveis com Elastic Fabric Adapter (EFA) que habilita aplicativos High Performance Computing (HPC) que usam a Message Passing Interface (MPI, Message Passing Interface) e aplicativos de Machine Learning (ML) que usam a NVIDIA Collective Communications Library (NCCL) para escalar para milhares de GPUs.

    Casos de uso

    Aprendizado profundo/de máquina, computação de alta performance, fluidodinâmica computacional, finanças computacionais, análise sísmica, reconhecimento de fala, veículos autônomos e descoberta de medicamentos.

  • P2
  • As instâncias P2 são destinadas a aplicativos de computação GPU de uso geral.

    Recursos:

    • Processadores Intel Xeon E5-2686 v4 (Broadwell) de alta frequência
    • GPUs NVIDIA K80 de alta performance, cada uma com 2.496 núcleos de processamento paralelo e 12 GiB de memória de GPU
    • Suporte a GPUDirect™ para comunicação peer-to-peer entre GPUs
    • Oferta de redes avançadas usando o Elastic Network Adapter (ENA) com até 25 Gbps de largura de banda de rede agregada em um placement group
    • Otimizado para EBS por padrão, sem custo adicional
    Instância GPUs vCPU Mem (GiB) Memória de GPU (GiB) Performance de rede
    p2.xlarge 1 4 61 12 Alta
    p2.8xlarge 8 32 488 96 10 Gigabit
    p2.16xlarge 16 64 732 192 25 Gigabit

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Machine Learning, bancos de dados de alta performance, fluidodinâmica computacional, finanças computacionais, análises sísmicas, modelagem molecular, genômica, renderização e outras cargas de trabalho de GPU computacionais do lado do servidor.

  • G4
  • As instâncias G4 foram projetadas para ajudar a acelerar a inferência de machine learning e as cargas de trabalho com muitos gráficos.

    Recursos:

    • Processadores Intel Xeon Scalable (Cascade Lake) da 2ª geração
    • GPUs NVIDIA T4 Tensor Core
    • Até 100 Gbps de taxa de transferência de rede
    • Até 1,8 TB de armazenamento NVMe local
      Instância GPUs vCPU Memória (GB) Memória de GPU (GB) Armazenamento da instância (GB) Performance de rede (Gbps)
    VMs com uma GPU g4dn.xlarge 1 4 16 16 125 Até 25
    g4dn.2xlarge 1 8
    32 16 225 Até 25
    g4dn.4xlarge 1 16 64 16 225 Até 25
    g4dn.8xlarge 1 32 128 16 1x900 50
    g4dn.16xlarge 1 64 256 16 1x900 50
                   
    VMs com várias GPUs g4dn.12xlarge 4 48 192 64 1x900 50
    g4dn.metal* 8 96 384 128 2x900 100

    *em breve

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Inferência de machine learning para aplicativos como adicionar metadados a uma imagem, detecção de objetos, sistemas de recomendação, reconhecimento automático de fala e tradução de idiomas. As instâncias G4 também fornecem uma plataforma muito econômica para criar e executar aplicativos com uso intensivo de gráficos, como estações de trabalho remotas, transcodificação de vídeo, design fotorrealista e streaming de jogos na nuvem.  

  • G3
  • As instâncias G3 são otimizadas para aplicativos com alto consumo de gráficos.

    Recursos:

    • Processadores Intel Xeon E5-2686 v4 (Broadwell) de alta frequência
    • GPUs NVIDIA Tesla M60, cada uma com 2.048 núcleos de processamento paralelo e 8 GiB de memória de vídeo
    • Habilita os recursos do NVIDIA GRID Virtual Workstation, incluindo o suporte a quatro monitores com resoluções de até 4096x2160. Cada GPU incluída na sua instância está licenciada para um “usuário simultâneo conectado”
    • Habilita os recursos do NVIDIA GRID Virtual Application para software de virtualização de aplicativos, como o Citrix XenApp Essentials e o VMware Horizon, comportando até 25 usuários concomitantes por GPU
    • Cada GPU apresenta um codificador de vídeo de hardware integrado compatível com até 10 streams H.265 (HEVC) com resolução de 1080p30 e até 18 streams H.264, também com resolução de 1080p30, permitindo a captura e a codificação de quadros com baixa latência, além de experiências interativas de streaming de alta qualidade
    • Redes avançadas usando o Elastic Network Adapter (ENA) com 25 Gbps de largura de banda de rede agregada em um placement group
    Instância GPUs vCPU Mem (GiB) Memória de GPU (GiB) Performance de rede
    g3s.xlarge 1 4 30,5 8 Até 10 Gigabit
    g3.4xlarge 1 16 122 8 Até 10 Gigabit
    g3.8xlarge 2 32 244 16 10 Gigabit
    g3.16xlarge 4 64 488 32 25 Gigabit

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Visualizações em 3D, estações de trabalho remotas com alto consumo de gráficos, renderização em 3D, streaming de aplicativos, codificação de vídeo, além de outras cargas de trabalho gráficas no lado do servidor.

  • F1
  • As instâncias F1 oferecem aceleração de hardware personalizável com FPGAs (Field Programmable Gate Arrays – Arranjos programáveis de portas em campo).

    Recursos das instâncias:

    • Processadores Intel Xeon E5-2686 v4 (Broadwell) de alta frequência
    • Armazenamento SSD NVMe
    • Suporte a redes avançadas

    Recursos da FPGA:

    • FPGAs Xilinx Virtex UltraScale+ VU9P
    • 64 GiB de memória com proteção ECC em 4x DDR4
    • Interface PCI-Express x16 dedicada
    • Aproximadamente 2,5 milhões de elementos de lógica
    • Aproximadamente 6.800 mecanismos de Digital Signal Processing (DSP)
    • AMI para desenvolvedores de FPGA
    Instância FPGAs vCPU Mem (GiB) Armazenamento em SSD (GB) Performance de redes
    f1.2xlarge 1 8 122 470 Até 10 Gigabit
    f1.4xlarge 2 16 244 940 Até 10 Gigabit
    f1.16xlarge 8 64 976 4 x 940 25 Gigabit

    Para instâncias f1.16xlarge, a malha dedicada de PCI-e permite que as FPGAs compartilhem o mesmo espaço em memória e se comuniquem entre si em toda a malha com até 12 Gbps em cada direção. As FPGAs nas instâncias f1.16xlarge compartilham acesso a um anel bidirecional de 400 Gbps que oferece comunicação de baixa latência e ampla largura de banda.

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Pesquisa de genomas, análises financeiras, processamento de vídeo em tempo real, pesquisa e análise de big data, além de segurança.

Otimizadas para armazenamento

As instâncias otimizadas para armazenamento são projetadas para cargas de trabalho que exigem acesso de leitura e gravação sequencial alto a conjuntos de dados muito grandes no armazenamento local. Elas são otimizadas para fornecer dezenas de milhares de operações de E/S aleatórias de baixa latência por segundo (IOPS) para aplicativos.

  • I3
  • I3en
  • D2
  • H1
  • I3
  • Esta família de instâncias oferece armazenamento de instâncias baseado em SSD Non-Volatile Memory Express (NVMe), otimizado para baixa latência, altíssima performance de E/S aleatória, alta taxa de transferência de leitura sequencial e alta IOPS a um baixo custo. A I3 também oferece instâncias sem sistema operacional (i3.metal), habilitadas pelo Nitro System, para cargas de trabalho não virtualizadas, que se beneficiam com o acesso a recursos físicos ou que podem apresentar restrições de licenciamento.

    Recursos:

    • Processadores Intel Xeon E5-2686 v4 (Broadwell) de alta frequência com frequência base de 2,3 GHz
    • Até 25 Gbps de largura de banda usando redes avançadas baseadas em Elastic Network Adapter (ENA)
    • Alta performance de E/S aleatória e alto throughput de leitura sequencial
    • Suporte para tamanho de instância sem sistema operacional para cargas de trabalho que se beneficiam com o acesso direto a processadores e memória físicos
    Instância vCPU* Mem (GiB) Armazenamento local (GB) Desempenho de rede (Gbps)
    i3.large 2 15,25 1 x 475 SSD NVMe Até 10
    i3.xlarge 4 30,5 1 x 950 SSD NVMe Até 10
    i3.2xlarge 8 61 1 x 1.900 SSD NVMe Até 10
    i3.4xlarge 16 122 2 x 1.900 SSD NVMe Até 10
    i3.8xlarge 32 244 4 x 1.900 SSD NVMe 10
    i3.16xlarge 64 488 8 x 1.900 SSD NVMe 25
    i3.metal 72** 512 8 x 1.900 SSD NVMe 25

     

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Bancos de dados NoSQL (p. ex., Cassandra, MongoDB, Redis), bancos de dados em memória (p. ex., Aerospike), bancos de dados transacionais com escalabilidade horizontal, data warehousing, Elasticsearch e cargas de trabalho de análise.

  • I3en
  • Essa família de instâncias oferece armazenamento denso de instâncias SSD NVMe (Non-Volatile Memory Express), otimizado para baixa latência, alto desempenho de E/S aleatória e alta taxa de transferência de disco sequencial, além de oferecer o menor preço por GB de armazenamento de instâncias SSD no Amazon EC2. A I3en também oferece instâncias sem sistema operacional (i3en.metal), habilitadas pelo Nitro System, para cargas de trabalho não virtualizadas, que se beneficiam com o acesso a recursos físicos ou que podem apresentar restrições de licenciamento.

    Recursos:

    • Até 60 TB de armazenamento de instâncias SSD NVMe
    • Até 100 Gbps de largura de banda usando redes avançadas baseadas em Elastic Network Adapter (ENA)
    • Alto desempenho de E/S aleatória e alto transferência de disco sequencial
    • Processadores Intel® Xeon® Scalable (Skylake) de até 3.1 GHz com o novo conjunto de instruções Intel Advanced Vector Extension (AVX-512)
    • Habilitado pelo AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve
    • Suporte para tamanho de instância sem sistema operacional para cargas de trabalho que se beneficiam com o acesso direto a processadores e memória físicos
    • Suporte para Elastic Fabric Adapter na i3en.24xlarge
    Instância vCPU Mem (GiB) Armazenamento local (GB) Largura de banda de rede
    i3en.large 2 16 1 x 1.250 SSD NVMe
    Até 25 Gbps
    i3en.xlarge 4 32 1 x 2.500 SSD NVMe
    Até 25 Gbps
    i3en.2xlarge 8 64 2 x 2.500 SSD NVMe
    Até 25 Gbps
    i3en.3xlarge 12 96 1 x 7.500 SSD NVMe
    Até 25 Gbps
    i3en.6xlarge 24 192 2 x 7.500 SSD NVMe
    25 Gbps
    i3en.12xlarge 48 384 4 x 7.500 SSD NVMe
    50 Gbps
    i3en.24xlarge
    96 768 8 x 7.500 SSD NVMe
    100 Gbps
    i3en.metal 96 768 8 x 7.500 SSD NVMe 100 Gbps

    Todas as instâncias têm as seguintes especificações:

    • Processadores All Core Turbo Intel® Xeon® Scalable (Skylake) de 3,1 GHz
    • Intel AVX†, Intel AVX2†, Intel AVX-512†, Intel Turbo 
    • Otimizado para EBS
    • Redes avançadas

    Casos de uso

    Bancos de dados NoSQL (Cassandra, MongoDB, Redis), bancos de dados em memória (SAP HANA, Aerospike), bancos de dados transacionais com escalabilidade horizontal, sistemas de arquivos distribuídos, data warehousing, Elasticsearch e cargas de trabalho de análise.

  • D2
  • As instâncias D2 oferecem até 48 TB de armazenamento local baseado em HDD, proporcionam alto throughput de disco e oferecem o preço mais baixo por performance de throughput de disco do Amazon EC2.

    Recursos:

    • Processadores Intel Xeon E5-2676 v3 (Haswell) de alta frequência
    • Armazenamento HDD
    • Alta performance consistente no momento do lançamento
    • Alto throughput de disco
    • Suporte a redes avançadas
    Instância vCPU* Mem (GiB) Armazenamento (GB) Performance de rede
    d2.xlarge 4 30,5 3 x 2.000 HDD Moderada
    d2.2xlarge 8 61 6 x 2.000 HDD Alta
    d2.4xlarge 16 122 12 x 2.000 HDD Alta
    d2.8xlarge 36 244 24 x 2.000 HDD 10 Gigabit

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Data warehousing para Massively Parallel Processing (MPP – Processamento paralelo massivo), computação distribuída MapReduce e Hadoop, sistemas de arquivo distribuídos, sistemas de arquivos de rede e aplicativos de processamento de logs ou dados

  • H1
  • As instâncias H1 oferecem até 16 TB de armazenamento local baseado em HDDs, alta transferência de disco e um equilíbrio entre computação e memória.

    Recursos:

    • Processadores Intel® Xeon® E5 2686 v4 2,3 GHz (nome de código Broadwell)
    • Até 16 TB de armazenamento HDD
    • Alto throughput de disco
    • Redes avançadas habilitadas por ENA com até 25 Gbps
    Instância vCPU* Mem (GiB) Performance de redes Armazenamento (GB)
    h1.2xlarge 8 32 Até 10 Gigabit 1 x 2.000 HDD
    h1.4xlarge 16 64 Até 10 Gigabit 2 x 2.000 HDD
    h1.8xlarge 32 128 10 Gigabit 4 x 2.000 HDD
    h1.16xlarge 64 256 25 Gigabit 8 x 2.000 HDD

    Todas as instâncias têm as seguintes especificações:

    Casos de uso

    Cargas de trabalho baseadas no MapReduce; sistemas de arquivos distribuídos, como HDFS e MapR-FS; sistemas de arquivos em rede; aplicativos de processamento de logs ou dados, como Apache Kafka; e clusters de cargas de trabalho de big data.

** A instância i3.metal oferece 72 processadores lógicos em 36 núcleos físicos

Está procurando instâncias de gerações anteriores que não estão listadas aqui? Acesse a página Instâncias de gerações anteriores.

Cada vCPU é um thread de um núcleo Intel Xeon ou de um núcleo AMD EPYC, exceto para T2 e m3.medium.

† AVX, AVX2, AVX-512 e redes avançadas estão disponíveis apenas em instâncias executadas com AMIs de HVM.

* O número padrão e máximo de vCPUs disponíveis para esse tipo de instância. Você pode especificar um número personalizado de vCPUs ao iniciar esse tipo de instância. Para obter mais detalhes sobre as quantidades válidas de vCPU e sobre como começar a usar esse recurso, acesse a página de documentação sobre otimização de CPUs aqui.

Recursos das instâncias

As instâncias do Amazon EC2 oferecem diversos recursos adicionais para ajudar a implantar, gerenciar e alterar a escala dos seus aplicativos.

Instâncias de performance com capacidade de intermitência

O Amazon EC2 permite que você escolha entre instâncias de performance fixa (p. ex., M5, C5 e R5) e instâncias de performance com capacidade de intermitência (p. ex., T3). As instâncias de performance com capacidade de intermitência oferecem uma linha de base de performance da CPU com a capacidade de intermitência acima da linha de base.

As instâncias T ilimitadas podem sustentar uma alta performance de CPU por quanto tempo a carga de trabalho precisar. Para a maioria das cargas de trabalho de uso geral, as instâncias T ilimitadas fornecerão performance ampla sem nenhuma cobrança adicional. O preço por hora da instância T cobre automaticamente todos os picos temporários de uso quando a utilização média de CPU de uma instância T não ultrapassar a linha de base em um período de 24 horas. Caso a instância precise ser executada com uma utilização maior da CPU por um período prolongado, isso pode ser feito mediante uma taxa adicional fixa de 5 centavos por hora de vCPU.

A linha de base de performance e a capacidade de intermitência das instâncias T são regidas por créditos de CPU. Cada instância T recebe continuamente créditos de CPU a uma taxa que depende do tamanho da instância. As instâncias T acumulam créditos de CPU quando estão ociosas e usam créditos quando estão ativas. Um crédito de CPU fornece a performance de um núcleo completo de CPU por um minuto.

Por exemplo, uma instância t2.small recebe créditos continuamente a uma taxa de 12 créditos de CPU por hora. Essa capacidade fornece uma performance de referência equivalente a 20% de um núcleo de CPU (20% x 60 minutos = 12 minutos). Se a instância não usar os créditos recebidos, eles serão armazenados no saldo de créditos de CPU até o máximo de 288 créditos de CPU. Se e quando a instância t2.small precisar de performance intermitente superior a 20% de um núcleo, usará o saldo de créditos de CPU para atender automaticamente a esse pico.

Com a T2 ilimitada habilitada, a instância t2.small poderá apresentar intermitências acima da referência, mesmo se o saldo de créditos de CPU estiver zerado. Para a grande maioria das cargas de trabalho de uso geral, em que a utilização média de CPU não excede a performance de referência, o preço básico horário da t2.small cobre todas as intermitências de CPU. Se a instância executar com uma utilização média de CPU de 25% (5% acima da referência) em um período de 24 horas após o saldo de créditos de CPU ser zerado, será cobrada uma taxa adicional de 6 centavos (5 centavos/vCPU/hora x 1 vCPU x 5% x 24 horas).

Muitos aplicativos, como servidores web, ambientes de desenvolvedor e pequenos bancos de dados, não precisam constantemente de níveis altos de CPU, mas se beneficiam significativamente da possibilidade de ter pleno acesso a CPUs muito rápidas quando necessário. As instâncias T são projetadas especificamente para esses casos de uso. Se você precisa de alta performance de CPU de modo consistente para aplicativos como codificação de vídeo, sites com alto volume de tráfego ou aplicativos de HPC, recomendamos o uso de instâncias de performance fixa. As instâncias T são projetadas para operar como se tivessem núcleos Intel de alta velocidade dedicados disponíveis para quando o aplicativo realmente precisar de performance de CPU enquanto protegem você contra a variação de performance ou outros efeitos colaterais comuns geralmente observados com a assinatura de recursos em excesso em outros ambientes.

Várias opções de armazenamento

O Amazon EC2 permite escolher entre várias opções de armazenamento de acordo com seus requisitos. O Amazon EBS é um volume de armazenamento resiliente a nível de bloco que pode ser associado a uma instância do Amazon EC2 única e em execução. Você pode usar o Amazon EBS como um dispositivo de armazenamento principal para dados que exigem atualizações frequentes e granulares. Por exemplo, o Amazon EBS é a opção de armazenamento recomendada para executar um banco de dados no Amazon EC2. Os volumes do Amazon EBS persistem independentemente da vida útil de uma instância do Amazon EC2. Após conectar um volume a uma instância, você pode usá-lo como qualquer outro disco rígido físico. O Amazon EBS oferece três tipos de volumes para atender da melhor forma às necessidades da sua carga de trabalho: uso geral (SSD), IOPS provisionadas (SSD) e magnético. O EBS de uso geral (SSD) é o novo tipo de volume baseado em SSD de uso geral do EBS que é recomendado como escolha padrão para os clientes. Os volumes de uso geral (com SSD) são adequados para uma grande variedade de cargas de trabalho, inclusive bancos de dados de pequeno a médio porte, ambientes de desenvolvimento e teste e volumes inicializáveis. Os volumes de IOPS provisionadas (SSD) oferecem armazenamento com performance consistente e de baixa latência e são projetados para aplicativos com E/S intensiva como grandes bancos de dados relacionais ou NoSQL. Os volumes magnéticos oferecem o custo mais baixo por gigabyte de todos os tipos de volumes do EBS. Os volumes magnéticos são ideais para cargas de trabalho em que os dados são acessados com pouca frequência e aplicativos em que o custo mais baixo de armazenamento é importante.

Muitas instâncias do Amazon EC2 também podem incluir armazenamento em discos conectados fisicamente ao computador host. Esse armazenamento em disco é denominado um armazenamento de instâncias. O armazenamento de instâncias oferece armazenamento temporário no nível de bloco para instâncias do Amazon EC2. Os dados nos volumes de armazenamento de instâncias persistem apenas durante a vida útil da instância do Amazon EC2 associada.

Além do armazenamento a nível de bloco por meio do Amazon EBS ou do armazenamento de instâncias, você também pode usar o Amazon S3 para obter um armazenamento de object resiliente e disponível. Saiba mais sobre as opções de armazenamento do Amazon EC2 na documentação do Amazon EC2.

Instâncias otimizadas para o EBS

Por uma pequena taxa horária adicional, os clientes podem lançar alguns tipos de instâncias do Amazon EC2 como instâncias otimizadas para EBS. Para instâncias C5, C4, M5, M4, P3, P2, G3 e D2, esse recurso é habilitado por padrão sem custo adicional. As instâncias otimizadas para EBS permitem que instâncias do EC2 usem totalmente as IOPS provisionadas em um volume do EBS. As instâncias otimizadas para EBS fornecem throughput dedicado entre o Amazon EC2 e o Amazon EBS, com opções de 500 a 4.000 megabits por segundo (Mbps), dependendo do tipo de instância usado. O throughput dedicado minimiza a contenção entre a E/S do Amazon EBS e outro tráfego da sua instância do EC2, fornecendo a melhor performance para os volumes do EBS. As instâncias otimizadas para o EBS são projetadas para utilização com todos os volumes do EBS. Quando vinculados a instâncias otimizadas para EBS, os volumes de IOPS provisionadas podem atingir latências inferiores a 10 milissegundos e são projetadas para variação de performance inferior a 10% da performance máxima das IOPS provisionadas durante 99,9% do tempo. Recomendamos usar volumes de IOPS provisionadas com instâncias otimizadas para EBS ou instâncias que oferecem suporte a redes em cluster para aplicativos com requisitos elevados de E/S no armazenamento.

Redes em cluster

Determinadas instâncias EC2 oferecem suporte a redes de cluster quando executadas em um placement group de cluster comum. Um placement group de cluster oferece redes de baixa latência entre todas as instâncias no cluster. A largura de banda que uma instância do EC2 pode utilizar depende do tipo de instância e de sua especificação de performance de redes. O tráfego entre instâncias dentro da mesma região pode usar até 5 Gbps para tráfego de fluxo único e até 100 Gbps para tráfego de vários fluxos em cada direção (full duplex). O tráfego de e para buckets do S3 na mesma região também pode utilizar toda a largura de banda agregada de instâncias disponível. Quando executadas em um placement group, as instâncias podem utilizar até 10 Gbps para tráfego de fluxo único e até 100 Gbps para tráfego de vários fluxos. O tráfego de rede para a Internet está limitado a 5 Gbps (full duplex). A rede em cluster é ideal para sistemas de análises de alta performance muitos aplicativos científicos e de engenharia, particularmente os que usam o padrão de biblioteca MPI para programação paralela.

Recursos do processador Intel
intelinside_150

As instâncias do Amazon EC2 que oferecem um processador Intel podem proporcionar acesso aos seguintes recursos de processador:

  • Intel AES New Instructions (AES-NI): o conjunto de instruções de criptografia Intel AES-NI aprimora o algoritmo Advanced Encryption Standard (AES) original para oferecer proteção de dados mais rápida e maior segurança. Todas as instâncias do EC2 da geração atual oferecem suporte a esse recurso de processador.
  • Intel Advanced Vector Extensions (Intel AVX, Intel AVX2 e AVX-512): o Intel AVX e o Intel AVX2 são extensões de conjunto de instruções de 256 bits e o Intel AVX-512 é uma extensão de conjunto de instruções de 512 bits projetadas para aplicativos com uso intensivo de Floating Point (FP – Ponto flutuante). As instruções Intel AVX melhoram a performance de aplicativos como de processamento de imagem, áudio e vídeo, simulações científicas, análise financeira e modelagem e análise 3D. Esses recursos estão disponíveis somente em instâncias executadas com AMIs de HVM.
  • Tecnologia Intel Turbo Boost: a tecnologia Intel Turbo Boost oferece mais performance sempre que necessário. O processador é capaz de executar automaticamente núcleos em velocidades superiores à frequência básica operacional para ajudar você a fazer mais em menos tempo.
  • Intel Deep Learning Boost (Intel DL Boost): um novo conjunto de tecnologias de processador integradas projetado para acelerar os casos de uso de aprendizagem profunda de IA. Os processadores Intel Xeon Scalable da segunda geração ampliam o Intel AVX-512 com uma nova Vector Neural Network Instruction (VNNI/INT8), que aumenta significativamente o desempenho de inferência de aprendizagem profunda em relação à geração anterior dos processadores Intel Xeon Scalable (com FP32), para reconhecimento/segmentação de imagens, detecção de objetos, reconhecimento de fala, tradução de idiomas, sistemas de recomendação, aprendizado por reforço e outros.

Nem todos os recursos do processador estão disponíveis em todos os tipos de instância, confira a matriz de tipo de instância para obter informações mais detalhadas sobre quais recursos estão disponíveis a partir dos quais tipos de instância.

Medição da performance das instâncias

Por que é necessário medir a performance das instâncias?

O Amazon EC2 permite que você provisione diversos tipos de instâncias, que oferecem combinações diferentes de CPU, memória, disco e rede. É fácil executar novas instâncias e testes em paralelo. Recomendamos a medição de performance dos aplicativos para identificar os tipos de instâncias adequados e validar a arquitetura dos aplicativos. Também recomendamos testes rigorosos de carga e escala para garantir que seus aplicativos tenham a escalabilidade pretendida.

Considerações para a avaliação de performance do Amazon EC2

O Amazon EC2 oferece um grande número de opções em dez tipos diferentes de instâncias, cada um deles com uma ou mais opções de tamanho, organizados em seis famílias de instâncias diferentes otimizadas para tipos distintos de aplicativos. Recomendamos que você avalie os requisitos dos aplicativos e selecione a família de instâncias adequada como ponto de partida para os testes de performance do aplicativo. Você deve começar a avaliar a performance dos seus aplicativos (a) identificando como as necessidades do aplicativo se comparam às famílias de instâncias diferentes (ou seja, se o aplicativo faz uso intensivo de computação, de memória, etc.) e (b) dimensionando a carga de trabalho para identificar o tamanho de instância adequado. Não há nada que substitua a medição da performance do seu aplicativo completo, pois essa performance pode ser afetada pela infraestrutura subjacente ou pelos limites de software e de arquitetura. Recomendamos testes a nível de aplicativo, inclusive o uso de ferramentas e serviços de estabelecimento do perfil do aplicativo e de testes de carga.