Geral

Visão geral

P: O que é o Amazon Elastic Compute Cloud (Amazon EC2)?

O Amazon EC2 é um serviço Web que fornece capacidade computacional redimensionável na nuvem. Ele foi projetado para facilitar a computação em escala na Web para os desenvolvedores.

P: O que posso fazer com o Amazon EC2?

Assim como o Amazon Simple Storage Service (Amazon S3) permite o armazenamento na nuvem, o Amazon EC2 permite a “computação” na nuvem.  A interface de web service simples do Amazon EC2 permite que você obtenha e configure a capacidade com o mínimo de esforço. Ela fornece um controle completo dos recursos computacionais e permite que você realize execuções no ambiente computacional comprovado da Amazon. O Amazon EC2 reduz a apenas alguns minutos o tempo necessário para obter e inicializar novas instâncias de servidor, permitindo que você dimensione a capacidade rapidamente para mais e para menos, à medida que seus requisitos de computação mudarem. O Amazon EC2 muda os fatores econômicos da computação, permitindo que você pague somente pela capacidade que realmente usa.

P: Como posso começar a usar o Amazon EC2?

Para se conectar ao Amazon EC2, selecione o botão “Sign up for This Web Service” (Cadastrar-se neste serviço da Web) na página de detalhe do Amazon EC2. Você deve ter uma conta da AWS para acessar esse serviço. Se você ainda não tiver uma, será solicitado sua criação ao iniciar o processo de conexão do Amazon EC2. Após se cadastrar, consulte a documentação do Amazon EC2, que inclui nosso Guia de conceitos básicos.

P: Por que preciso verificar meu número de telefone ao me cadastrar no Amazon EC2?

O registro do Amazon EC2 exige que você tenha um número de telefone válido e um endereço de e-mail no arquivo com a AWS, caso precisemos entrar em contato. A verificação do número de telefone demora somente alguns minutos e envolve o recebimento de uma chamada telefônica durante o processo de registro e a inserção de um PIN usando o teclado do telefone.

P: O que os desenvolvedores podem fazer agora que não podiam fazer antes?

Até agora, os pequenos desenvolvedores não tinham capital para adquirir recursos de computação grandes e garantir que teriam a capacidade necessária para lidar com os picos inesperados na carga. O Amazon EC2 ajuda o desenvolvedor a usar os benefícios da própria Amazon de escala massiva sem a necessidade de um investimento antecipado ou de compromissos de performance. Os desenvolvedores passaram a ter liberdade para se concentrar na inovação, sabendo que não importa o quão bem-sucedidas as empresas se tornem, será econômico e simples garantir que tenham a capacidade computacional necessária para atender aos requisitos empresariais.

A natureza “Elastic” do serviço permite que os desenvolvedores escalem-se instantaneamente para atender aos picos no tráfego ou na demanda. Quando os requisitos de computação mudarem inesperadamente (para mais ou para menos), o Amazon EC2 poderá responder de forma imediata, significando que os desenvolvedores têm a capacidade de controlar quantos recursos estão sendo usados em um determinado momento. Em contrapartida, serviços de hospedagem tradicionais geralmente fornecem um número fixo de recursos para uma quantidade fixa de tempo, significando que os usuários têm uma capacidade limitada de responder facilmente quando seu uso está sendo alterado rapidamente, de forma imprevisível ou sabe-se que ocorrem grandes picos em diversos intervalos.

P: Como executo sistemas no ambiente do Amazon EC2?

Assim que você configurar sua conta e selecionar ou criar as AMIs, estará preparado para inicializar sua instância. É possível iniciar sua AMI em qualquer número de instâncias sob demanda ao usar a chamada de API RunInstances. Basta indicar quantas instâncias você deseja executar. Se você deseja executar mais do que sua cota sob demanda, preencha o formulário de solicitação de instâncias do Amazon EC2.

Se o Amazon EC2 puder atender à sua solicitação, RunInstances retornará o êxito e começaremos a executar suas instâncias. Você pode verificar o status das suas instâncias usando a chamada de API DescribeInstances. Também é possível encerrar programaticamente qualquer número de suas instâncias usando a chamada de API TerminateInstances.

Se houver instâncias em execução usando uma partição de inicialização do Amazon EBS, também será possível usar a chamada de API StopInstances para liberar os recursos computacionais, mas preservar os dados na partição de inicialização. Você pode usar a API StartInstances quando já estiver preparado para reiniciar a instância associada com a partição de inicialização do Amazon EBS.

Além disso, você tem a opção de usar as Instâncias spot para reduzir os custos computacionais ao dispor da flexibilidade quando for possível executar os aplicativos. Leia mais sobre as instâncias spot para obter uma explicação mais detalhada sobre como as instâncias spot funcionam.

Se você preferir, também poderá realizar todas essas ações no Console de Gerenciamento da AWS ou por meio da linha de comando, usando nossas ferramentas de linha de comando que foram implementadas com esta API do serviço da Web.

P: Qual é a diferença entre usar o armazenamento de instâncias local e o Amazon Elastic Block Store (Amazon EBS) para o dispositivo-raiz?

Ao iniciar as instâncias do Amazon EC2, você tem a capacidade de armazenar seus dados do dispositivo-raiz no Amazon EBS ou no armazenamento da instância local. Ao usar o Amazon EBS, os dados no dispositivo-raiz persistirão independentemente da duração da instância. Isso permite que você interrompa e reinicie a instância posteriormente, o que é semelhante a desligar o laptop e reiniciá-lo quando for necessário novamente.

Ou o armazenamento da instância local persistirá somente durante o ciclo de vida da instância. Trata-se de uma forma econômica de iniciar instâncias onde os dados não estão armazenados no dispositivo-raiz. Por exemplo, alguns clientes usam essa opção para executar sites da Web grandes onde cada instância é um clone para lidar com tráfego da Web.

P: Com que rapidez os sistemas serão executados?

Normalmente, leva menos de 10 minutos a partir da emissão da chamada de RunInstances para o ponto onde todas as instâncias solicitadas começam suas sequências de inicialização. Esse período depende de uma série de fatores, incluindo o tamanho da AMI, o número de instâncias que estão sendo iniciadas e há quanto tempo essa AMI foi iniciada pela última vez. As imagens iniciadas pela primeira vez poderão demorar um pouco mais para serem inicializadas.  

P: Como faço para carregar e armazenar meus sistemas com o Amazon EC2?

O Amazon EC2 permite que você defina e configure tudo sobre suas instâncias, desde o sistema operacional até os aplicativos. Uma Amazon Machine Image (AMI) é simplesmente um ambiente empacotado que inclui todos os bits necessários para configurar e iniciar a instância. Suas AMIs são sua unidade de implantação. Você pode ter apenas uma AMI ou compor seu sistema com base em várias AMIs de blocos de construção (por ex., servidores da Web, servidores de aplicativos e bancos de dados). O Amazon EC2 fornece uma série de ferramentas para facilitar a criação de uma AMI. Assim que você criar uma AMI personalizada, terá de empacotá-la. Se você estiver empacotando uma imagem com um dispositivo-raiz respaldado pelo Amazon EBS, poderá simplesmente usar o comando empacotado no AWS Management Console. Se você estiver empacotando uma imagem com uma partição de inicialização no armazenamento de instâncias, então terá de usar as Ferramentas AMI para fazer o upload para o Amazon S3. O Amazon EC2 usa o Amazon EBS e o Amazon S3 para fornecer o armazenamento confiável e escalável das AMIs para que possamos inicializá-las quando você fizer tal solicitação.

Ou, se desejar, você não precisa configurar sua própria AMI do zero. Você pode optar por uma série de AMIs disponíveis globalmente que fornecem instâncias úteis. Por exemplo, se você deseja apenas um servidor simples do Linux, poderá optar por uma das AMIs de distribuição do Linux padrão.

P: Como faço para acessar meus sistemas?

A chamada RunInstances que inicia a execução da pilha de aplicativos retornará um conjunto de nomes de DNS, um para cada sistema que está sendo inicializado. Esse nome pode ser usado para acessar o sistema exatamente como você faria se estivesse no seu próprio Datacenter. Você detém aquela máquina enquanto a pilha do sistema operacional está sendo executada nela.

P: O Amazon EC2 é usado em conjunto com o Amazon S3?

Sim, o Amazon EC2 é usado juntamente com o Amazon S3 para instâncias com dispositivos-raiz respaldados por instance storage local. Ao usar o Amazon S3, os desenvolvedores têm acesso à mesma infraestrutura de armazenamento de dados altamente escalável, confiável, rápida e econômica que o Amazon usa para executar sua própria rede global de sites da Web. Para executar sistemas no ambiente do Amazon EC2, os desenvolvedores usam as ferramentas fornecidas para carregar AMIs no Amazon S3 e movê-las entre o Amazon S3 e o Amazon EC2. Consulte Como carregar e armazenar meus sistemas com o Amazon EC2? para obter mais informações sobre AMIs.

Esperamos que os desenvolvedores achem bastante útil a combinação do Amazon EC2 e do Amazon S3. O Amazon EC2 fornece uma computação econômica e escalável na nuvem e o Amazon S3 permite que os usuários armazenem dados com confiabilidade.

P: Quantas instâncias posso executar no Amazon EC2?

Você está limitado a executar instâncias sob demanda de acordo com o limite de instâncias sob demanda baseado em vCPU, comprar 20 instâncias reservadas e solicitar instâncias spot de acordo com seu limite de spots dinâmicos por região. As novas contas da AWS podem começar com limites mais baixos que os limites descritos aqui.

Se você precisar de mais instâncias, preencha o formulário de solicitação de aumento de limites do Amazon EC2 com seu caso de uso, e o aumento dos limites será considerado. Os aumentos de limite estão vinculados à região para a qual são solicitados.

P: Há quaisquer limitações no envio de e-mails das instâncias do Amazon EC2?

Sim. Para manter a qualidade dos endereços do Amazon EC2 para enviar e-mails, impomos limites padrão quanto à quantidade de e-mails que podem ser enviados das contas do EC2. Se você quiser enviar quantidades maiores de e-mails do EC2, poderá solicitar a remoção desses limites da sua conta preenchendo este formulário.

P: Com que rapidez posso expandir ou reduzir minha capacidade?

O Amazon EC2 fornece um ambiente de computação verdadeiramente elástico. O Amazon EC2 permite que você aumente ou diminua a capacidade em minutos, não horas ou dias. É possível comissionar uma, centenas ou até milhares de instâncias do servidor simultaneamente. Quando você precisar de mais instâncias, basta chamar RunInstances e o Amazon EC2 normalmente configurará suas novas instâncias em questão de minutos. Naturalmente, como tudo é controlado com as APIs de serviços da Web, o aplicativo pode automaticamente se expandir ou reduzir, dependendo das suas necessidades.

P: Quais ambientes do sistema operacional são compatíveis?

No momento, o Amazon EC2 é compatível com vários sistemas operacionais, incluindo: Amazon Linux, Ubuntu, Windows Server, Red Hat Enterprise Linux, SUSE Linux Enterprise Server, openSUSE Leap, Fedora, Fedora CoreOS, Debian, CentOS, Gentoo Linux, Oracle Linux e FreeBSD. Estamos buscando formas de expandi-lo para outras plataformas.

P: O Amazon EC2 usa memória ECC?

A nossa experiência é que a memória ECC é necessária para a infraestrutura de servidores. Todo o hardware subjacente do Amazon EC2 usa memória ECC.

P: No que este serviço difere de um serviço de hospedagem comum?

Os serviços de hospedagem tradicionais geralmente fornecem um recurso pré-configurado para um período fixo e por um custo predeterminado. O Amazon EC2 difere fundamentalmente na flexibilidade, no controle e em economias de custo significativas que oferece aos desenvolvedores, permitindo-os tratar o Amazon EC2 como seu próprio datacenter pessoal com o benefício da infraestrutura robusta do Amazon.com.

Quando os requisitos de computação mudarem inesperadamente (para mais ou para menos), o Amazon EC2 poderá responder de forma imediata, significando que os desenvolvedores têm a capacidade de controlar quantos recursos estão sendo usados em um determinado momento. Em contrapartida, serviços de hospedagem tradicionais geralmente fornecem um número fixo de recursos para uma quantidade fixa de tempo, significando que os usuários têm uma capacidade limitada de responder facilmente quando seu uso está sendo alterado rapidamente, de forma imprevisível ou sabe-se que ocorrem grandes picos em diversos intervalos.

Em segundo lugar, muitos serviços de hospedagem não fornecem controle total sobre os recursos computacionais que estão sendo fornecidos. Usando o Amazon EC2, os desenvolvedores podem optar por não só iniciar ou desativar as instâncias a qualquer momento, mas também personalizar totalmente a configuração de suas instâncias para se adequarem às suas necessidades – e alterá-las a qualquer momento. A maioria dos serviços de hospedagem reúne mais grupos de usuários com requisitos de sistemas semelhantes e, portanto, oferece a capacidade limitada de alterá-los.

Finalmente, com o Amazon EC2, os desenvolvedores usufruem do benefício de pagar somente por seu consumo real de recursos e com taxas muito baixas. A maioria dos serviços de hospedagem exige que os usuários paguem uma tarifa fixa prévia independentemente do seu poder de computação real usado e, portanto, os usuários correm o risco de comprar recursos em excesso para compensar a incapacidade de escalonar rapidamente os recursos em um período curto. 

Limites de instâncias sob demanda do EC2

P: O que está mudando?

O Amazon EC2 está alterando os limites de instâncias sob demanda atuais, baseados no número de instâncias, para novos limites baseados no número de vCPUs. O objetivo é simplificar a experiência de gerenciamento de limites para clientes da AWS. O uso considerado para o limite baseado em vCPUs é medido pelo número de vCPUs (unidades de processamento central virtuais) de qualquer combinação de tipos de instância do Amazon EC2 executados para atender às necessidades dos aplicativos.

P: Quais são os limites baseados em vCPUs?

Você está limitado à execução de uma ou mais instâncias sob demanda em uma conta da AWS. O Amazon EC2 mede o uso para cada limite considerando o número total de vCPUs (unidades de processamento central virtuais) atribuídas às instâncias sob demanda executadas nessa conta da AWS. A tabela a seguir mostra o número de vCPUs para cada tamanho de instância. O mapeamento de vCPUs para alguns tipos de instâncias pode ser diferente. Consulte os tipos de instância do Amazon EC2 para obter detalhes.

Tamanho de instância vCPUs
nano 1
micro 1
pequena 1
médio 1
grande 2
xlarge 4
2xlarge 8
3xlarge 12
4xlarge 16
8xlarge 32
9xlarge 36
10xlarge 40
12xlarge 48
16xlarge 64
18xlarge 72
24xlarge 96
32xlarge 128

P: Quantas instâncias sob demanda posso executar no Amazon EC2?

Existem cinco limites de instâncias baseados em vCPU. Cada um deles define a quantidade de capacidade que pode ser usada em uma determinada família de instâncias. Todo o uso de instâncias em uma família específica, independentemente de variações de geração, tamanho ou configuração (por exemplo, disco e tipo de processador), será considerado no limite de vCPUs total da família mostrado na tabela a seguir. As novas contas da AWS podem começar com limites mais baixos que os limites descritos aqui.

Nome do limite de instâncias sob demanda Limite de vCPUs padrão
Execução de instâncias padrão sob demanda (A, C, D, H, I, M, R, T, Z) 1152 vCPUs
Execução de instâncias F sob demanda 128 vCPUs
Execução de instâncias G sob demanda 128 vCPUs
Execução de instâncias Inf sob demanda 128 vCPUs
Execução de instâncias P sob demanda 128 vCPUs
Execução de instâncias X sob demanda 128 vCPUs

P: Esses limites de instâncias sob demanda baseados em vCPUs são regionais?

Sim. Os limites de instâncias sob demanda de uma conta da AWS são definidos de acordo com a região.

P: Esses limites mudarão com o tempo?

Sim. Os limites podem ser alterados ao longo do tempo. O Amazon EC2 monitora constantemente o seu uso em cada região e os seus limites serão aumentados automaticamente de acordo com esse uso.

P: Como posso solicitar um aumento de limite?

Embora o EC2 aumente automaticamente seus limites de instâncias sob demanda de acordo com o seu uso, se você precisar, poderá solicitar aumentos de limite na página de limites no console do Amazon EC2, na página do serviço Amazon EC2 no console do Service Quotas ou na API/ILC de cotas de serviço.

P: Como posso calcular meu novo limite de vCPUs?

Você pode encontrar o mapeamento de vCPUs para cada tipo de instância do Amazon EC2 ou usar a calculadora simplificada de vCPUs para calcular os requisitos totais de limites de vCPUs para a sua conta da AWS.

P: Os limites de vCPUs se aplicam à compra de instâncias reservadas ou à solicitação de instâncias spot?

Não. Os limites baseados em vCPUs aplicam-se apenas à execução de instâncias sob demanda e instâncias Spot.

P: Como posso visualizar meus limites de instâncias sob demanda atuais?

Você pode encontrar seus limites de instâncias sob demanda atuais na página de limites do serviço do EC2 no console do Amazon EC2, no console do Service Quotas e nas APIs de cotas de serviço.

P: Isso afetará as instâncias em execução?

Não. A opção por limites baseados em vCPUs não afetará nenhuma instância em execução.

P: Posso continuar a iniciar o mesmo número de instâncias?

Sim. Os limites de instâncias baseados em vCPUs permitem iniciar pelo menos o mesmo número de instâncias que os limites baseados no número de instâncias.

P: Poderei visualizar o uso de instâncias em relação a esses limites?

A integração com as métricas do Amazon CloudWatch permite visualizar o uso do EC2 em relação aos limites no console do Service Quotas. O Service Quotas também permite que os clientes usem o CloudWatch para configurar alarmes que avisam os clientes quando os limites estão sendo alcançados. Além disso, você pode continuar a rastrear e inspecionar o uso de instâncias no Trusted Advisor e no Limit Monitor.

P: Poderei continuar a usar a API DescribeAccountAttributes?

Com os limites de vCPUs, o uso de instâncias não será mais controlado pelos limites de instâncias baseados no número total de instâncias. Portanto, a API DescribeAccountAttributes deixará de retornar o valor max-instances. Em vez disso, você pode usar as APIs do Service Quotas para recuperar informações sobre os limites do EC2. Você pode encontrar mais informações sobre as APIs do Service Quotas na documentação da AWS.

P: Os limites de vCPUs afetarão minha fatura mensal?

Não. O uso do EC2 continua sendo calculado por hora ou por segundo, dependendo da AMI executada e do tipo e tamanho de instância executada.

P: Os limites de vCPU estão disponíveis em todas as regiões?

Os limites das instâncias baseadas em vCPU estão disponíveis em todas as regiões comerciais da AWS.

Mudanças na política de endpoint SMTP do EC2

P: O que está sendo alterado?

A partir de 7 de janeiro de 2020, o Amazon EC2 começou a lançar uma alteração para restringir o tráfego de e-mail na porta 25 por padrão para proteger clientes e outros destinatários contra spam e desrespeito às diretrizes de e-mail. Normalmente, a porta 25 é usada como a porta SMTP padrão para o envio de e-mails. As contas da AWS que solicitaram e tiveram os controles de utilização da porta 25 removidos anteriormente não serão afetadas por essa alteração.

P: Tenho um caso de uso válido para enviar e-mails para a porta 25 usando o EC2. Como é possível remover essas restrições da porta 25?

Se tiver um caso de uso válido para o envio de e-mails pela porta 25 (SMTP) do EC2, envie uma Solicitação para remover os limites de envio de e-mails para que essas restrições sejam retiradas. Outra alternativa é enviar e-mails usando uma porta diferente ou aproveitar um serviço autenticado de retransmissão de e-mail como o Amazon Simple Email Service (Amazon SES).

Acordo de Serviço (SLA)

P: O que o Contrato de Nível de Serviço do Amazon EC2 assegura?

Nosso SLA garante uma porcentagem de tempo de disponibilidade mensal de pelo menos 99,99% para o Amazon EC2 e o Amazon EBS em uma determinada região.

P: Como saberei se me qualifico para um crédito de serviço do SLA?

Você será qualificado para receber um crédito de SLA (acordo de nível de serviço) para o Amazon EC2 ou o Amazon EBS (o que tiver apresentado indisponibilidade ou ambos, caso os dois tenham apresentado indisponibilidade) se a região na qual você atua tiver um percentual de tempo de atividade mensal inferior a 99,99% durante qualquer ciclo de faturamento mensal. Para obter detalhes completos sobre todos os termos e condições do SLA, bem como detalhes sobre como enviar uma reivindicação, consulte o Contrato de nível de serviço do Amazon Compute

Tipos de instância

Instâncias com computação acelerada

P: O que são instâncias com computação acelerada?

A categoria de instâncias com computação acelerada inclui famílias de instâncias que usam aceleradores de hardware, ou coprocessadores, para executar algumas funções (como cálculos numéricos de ponto flutuante e processamento de gráficos) com mais eficiência do que é possível usando software executado em CPUs. O Amazon EC2 oferece três tipos de Instâncias com computação acelerada: instâncias de GPU computacionais para computação de uso geral, instâncias de GPU gráficas para aplicações com uso intensivo de gráficos e instâncias computacionais em hardware programável FPGA para workloads científicas avançadas.

P: Quando devo usar instâncias de GPU computacionais e gráficas?

As instâncias de GPU funcionam melhor para aplicações com paralelismo massivo, como workloads que utilizam milhares de threads. O processamento gráfico é um exemplo com requisitos computacionais enormes, onde cada uma das tarefas é relativamente pequena, o conjunto de operações realizadas forma um pipeline e o throughput desse pipeline é mais importante do que a latência das operações individuais. Para criar aplicações que explorem esse nível de paralelismo, é necessário adquirir conhecimento específico sobre o dispositivo de GPU entendendo como programar o uso de várias APIs gráficas (DirectX, OpenGL) ou modelos de programação de computação de GPU (CUDA, OpenCL).

P: Quais aplicações podem se beneficiar do P4d?

Algumas das aplicações para as quais esperamos que os clientes usem o P4d são workloads de machine learning (ML), como compreensão de linguagem natural, treinamento do modelo de percepção para veículos autônomos, classificação de imagens, detecção de objetos e mecanismos de recomendação. A melhor performance da GPU pode reduzir significativamente o tempo de treinamento, e a memória adicional da GPU ajudará os clientes a treinar modelos maiores e mais complexos. Os clientes da HPC podem usar a performance de processamento aprimorado de P4 e a memória GPU para análises sísmicas, descoberta de medicamentos, sequenciamento de DNA e modelagem de risco de seguro.

P: Como as instâncias P4d se comparam às instâncias P3?

As instâncias P4 apresentam a última geração de GPUs A100 Tensor Core da NVIDIA para fornecer, em média, um aumento de 2,5 vezes na performance de TFLOP em relação à geração anterior V100, juntamente com mais 2,5 vezes de memória GPU. As instâncias P4 apresentam a CPU Cascade Lake Intel que tem 24C por soquete e um conjunto de instruções adicional para as instruções da rede neural vetorial. As instâncias P4 terão um aumento de 1,5 vez na memória total do sistema e 4 vezes mais a taxa de transferência de rede de P3dn ou 16 vezes mais em comparação com P3.16xl. Outra diferença importante é que a taxa de transferência de interconexão da GPU NVSwitch dobrará o que era possível na P3 para que cada GPU possa se comunicar com todas as outras GPUs na mesma taxa de transferência bidirecional de 600 GB/s e com latência de salto único. Isso permite que o desenvolvimento de aplicações considere várias GPUs e memórias como uma única grande GPU e um pool unificado de memória. As instâncias P4d também são implantadas em clusters de hiperescala fortemente acoplados, chamados EC2 UltraClusters, que permitem fazer o treinamento de ML de vários nós mais complexo e aplicações HPC.

P: O que são EC2 UltraClusters e como posso obter acesso?

As instâncias P4d são implantadas em clusters de hiperescala chamados EC2 UltraClusters. Cada EC2 UltraCluster consiste em mais de 4.000 GPUs NVIDIA A100 Tensor Core, rede em escala Petabit e armazenamento escalonável de baixa latência com o FSx for Lustre. Cada EC2 UltraCluster é um dos melhores supercomputadores do mundo. Qualquer pessoa pode facilmente ativar instâncias P4d em EC2 SuperClusters. Para obter ajuda adicional, entre em contato conosco.

P: As AMIs que usei em P3 e P3dn funcionarão em P4?

As AMIs de instâncias P4 precisarão de novos drivers da NVIDIA para as GPUs A100 e uma versão mais recente do driver ENA instalada. As instâncias P4 são desenvolvidas pelo sistema Nitro e requerem AMIs com drivers NVMe e ENA instalados. A P4 também vem com novas CPUs Intel Cascade Lake, que vêm com um conjunto de instruções atualizado, portanto, recomendamos o uso das distribuições mais recentes de estruturas de trabalho de ML que aproveitam esses novos conjuntos de instruções para pré-processamento de dados.

P: Qual é a diferença entre as instâncias P3 e G3?

As instâncias P3 são a próxima geração de instâncias de GPU computacionais de uso geral do EC2 e contam com até 8 GPUs NVIDIA Tesla V100 de última geração. Essas novas instâncias aumentam consideravelmente o desempenho e a escalabilidade, além de adicionar novos recursos, incluindo a nova arquitetura Streaming Multiprocessor (SM – Multitprocessador de streaming) para otimização de desempenho de Machine Learning (ML)/aprendizado profundo (DL), interconexão de GPU de alta velocidade NVIDIA NVLink de segunda geração e memória HBM2 altamente ajustada para aumentar a eficiência.

As instâncias G3 utilizam GPUs NVIDIA Tesla M60 e oferecem uma plataforma de alta performance para aplicativos gráficos que usam o DirectX ou o OpenGL. As GPUs NVIDIA Tesla M60 aceitam os recursos do NVIDIA GRID Virtual Workstation e a codificação de hardware H.265 (HEVC). Cada GPU M60 em instâncias G3 aceitam quatro monitores com resoluções de até 4096x2160, além de ter a licença de uso do NVIDIA GRID Virtual Workstation para um usuário simultâneo conectado. Os exemplos de aplicativos de instâncias G3 incluem visualizações em 3D, estações de trabalho remotas com alto consumo de gráficos, renderização em 3D, streaming de aplicativos, codificação de vídeo, além de outras cargas de trabalho gráficas no lado do servidor.

P: Quais são os benefícios das GPUs NVIDIA Volta GV100?

O novo acelerador NVIDIA Tesla V100 usa a nova GPU Volta GV100. Além de incorporar os avanços do modelo anterior (GPU Pascal GP100), a GV100 aumenta consideravelmente o desempenho e a escalabilidade, além de adicionar muitos novos recursos para aprimorar a capacidade de programação. Esses avanços turbinarão sistemas e aplicativos de HPC, datacenter, supercomputadores e aprendizado profundo.

P: Quem serão os beneficiados com as instâncias P3?

As instâncias P3 e sua alta performance computacional beneficiarão usuários de aplicações de inteligência artificial (IA), machine learning (ML), aprendizado profundo (DL) e computação de alta performance (HPC). Os usuários incluem cientistas de dados, arquitetos de dados, analistas de dados, pesquisadores científicos, engenheiros de ML, gerentes de TI e desenvolvedores de software. Entre os principais setores estão: energia/petróleo e gás, serviços financeiros (serviços bancários, seguros), healthcare, farmacêutico, científico, TI, varejo, manufatura, alta tecnologia, transportes, governo e academia, entre muitos outros.

P: Quais são alguns dos principais casos de uso de instâncias P3?

As instâncias P3 usam GPUs para acelerar vários sistemas de aplicativos de aprendizado profundo, incluindo plataformas de veículos autônomos, sistemas de reconhecimento de fala, imagem e texto, análises de vídeo inteligentes, simulações moleculares, descoberta de medicamentos, diagnósticos de doenças, previsões meteorológicas, análises de big data, modelagem financeira, robótica, automação de fábricas, tradução de idiomas em tempo real, otimização de pesquisas online e recomendações de usuário personalizadas, para citar apenas alguns exemplos.

P: Por que os clientes devem usar instâncias P3 da Amazon com GPU para IA/ML e HPC?

As instâncias computacionais baseadas em GPU oferecem maior taxa de transferência e performance, porque foram projetadas para processamento paralelo massivo, usando milhares de núcleos especializados por GPU, ao invés de CPUs que oferecem processamento sequencial com alguns núcleos. Além disso, os desenvolvedores criaram centenas de aplicativos HPC científicos otimizados para GPU, como química quântica, dinâmica molecular e meteorologia, entre vários outros. As pesquisas indicam que mais de 70% das aplicações de HPC mais populares fornecem suporte integrado para GPUs.

P: Como as instâncias G3 se diferenciam das instâncias P2?

As instâncias G3 utilizam GPUs NVIDIA Tesla M60 e oferecem uma plataforma de alta performance para aplicativos gráficos que usam o DirectX ou o OpenGL. As GPUs NVIDIA Tesla M60 aceitam os recursos do NVIDIA GRID Virtual Workstation e a codificação de hardware H.265 (HEVC). Cada GPU M60 em instâncias G3 aceitam quatro monitores com resoluções de até 4096x2160, além de ter a licença de uso do NVIDIA GRID Virtual Workstation para um usuário simultâneo conectado. Os exemplos de aplicativos de instâncias G3 incluem visualizações em 3D, estações de trabalho remotas com alto consumo de gráficos, renderização em 3D, streaming de aplicativos, codificação de vídeo, além de outras cargas de trabalho gráficas no lado do servidor.

As instâncias P2 usam GPUs NVIDIA Tesla K80 e são projetadas para computação de GPU de propósito geral, utilizando modelos de programação CUDA ou OpenCL. As instâncias P2 disponibilizam aos clientes redes de 25 Gbps com alta largura de banda, recursos poderosos de ponto flutuante de precisão simples ou dupla e memória com código de correção de erros (ECC), o que as torna ideais para aprendizado profundo, bancos de dados de alta performance, fluidodinâmica computacional, finanças computacionais, análises sísmicas, modelagem molecular, genômica, renderização e outras cargas de trabalho de GPU computacionais do lado do servidor.

P: Qual a diferença entre as instâncias P3 e as instâncias P2?

As instâncias P3 são a próxima geração de instâncias de GPU computacionais de uso geral do EC2 e contam com até 8 GPUs NVIDIA Tesla GV100 de última geração. Essas novas instâncias aumentam consideravelmente o desempenho e a escalabilidade, além de adicionar novos recursos, incluindo a nova arquitetura Streaming Multiprocessor (SM – Multitprocessador de streaming), otimizada para desempenho de Machine Learning (ML)/aprendizado profundo (DL), interconexão de GPU de alta velocidade NVIDIA NVLink de segunda geração e memória HBM2 altamente ajustada para aumentar a eficiência.

As instâncias P2 usam GPUs NVIDIA Tesla K80 e são projetadas para computação de GPU de propósito geral, utilizando modelos de programação CUDA ou OpenCL. As instâncias P2 oferecem aos clientes redes de alta largura de banda de 25 Gbps, recursos avançados de ponto flutuante de precisão simples e dupla e memória com código de correção de erro (ECC).

P: Quais APIs e modelos de programação são compatíveis com as instâncias de GPU gráficas e computacionais?

As instâncias P3 oferecem suporte a CUDA 9 e OpenCL, as instâncias P2 oferecem suporte a CUDA 8 e OpenCL 1.2 e as instâncias G3 oferecem suporte a DirectX 12, OpenGL 4.5, CUDA 8 e OpenCL 1.2.

P: Onde posso obter drivers da NVIDIA para instâncias P3 e G3?

Há dois métodos para obter os drivers da NVIDIA. Existem catálogos no AWS Marketplace que oferecem Amazon Linux AMIs e Windows Server AMIs com os drivers da NVIDIA pré-instalados. Você também pode executar AMIs HVM de 64 bits e instalar os drivers você mesmo. Visite o site de drivers da NVIDIA e procure por NVIDIA Tesla V100 para instâncias P3, NVIDIA Tesla K80 para instâncias P2 e NVIDIA Tesla M60 para instâncias G3.

P: Quais AMIs posso usar com as instâncias P3, P2 e G3?

No momento, é possível usar Windows Server, SUSE Enterprise Linux, Ubuntu e Amazon Linux AMIs em instâncias P2 e G3. As instâncias P3 somente oferecem suporte a AMIs HVM. Se você quiser executar AMIs com sistemas operacionais não listados aqui, entre em contato com o Suporte ao cliente da AWS com sua solicitação ou pesquise nos Fóruns do EC2.

P: O uso de instâncias G2 e G3 exige licenças de terceiros?

Além dos drivers da NVIDIA e do SDK GRID, o uso das instâncias G2 e G3 não exige necessariamente nenhuma licença de terceiros. No entanto, você é responsável por determinar se o seu conteúdo ou se a tecnologia usada nas instâncias G2 e G3 exige alguma licença adicional. Por exemplo, se você estiver transmitindo conteúdo, pode precisar de licenças para parte do conteúdo ou para ele todo. Se você estiver usando tecnologia de terceiros, como sistemas operacionais, codificadores e decodificadores de áudio e/ou vídeo da Microsoft, Thomson, Fraunhofer IIS, Sisvel S.p.A., MPEG-LA e Coding Technologies, consulte esses provedores para saber se é necessário ter uma licença. Por exemplo, se você aproveitar o codificador de vídeo integrado h.264 da GPU NVIDIA GRID, será necessário entrar em contato com a MPEG-LA para obter orientação, e se estiver usando tecnologia mp3, será necessário entrar em contato com a Thomson.

P: Por que não estou recebendo recursos do NVIDIA GRID nas instâncias G3 ao usar o driver que obtive por download no site da NVIDIA?

A GPU NVIDIA Tesla M60 usada em instâncias G3 exige um driver NVIDIA GRID especial para habilitar todos os recursos gráficos avançados, além do apoio de 4 monitores com resolução de até 4096x2160. É necessário usar uma AMI com o driver NVIDIA GRID pré-instalado ou fazer download e instalar o driver NVIDIA GRID seguindo as instruções da documentação da AWS.

P: Por que não consigo ver o GPU quando uso o Microsoft Remote Desktop?

Ao usar a área de trabalho remota, os GPUs que usam o modelo de driver WDDM são substituídos por um driver de exibição de área de trabalho remota não acelerado. Para acessar seu hardware GPU, é necessário utilizar uma ferramenta de acesso remoto diferente, como o VNC.

P: O que é a F1 do Amazon EC2?

A instância F1 do Amazon EC2 é uma instância de computação com hardware programável que pode ser usada para acelerar aplicações. O novo tipo de instância F1 oferece uma FPGA de alto desempenho e fácil acesso para desenvolver e implantar acelerações de hardware personalizadas.

P: O que são FPGAs e por que são necessárias?

As FPGAs são circuitos integrados programáveis que podem ser configurados usando software. O uso de FPGAs permite acelerar as aplicações em até 30 vezes em comparação aos servidores que usam apenas CPUs. Além disso, as FPGAs são programáveis. Portanto, você tem a flexibilidade de atualizar e otimizar a aceleração do hardware sem necessidade de projetar um novo hardware.

P: Como a F1 pode ser comparada com soluções tradicionais de FPGA?

A instância F1 é uma instância da AWS com hardware programável para aceleração de aplicações. Com a F1, você tem acesso a hardware de FPGA com alguns cliques simples, reduzindo o tempo e o custo de um ciclo completo de desenvolvimento e implantação de FPGAs em grande escala de meses ou anos para dias. Embora a tecnologia de FPGA já esteja disponível há décadas, a adoção da aceleração de aplicações enfrentou dificuldades no desenvolvimento de aceleradores e no modelo de negócios para vender hardware personalizado para empresas tradicionais devido ao tempo e ao custo de infraestrutura de desenvolvimento, de projeto de hardware e de implantação em grande escala. Com a nova oferta, os clientes evitam as tarefas pesadas genéricas associadas ao desenvolvimento de FPGAs em datacenters locais.

P: O que é uma imagem de FPGA da Amazon (AFI)?

O projeto criado para programar uma FPGA é denominado uma Imagem de FPGA da Amazon (AFI). A AWS disponibiliza um serviço para registrar, gerenciar, copiar, consultar e excluir AFIs. Depois que uma AFI for criada, ela poderá ser carregada em uma instância F1 em execução. Você pode carregar várias AFIs na mesma instância F1, como também alternar entre AFIs durante o runtime sem necessidade de reinicialização. Isso permite testar e executar prontamente várias acelerações de hardware em rápida sequência. Você também pode oferecer a outros clientes do AWS Marketplace uma combinação da sua aceleração de FPGA e de uma AMI com software personalizado ou drivers de AFI.

P: Como posso catalogar minha aceleração de hardware no AWS Marketplace?

Ao desenvolver sua AFI e as ferramentas/os drivers de software necessários para utilizá-la. Depois, será necessário empacotar essas ferramentas/esses drivers de software em uma Imagem de máquina da Amazon (AMI) em um formato criptografado. A AWS gerencia todas as AFIs no formato criptografado disponibilizado por você mesmo para manter a segurança do seu código. Para vender um produto no AWS Marketplace, você ou a sua empresa deverá fazer o cadastro para tornar-se um revendedor do AWS Marketplace. Depois, será necessário enviar o ID da AMI e os IDs da AFI que você deseja empacotar em um único produto. O AWS Marketplace fará clonagem das AMIs e das AFIs para criar um produto e associará um código de produto a estes artefatos, por exemplo, qualquer usuário final que se inscrever nesse código de produto terá acesso a essa AMI e às AFIs.

P: O que está disponível nas instâncias F1?

Para os desenvolvedores, a AWS oferece um Hardware Development Kit (HDK – Kit de desenvolvimento de hardware) para ajudar a acelerar os ciclos de desenvolvimento, uma AMI para desenvolvedores de FPGA para desenvolvimento na nuvem, um SDK para as AMIs em execução na instância F1, além de um conjunto de APIs para registrar, gerenciar, copiar, consultar e excluir AFIs. Desenvolvedores e clientes têm acesso ao AWS Marketplace, onde as AFIs podem ser anunciadas e compradas para uso em aceleração de aplicações.

P: Preciso ser um especialista em FPGA para usar uma instância F1?

Os clientes da AWS que assinam uma AMI otimizada para F1 do AWS Marketplace não precisam saber nada sobre FPGAs para aproveitar as acelerações proporcionadas pela instância F1 e pelo AWS Marketplace. Basta inscrever-se em uma AMI otimizada para F1 no AWS Marketplace com uma aceleração que corresponda à carga de trabalho. A AMI contém todo o software necessário para usar a aceleração da FPGA. Os clientes precisam apenas criar software para a API específica desse acelerador e começar e usá-lo.

P: Sou um desenvolvedor de FPGA. Como começo a usar as instâncias F1?

Os desenvolvedores podem começar a usar uma instância F1 criando uma conta da AWS e fazendo o download do kit de desenvolvimento de hardware (HDK) da AWS. O HDK inclui documentação sobre a F1, interfaces internas da FPGA e scripts de compilador para a geração de AFIs. Os desenvolvedores podem começar a escrever código FPGA para as interfaces documentadas incluídas no HDK, criando sua função de aceleração. Os desenvolvedores podem executar instâncias da AWS com a AMI para desenvolvedores de FPGA. Essa AMI inclui as ferramentas de desenvolvimento necessárias para compilar e simular o código FPGA. A AMI para desenvolvedores é melhor executada nas mais recentes instâncias C5, M5 ou R4. Os desenvolvedores devem ter experiência em linguagens de programação usadas para a criação de código FPGA (por exemplo, Verilog ou VHDL) e compreender a operação que desejam acelerar.

P: Não sou um desenvolvedor de FPGA. Como começo a usar instâncias F1?

Os clientes podem começar a usar instâncias F1 selecionando um acelerador no AWS Marketplace, fornecido pelos vendedores do AWS Marketplace e executando uma instância F1 com essa AMI. A AMI inclui todo o software e as APIs para esse acelerador. A AWS gerencia a programação da FPGA com a AFI desse acelerador. Os clientes não precisam ter experiência ou conhecimento de FPGA para usar esses aceleradores. Eles podem trabalhar inteiramente com as APIs de software desse acelerador.

P: A AWS oferece um kit para desenvolvedores?

Sim. O kit de desenvolvimento de hardware (HDK) inclui ferramentas e modelos de simulação para que os desenvolvedores possam simular, depurar, criar e registrar código de aceleração. O HDK inclui amostras de código, scripts de compilação, interfaces de depuração e muitas outras ferramentas necessárias para o desenvolvimento de código FPGA para instâncias F1. Você pode usar o HDK em uma AMI fornecida pela AWS ou em seu ambiente de desenvolvimento on-premises. Esses modelos e scripts estão disponíveis publicamente com uma conta da AWS.

P: Posso usar o HDK em meu ambiente de desenvolvimento on-premises?

Sim. Você pode usar o HDK em uma AMI disponibilizada pela AWS ou em seu próprio ambiente de desenvolvimento local.

P: Posso adicionar uma FPGA a qualquer tipo de instância do EC2?

Não. As instâncias F1 são fornecidas em três tamanhos: f1.2xlarge, f1.4xlarge e f1.16xlarge.

P: Como uso o chip Inferentia em instâncias Inf1?

Você pode iniciar seu fluxo de trabalho construindo e treinando seu modelo em uma das estruturas de trabalhos populares de ML, como TensorFlow, PyTorch ou MXNet, usando instâncias de GPU como P4, P3 ou P3dn. Uma vez que o modelo for treinado para sua precisão necessária, você poderá usar a API da estrutura de trabalho de ML para invocar o Neuron, um kit de desenvolvimento de software para o Inferentia, para compilar o modelo para execução em chips Inferentia, carregá-lo na memória do Inferentia e, em seguida, executar a chamadas de inferência. Para começar rapidamente, você pode usar as AMIs do AWS Deep Learning que vêm pré-instaladas com estruturas de ML e o SDK do Neurônio. Para uma experiência totalmente gerenciada, você poderá usar o Amazon SageMaker, que permitirá implantar perfeitamente seus modelos treinados em instâncias Inf1.

P: Quando devo usar instâncias Inf1 vs. C6i ou C5 vs. G4 para inferência?

Os clientes que executam modelos de machine learning que são sensíveis à latência e à taxa de transferência de inferências podem usar instâncias Inf1 para inferência econômica de alta performance. Para os modelos de ML que são menos sensíveis à latência e à taxa de transferência de inferência, os clientes podem usar instâncias C6i ou C5 do EC2 e utilizar o conjunto de instruções AVX-512/VNNI. Para modelos de ML que exigem acesso a bibliotecas CUDA, CuDNN ou TensorRT da NVIDIA, recomendamos o uso de instâncias G4.

Características dos modelos e bibliotecas usadas EC2 Inf1 C6i ou C5 do EC2 EC2 G4
Modelos que se beneficiam de baixa latência e alto throughput a um baixo custo X    
Modelos não sensíveis à latência e ao throughput X  
Modelos que exigem bibliotecas de desenvolvedores da NVIDIA X

P: Quando devo escolher a EI (Inferência elástica) para inferência versus instâncias Inf1 do Amazon EC2?

Há dois casos em que os desenvolvedores escolhem a EI em vez de instâncias Inf1: (1) se você precisar de tamanhos de CPU e memória diferentes dos oferecidos pela Inf1, poderá usar a EI para anexar aceleração à instância do EC2 com a combinação certa de CPU e memória para o seu aplicativo (2) se os seus requisitos de desempenho forem significativamente menores do que o que é oferecido pela menor instância Inf1, usar a EI poderá ser uma opção mais econômica. Por exemplo, se você precisar apenas de 5 TOPS, o suficiente para processar até 6 streams de vídeo simultâneos, o uso da menor fatia de EI com uma instância C5.large pode ser 50% mais barato do que o uso do menor tamanho de uma instância Inf1.

P: Quais tipos e operadores de modelos de ML têm suporte pelas instâncias Inf1 do EC2 usando o chip Inferentia?

Os chips Inferentia oferecem suporte a modelos de machine learning comumente usados, como o SSD (single shot detector) e o ResNet para reconhecimento/classificação de imagem e o Transformer e o BERT para processamento e tradução de linguagem natural, entre muitos outros. Uma lista de operadores com suporte pode ser encontrada no GitHub.

P: Como tirar proveito do recurso NeuronCore Pipeline do AWS Inferentia para reduzir a latência?

Instâncias Inf1 com vários chips Inferentia, como Inf1.6xlarge ou Inf1.24xlarge, oferecem suporte a uma interconexão rápida de chip para chip. Usando o recurso de Pipeline de processamento do Neuron, você pode dividir seu modelo e carregá-lo na memória de cache local em vários chips. O compilador do Neuron usa a técnica de compilação antes do tempo (AOT) para analisar o modelo de entrada e compilá-lo para que ele caiba na memória em chip de um ou vários chips Inferentia. Isso permite que os Cores do Neuron tenham acesso de alta velocidade aos modelos e não exijam acesso à memória fora do chip, mantendo a latência limitada e aumentando a taxa de transferência de inferência geral.

P: Qual é a diferença entre o AWS Neuron e o Amazon SageMaker Neo?

O AWS Neuron é um SDK especializado para chips AWS Inferentia que otimiza a performance de inferência de machine learning dos chips Inferentia. Ele consiste em um compilador, em um tempo de execução e em ferramentas de criação de perfil para o AWS Inferentia e é necessário para executar cargas de trabalho de inferência em instâncias Inf1 do EC2. Por outro lado, o Amazon SageMaker Neo é um serviço agnóstico de hardware que consiste em um compilador e tempo de execução, que permite que os desenvolvedores treinem modelos de machine learning uma vez e os executem em muitas plataformas de hardware diferentes.  

P: Como faço para usar os chips Trainium em instâncias Trn1?

A pilha de softwares Trainium, AWS Neuron SDK, se integra às principais frameworks de ML, como PyTorch e TensorFlow, para que você possa começar com o mínimo de alterações de código. Para começar rapidamente, você pode usar as AMIs do AWS Deep Learning e AWS Deep Learning Containers, que vêm pré-configurados com o AWS Neuron. Se estiver usando aplicações em contêineres, poderá implantar o AWS Neuron usando o Amazon Elastic Container Service (Amazon ECS), o Amazon Elastic Kubernetes Service (Amazon EKS) ou seu mecanismo de contêiner nativo preferido. O AWS Neuron também oferece suporte ao Amazon SageMaker, que você pode usar para criar, treinar e implantar modelos de machine learning.

P: Onde posso implantar modelos de aprendizado profundo treinados no Trn1?

Você pode implantar modelos de aprendizado profundo treinados em instâncias Trn1 em qualquer outra instância do Amazon EC2 que ofereça suporte a casos de uso de aprendizado profundo, incluindo instâncias baseadas em CPUs, GPUs ou outros aceleradores. Você também pode implantar modelos treinados em instâncias Trn1 fora da AWS, como datacenters on-premises ou em dispositivos incorporados na borda. Por exemplo, você pode treinar seus modelos em instâncias Trn1 e implantá-los em instâncias Inf1, instâncias G5, instâncias G4 ou dispositivos de computação na borda.

P: Quando eu usaria instâncias Trn1 em vez de instâncias baseadas em GPU para treinar modelos de ML?

As instâncias Trn1 são uma boa opção para seus casos de uso de treinamento em processamento de linguagem natural (PLN), modelo de linguagem grande (LLM) e modelo de visão computacional (CV). As instâncias Trn1 se concentram em acelerar o treinamento de modelos, para oferecer alta performance e, ao mesmo tempo, reduzir os custos de treinamento de modelos. Se você tiver modelos de ML que precisam de bibliotecas ou linguagens proprietárias de terceiros, por exemplo, bibliotecas NVIDIA CUDA, CUDA Deep Neural Network (cuDNN) ou TensorRT, recomendamos usar as instâncias baseadas em GPU da Nvidia (P4, P3).

Instâncias com capacidade de intermitência

P. Qual a diferença das instâncias de performance com capacidade de intermitência?

O Amazon EC2 permite que você escolha entre instâncias de performance fixa (por exemplo, as famílias de instância C, M e R) e instâncias de performance com capacidade de intermitência (por exemplo, T2). As instâncias de performance com capacidade de intermitência oferecem um nível de referência de performance da CPU com capacidade de intermitência acima da linha de base.

A performance de referência e a capacidade de intermitência das instâncias T2 são regidos pelos créditos de CPU. Cada instância T2 recebe créditos de CPU continuamente a uma taxa que depende do tamanho da instância. As instâncias T2 acumulam créditos de CPU quando estão ociosas e consomem esses créditos quando estão ativas. Um crédito de CPU fornece a performance de um núcleo de CPU completo por um minuto. 

Modelo

vCPUs

Créditos de CPU/hora

Saldo máximo de créditos de CPU

Performance basal da CPU

t2.nano 1 3 72 5% de um núcleo

t2.micro

1

6

144

10% de um núcleo

t2.small

1

12

288

20% de um núcleo

t2.medium

2

24

576

40% de um núcleo*

t2.large 2 36 864 60% de um núcleo**

t2.xlarge

4

54

1.296

90% de um núcleo***

t2.2xlarge

8

81

1.944

135% de um núcleo****

* Para t2.medium, aplicações com um único thread podem usar 40% de um núcleo ou, se necessário, aplicações multithread podem usar 20% de dois núcleos cada.

**Para t2.large, aplicativos com um único thread podem usar 60% de um núcleo ou, se necessário, aplicativos multithread podem usar 30% de dois núcleos cada.

*** Para t2.xlarge, aplicações com um único thread podem usar 90% de 1 núcleo ou, se necessário, aplicações multithread podem usar 45% de 2 núcleos cada ou 22,5% de todos os 4 núcleos.

**** Para t2.2xlarge, aplicações com um único thread podem usar completamente um núcleo ou, se necessário, aplicações multithread podem usar 67,5% de dois núcleos cada ou 16,875% de todos os oito núcleos.

P: Como posso escolher a imagem de máquina da Amazon (AMI) correta para minhas instâncias T2?

Você deve verificar se os requisitos mínimos de memória do sistema operacional e as aplicações estão dentro da memória alocada para cada tamanho de instância T2 (por exemplo, 512 MiB para t2.nano). Sistemas operacionais com interfaces gráficas do usuário (GUI) que consomem uma quantidade significativa de memória e CPU, como o Microsoft Windows, por exemplo, podem precisar de uma instância t2.micro ou maior para muitos casos de uso. Você pode encontrar AMIs adequadas para os tipos de instância t2.nano no AWS Marketplace. Clientes do Windows que não precisam da interface gráfica podem usar a AMI do Microsoft Windows Server 2012 R2 Core.

P: Quando eu devo escolher uma instância de performance com capacidade de intermitência, como a T2?

As instâncias T2 oferecem uma plataforma econômica para uma grande variedade de cargas de trabalho de produção de uso geral. As instâncias T2 Unlimited podem sustentar uma alta performance de CPU pelo período necessário. Se as workloads exigirem consistentemente o uso de CPU muito superior à linha de base, considere instâncias de CPU dedicadas, como M ou C.

P: Como eu posso ver o saldo de créditos de CPU de cada instância T2?

Você pode ver o saldo de créditos de CPU de cada instância T2 nas métricas do EC2 por instância, no Amazon CloudWatch. As instâncias T2 têm quatro métricas: CPUCreditUsage, CPUCreditBalance, CPUSurplusCreditBalance e CPUSurplusCreditsCharged. CPUCreditUsage indica a quantidade de créditos de CPU utilizados. CPUCreditBalance indica o saldo de créditos de CPU. CPUSurplusCredit Balance indica os créditos usados para intermitência na ausência de créditos acumulados. CPUSurplusCreditsCharged indica créditos cobrados quando o uso médio excede a linha de base.

P: O que acontece com a performance da CPU se minha instância T2 ficar com poucos créditos (se o saldo de créditos da CPU ficar próximo de zero)?

Se a sua instância T2 tiver saldo zero de créditos de CPU, o desempenho permanecerá na linha de base. Por exemplo, o t2.micro oferece desempenho de CPU de linha de base de 10% de um núcleo de CPU físico. Se o saldo de crédito de CPU da sua instância estiver chegando próximo de zero, o desempenho da CPU será baixado para a linha de base durante um intervalo de 15 minutos.

P: Meu saldo de créditos da instância T2 persiste após uma parada/início?

Não, uma instância interrompida não retém seu saldo de créditos acumulado anteriormente.

P: Instâncias T2 podem ser adquiridas como instâncias reservadas ou instâncias spot?

As instâncias T2 podem ser compradas como instâncias sob demanda, reservadas ou spot.

P: O que são instâncias T4g do Amazon EC2?

As instâncias T4g do Amazon EC2 são a próxima geração de instâncias de pico de uso geral alimentadas por processadores AWS Graviton2 baseados em Arm. As instâncias T4g oferecem preço/desempenho até 40% melhor em comparação a instâncias T3. Elas são baseadas no AWS Nitro System, uma combinação de hardware dedicado e Nitro Hypervisor.

P: Quais são alguns dos casos de uso ideais para instâncias T4g?

As instâncias T4g oferecem preço/performance até 40% melhor em comparação a instâncias T3 para uma grande variedade de workloads de uso geral de pico, como microsserviços, aplicações interativas de baixa latência, bancos de dados pequenos e médios, áreas de trabalho virtuais, ambientes de desenvolvimento, repositórios de código e aplicações essenciais para os negócios. Os clientes que implantam aplicações criadas em software de código-fonte aberto em todas as instâncias T perceberão que as instâncias T4g são uma opção atraente para obter o melhor preço-performance. Os desenvolvedores Arm também podem criar suas aplicações diretamente no hardware Arm nativo, ao contrário da compilação cruzada ou da emulação.

P: Como os clientes podem obter acesso ao teste gratuito da T4g?

Até 31 de dezembro de 2024, todos os clientes da AWS serão automaticamente inscritos no teste gratuito da T4g detalhado no Nível gratuito da AWS. Durante o período de teste gratuito, os clientes que executam uma instância t4g.small receberão automaticamente 750 horas gratuitas por mês deduzidas de sua fatura a cada mês. As 750 horas são calculadas em conjunto em todas as regiões nas quais as instâncias t4g.small são usadas. Os clientes terão que pagar por créditos de CPU excedentes quando excederem os créditos de instâncias alocados durante as 750 horas gratuitas do programa de teste gratuito da T4g. Para mais informações sobre o funcionamento dos créditos de CPU, consulte Principais conceitos e definições de instâncias de performance com capacidade de intermitência no Guia do usuário do Amazon EC2 para instâncias Linux.

P: Quem está qualificado para o teste gratuito da T4g?

Todos os clientes novos e existentes com uma conta da AWS podem aproveitar as vantagens do teste gratuito da T4g. O teste gratuito da T4g está disponível por tempo limitado até 31 de dezembro de 2024. Os horários de início e término da avaliação gratuita estão baseados no Horário Universal Coordenado (UTC). O teste gratuito da T4g estará disponível além do nível gratuito da AWS existente em t2.micro/t3.micro. Os clientes que esgotaram o uso do nível gratuito de t2.micro (ou t3.micro, dependendo da região) ainda podem se beneficiar do teste gratuito da T4g.

P: Qual é a disponibilidade regional do teste gratuito da T4g?

O teste gratuito da T4g atualmente está disponível nas seguintes regiões da AWS: Leste dos EUA (Ohio), Leste dos EUA (N. da Virgínia), Oeste dos EUA (N. da Califórnia), Oeste dos EUA (Oregon), América do Sul (São Paulo), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Seul), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Tóquio), Canadá (Central), Europa (Frankfurt), Europa (Irlanda), Europa (Londres) e Europa (Estocolmo). No momento, não está disponível nas regiões China (Pequim) e China (Ningxia).

Como parte da avaliação gratuita, os clientes podem executar instâncias t4g.small em uma ou várias regiões de um único bucket cumulativo de 750 horas gratuitas por mês, até 31 de dezembro de 2024. Por exemplo, um cliente pode executar t4g.small em Oregon por 300 horas por um mês e executar outro t4g.small em Tóquio por 450 horas no mesmo mês. Isso adicionaria até 750 horas/mês de limite do teste gratuito.

P: Há alguma cobrança adicional para executar AMIs específicas com o teste gratuito da T4g?

Com o teste gratuito da t4g.small, não há cobrança de imagem de máquina da Amazon (AMI) para o Amazon Linux 2, RHEL e SUSE Linux AMIs disponíveis por meio do EC2 Console Quickstart pelas primeiras 750 horas/mês gratuitas. Após as 750 horas/mês gratuitas, os preços sob demanda regulares, incluindo a cobrança de AMI (se houver), serão aplicados. As taxas de software aplicáveis para as ofertas do AWS Marketplace com opções de atendimento AMI não estão incluídas no teste gratuito. Apenas o custo da infraestrutura t4g.small está incluído e coberto pelo teste gratuito.

P: Como o teste gratuito da t4g.small será refletido na minha fatura da AWS?

O teste gratuito da T4g tem um ciclo de faturamento mensal que começa no primeiro dia de cada mês e termina no último dia desse mês. No plano de cobrança de teste gratuito da T4g, os clientes que usam t4g.small verão um item de linha de USD 0 em sua fatura sob o plano de preços sob demanda para as primeiras 750 horas agregadas de uso para cada mês durante o período de teste gratuito. Os clientes podem começar a usar a qualquer momento durante o período de teste gratuito e obter 750 horas gratuitas pelo restante do mês. As horas não utilizadas do mês anterior não serão transferidas. Os clientes podem iniciar várias instâncias t4g.small no teste gratuito. Os clientes serão notificados automaticamente por e-mail usando o AWS Budgets quando seu uso mensal agregado atingir 85% das 750 horas gratuitas. Quando o uso da instância agregada exceder 750 horas para o ciclo de faturamento mensal, os clientes serão cobrados com base em preços regulares sob demanda para as horas excedidas naquele mês. Para clientes com um Compute Savings Plan ou T4g Instance Savings Plan, o desconto do Savings Plan (SV) será aplicado ao preço sob demanda por horas além das 750 horas de teste gratuito. Se os clientes adquiriram o plano Instância reservada (IR) da T4g, o plano de IR se aplica primeiro a qualquer uso por hora. Para qualquer uso restante após a aplicação do plano de RI, o plano de cobrança de teste gratuito estará em vigor.

P: Se os clientes se inscreverem para faturamento consolidado (ou seja, uma única conta de pagador), eles poderão obter o teste gratuito da T4g para cada conta vinculada à conta de pagador?

Não, os clientes que usarem o faturamento consolidado para consolidar o pagamento de várias contas terão acesso a um nível gratuito por organização. Cada conta de pagador obtém um total agregado de 750 horas grátis por mês. Para mais detalhes sobre faturamento consolidado, consulte Faturamento consolidado para AWS Organizations no Guia do usuário do Gerenciamento de Faturamento e Custos da AWS.

P: Os clientes serão cobrados por créditos de CPU excedentes como parte do teste gratuito da T4g?

Os clientes terão que pagar por créditos de CPU excedentes quando excederem os créditos de instâncias alocados durante as 750 horas gratuitas do programa de teste gratuito da T4g. Para mais detalhes sobre o funcionamento dos créditos de CPU, consulte Principais conceitos e definições de instâncias de performance com capacidade de intermitência no Guia do usuário do Amazon EC2 para instâncias Linux.

P: No final do teste gratuito, como os clientes serão cobrados pelas instâncias t4g.small?

A partir de 1º de janeiro de 2025, os clientes que executam instâncias t4g.small serão automaticamente transferidos do plano de teste gratuito para o plano de preços sob demanda (ou plano Instância Reservada (IR)/Savings Plan (SV) se adquirido). Os créditos acumulados serão zerados. Os clientes receberão uma notificação por e-mail sete dias antes do final do período do teste gratuito informando que o período de teste gratuito terminará em sete dias. A partir de 1º de janeiro de 1, 2025, se o plano IR for adquirido, os planos de IR serão aplicados. Caso contrário, os clientes serão cobrados com preços regulares sob demanda para instâncias t4g.small. Para clientes que têm o T4g Instance Savings Plan ou um Compute Savings Plan, o faturamento da instância t4g.small aplicará o desconto do Savings Plan em seus preços sob demanda.

Instâncias otimizadas para computação

P: Quando devo usar instâncias otimizadas para computação?

As instâncias otimizadas para computação são projetadas para aplicativos que se beneficiam com grande poder computacional. Esses aplicativos incluem aplicativos com uso intensivo de computação, como servidores web de alta performance, computação de alta performance (HPC), modelagem científica, análises distribuídas e inferência de machine learning.

P: O que são instâncias C7g do Amazon EC2?

As instâncias C7g do Amazon EC2, com a tecnologia de processadores AWS Graviton3 de última geração, oferecem o melhor performance de preço no Amazon EC2 para workloads com uso intenso de computação. As instâncias C7g são ideais para computação de alta performance (HPC), processamento de lotes, automação de design eletrônico (EDA), jogos, codificação de vídeo, modelagem científica, análises distribuídas, inferência de machine learning (ML) baseada em CPU e veiculação de anúncios. Elas oferecem uma performance até 25% melhor do que as instâncias C6g de sexta geração baseadas no AWS Graviton2.

P: O que são instâncias C6g do Amazon EC2?

As instâncias C6g do Amazon EC2 são a próxima geração de instâncias otimizadas para computação e alimentadas por processadores AWS Graviton2 baseados em Arm. As instâncias C6g oferecem preço/desempenho até 40% melhor em comparação a instâncias C5. Elas são baseadas no AWS Nitro System, uma combinação de hardware dedicado e Nitro Hypervisor.

P: Quais são alguns dos casos de uso ideais para instâncias C6g?

As instâncias C6g oferecem benefícios de preço/performance para workloads com uso intenso de computação, como computação de alta performance (HPC), processamento em lote, veiculação de anúncios, codificação de vídeo, jogos, modelagem científica, análise distribuída e inferência de machine learning com base em CPU. Os clientes que implantam aplicações criadas em software de código-fonte aberto em toda a família de instâncias C perceberão que as instâncias C6g são uma opção atraente para obter o melhor preço-performance. Os desenvolvedores Arm também podem criar suas aplicações diretamente no hardware Arm nativo, ao contrário da compilação cruzada ou da emulação.

P: Quais são as várias opções de armazenamento disponíveis em instâncias C6g?

As instâncias C6g são otimizadas para EBS por padrão e oferecem até 19.000 Gbps de largura de banda dedicada para volumes do EBS criptografados e não criptografados. As instâncias C6g exigem interfaces Non-Volatile Memory Express (NVMe) para acessar volumes de armazenamento do EBS. Além disso, as opções com armazenamento de instâncias NVMe local também estarão disponíveis por meio dos tipos de instâncias C6gd.

P: Quais interfaces de rede são compatíveis com as instâncias C6g?

As instâncias C6g oferecem suporte a redes avançadas baseadas em ENA. Com o ENA, as instâncias C6g podem oferecer até 25 Gbps de largura de banda de rede entre as instâncias executadas em um placement group.

P: Os clientes precisarão modificar seus aplicativos e suas cargas de trabalho para que eles possam ser executados nas instâncias C6g?

As alterações necessárias dependem do aplicativo. Os clientes que executam aplicativos criados em softwares de código-fonte aberto descobrirão que o ecossistema Arm está bem desenvolvido e provavelmente já oferece suporte para seus aplicativos. A maioria das distribuições Linux, bem como contêineres (Docker, Kubernetes, Amazon ECS, Amazon EKS e Amazon ECR) oferece suporte para a arquitetura Arm. Os clientes encontrarão versões Arm dos pacotes de software mais usados disponíveis para instalação pelos mesmos mecanismos que eles usam atualmente. Aplicativos baseados em linguagens interpretadas (como Java, Node e Python) que não dependem de conjuntos de instruções de CPU nativos serão executados com alterações mínimas ou sem alterações. Aplicativos desenvolvidos usando linguagens compiladas (C, C++ e GoLang) precisarão ser recompilados para gerar binários do Arm. A arquitetura Arm tem amplo suporte nessas linguagens de programação populares, e o código moderno geralmente requer um simples comando 'Make'. Consulte o Guia de conceitos básicos no GitHub para obter mais detalhes.

P: Haverá mais opções de computação oferecidas com as famílias de instâncias C6?

Sim. Planejamos oferecer instâncias alimentadas por CPUs Intel e AMD no futuro como parte das famílias de instâncias C6.

P: Posso lançar instâncias C4 como instâncias otimizadas para o Amazon EBS?

Por padrão, todos os tipos de instância C4 são otimizados para o EBS. Instâncias C4, 500 Mbps a 4.000 Mbps para EBS, acima e além da taxa de transferência de rede de uso geral fornecida para a instância. Como esse recurso está sempre habilitado em instâncias C4, a execução de uma instância C4 explicitamente como otimizada para EBS não afetará o comportamento da instância.

P: Como posso usar o recurso de controle de estado de processador disponível na instância c4.8xlarge?

O tipo de instância c4.8xlarge oferece ai sistema operacional o recurso de controlar estados C e P do processador. No momento, esse recurso está disponível apenas em instâncias Linux. As configurações dos estados C e P podem ser alteradas para aumentar a consistência de desempenho do processador, reduzir a latência ou ajustar a instância para uma carga de trabalho específica. Por padrão, o Amazon Linux oferece a configuração de mais alto desempenho, ideal para a maioria das cargas de trabalho dos clientes. No entanto, se o seu aplicativo se beneficiaria com menor latência ao custo de frequências de núcleo único ou duplo mais altas, ou com desempenho sustentado com menor frequência em vez de frequências de pico Turbo Boost, você pode experimentar as opções de configuração de estado C e P disponíveis nessas instâncias. Para obter informações adicionais sobre esse recurso, consulte a seção Controle de estados do processador do Guia do usuário do Amazon EC2.

P: Quais instâncias estão disponíveis na categoria de instâncias otimizadas para computação?

Instâncias C6g: As instâncias C6g do Amazon EC2 são acionadas por processadores AWS Graviton2 baseados em Arm. Elas oferecem performance de preço até 40% melhor que as instâncias C5 e são ideais para a execução de workloads avançados com uso intenso de computação. Isso inclui workloads como computação de alta performance (HPC), processamento em lote, veiculação de anúncios, codificação de vídeo, jogos, modelagem científica, análise distribuída e inferência de machine learning com base em CPU. 

Instâncias C6a: as instâncias C6a são alimentadas por processadores AMD EPYC escalável de terceira geração com frequência turbo para todos os núcleos de 3,6 GHz, oferecem uma relação entre preço e performance até 15% melhor em relação às instâncias C5a para vários tipos de workloads e oferecem suporte a criptografia de memória sempre ativa usando a tecnologia AMD Transparent Single Key Memory Encryption (TSME). As instâncias C6a oferecem novos tamanhos de instância, com até 192 vCPUs e 384 GiB de memória, o dobro da maior instância C5a. A C6a também fornece aos clientes até 50 Gbps de velocidade de redes e 40 Gbps de largura de banda para o Amazon Elastic Block Store, mais do que o dobro das instâncias C5a.

Instâncias C6i: as instâncias C6i são alimentadas por processadores Intel Xeon escalável de terceira geração com uma frequência turbo para todos os núcleos de 3,5 GHz, oferecem relação entre preço e performance até 15% melhor em relação às instâncias C5 para vários tipos de workloads e criptografia de memória sempre ativa usando a tecnologia Intel Total Memory Encryption (TME). As instâncias C6i fornecem um novo tamanho de instância (c6i.32xlarge) com 128 vCPUs e 256 GiB de memória, 33% a mais do que a maior instância C5. Elas também fornecem largura de banda de memória até 9% maior por vCPU em comparação com instâncias C5. O C6i oferece aos clientes até 50 Gbps de velocidade de redes e 40 Gbps de largura de banda para o Amazon Elastic Block Store, o dobro em comparação a instâncias C5. As instâncias C6i também estão disponíveis com armazenamento local em nível de bloco SSD com base em NVMe (instâncias C6id) para aplicações que precisam de armazenamento local de alta velocidade e baixa latência. Em comparação com as instâncias C5d da geração anterior, as instâncias C6id oferecem armazenamento de TB até 138% maior por vCPU e um custo 56% inferior por TB.

Instâncias C5: as instâncias C5 são baseadas em processadores Intel Xeon Platinum, fazem parte da família de processadores Intel Xeon Scalable (nome de código Skylake-SP ou Cascade Lake), estão disponíveis em 9 tamanhos, oferecem até 96 vCPUs e 192 GiB de memória. As instâncias C5 oferecem uma melhora de 25% na relação preço/performance em comparação com as instâncias C4. As instâncias C5d têm armazenamento NVMe local para cargas de trabalho que exigem latência muito baixa e acesso ao armazenamento com alta capacidade de IOPS para leituras e gravações randômicas.

Instâncias C5a: as instâncias C5a oferecem a melhor relação entre preço e performance em x86 para um amplo conjunto de cargas de trabalho com uso intenso de computação, incluindo processamento em lote, análises distribuídas, transformações de dados, análises de logs e aplicações Web. As instâncias C5a apresentam processadores AMD EPYC da 2ª geração e 3,3 GHz com até 96 vCPUs e até 192 GiB de memória. As instâncias C5ad têm armazenamento NVMe local para workloads que exigem latência muito baixa e acesso ao armazenamento com alta capacidade de IOPS para leituras e gravações randômicas.

Instâncias C5n: as instâncias C5n são ideais para aplicações que exigem alta largura de banda de rede e taxa de pacotes. As instâncias C5n são ideais para aplicações como HPC, data lakes, aparelhos de rede, bem como aplicativos que requerem comunicação entre os nós e a Interface de Passagem de Mensagem (MPI). A C5n oferece uma opção de processadores Intel Xeon Platinum 3.0 GHz com até 72 vCPUs e 192GiB de memória.

Instâncias C4: as instâncias C4 são baseadas em processadores Intel Xeon E5-2666 v3 (nome de código Haswell). As instâncias C4 estão disponíveis em 5 tamanhos e oferecem até 36 vCPUs e 60 GiB de memória.

P: Por que os clientes devem escolher instâncias C6i em vez das instâncias C5?

As instâncias C6i oferecem performance de preço até 15% melhor em relação às instâncias C5 e criptografia de memória sempre ativa usando criptografia Intel Total Memory (TME). As instâncias C6i fornecem um novo tamanho de instância (c6i.32xlarge) com 128 vCPUs e 256 GiB de memória, 33% a mais do que a maior instância C5. Elas também fornecem largura de banda de memória até 9% maior por vCPU em comparação com instâncias C5. O C6i oferece aos clientes até 50 Gbps de velocidade de redes e 40 Gbps de largura de banda para o Amazon Elastic Block Store, o dobro em comparação a instâncias C5.

P: Por que os clientes devem escolher instâncias C5 em vez de instâncias C4?

O aprimoramento geracional de performance de CPU e redução de preço das instâncias C5, que resulta em uma melhoria de 25% de preço/performance em relação às instâncias C4, beneficia uma grande variedade de workloads executadas atualmente em instâncias C3 ou C4. Para aplicativos com uso intensivo de ponto flutuante, o Intel AVX-512 oferece aprimoramentos consideráveis no número de TFLOPS entregues por meio da extração eficaz de paralelismo de dados. Os clientes que procuram a melhor performance possível para renderização de gráficos e workloads de HPC que podem ser aceleradas por GPUs ou FPGAs devem também avaliar outras famílias de instância no portfólio do Amazon EC2 que incluem esses recursos para encontrar a instância ideal para suas workloads.

P: As instâncias C5 oferecem suporte a quais interfaces de armazenamento?

As instâncias C5 oferecem suporte apenas ao modelo de dispositivo EBS do NVMe. Volumes do EBS associados a instâncias C5 aparecerão como dispositivos NVMe. O NVMe é uma interface de armazenamento moderna que oferece redução de latência e resulta no aumento de E/S e taxa de transferência de discos.

P: Por que a memória total relatada pelo sistema operacional não corresponde à memória anunciada para os tipos de instância?

Partes da memória da instância do EC2 são reservadas e utilizadas pela BIOS virtual para vídeo RAM, DMI e ACPI. Além disso, para instâncias que são desenvolvidas pelo hipervisor Nitro da AWS, uma pequena porcentagem da memória da instância é reservada pelo hipervisor Nitro do Amazon EC2 para gerenciar a virtualização.

Instâncias otimizadas para computação de alta performance

P: Quais instâncias estão disponíveis na categoria de instâncias de computação de alta performance (HPC)?

Instâncias Hpc7g: as instâncias Hpc7g proporcionam o melhor custo-benefício para workloads de HPC na AWS. Elas oferecem performance até 70% melhor e custo-benefício quase 3 vezes melhor em comparação às instâncias baseadas no AWS Graviton da geração anterior para workloads de HPC com uso intensivo de computação. As instâncias Hpc7g são alimentadas pelos processadores AWS Graviton 3E e oferecem até 35% mais performance de instruções vetoriais, em comparação às instâncias existentes do AWS Graviton3. Essas instâncias oferecem desempenho de ponto flutuante até duas vezes melhor em comparação com instâncias alimentadas por processadores Graviton2. As instâncias Hpc7g são criadas no AWS Nitro System e fornecem largura de banda da rede de 200 Gbps para comunicação entre nós de baixa latência para workloads fortemente acopladas que exigem recursos de computação em cluster altamente paralelizados.

Instâncias Hpc7a: instâncias Hpc7a do Amazon Elastic Compute Cloud (Amazon EC2), baseadas em processadores AMD EPYC de 4ª geração, oferecem performance até 2,5 vezes melhor do que as instâncias Hpc6a do Amazon EC2. Comparadas às instâncias Hpc6a, os atributos das instâncias Hpc7a oferecem densidade de núcleo 2 vezes maior (até 192 núcleos), throughput de largura de banda de memória 2,1 vezes maior (até 768 GB de memória), 3 vezes mais memória (768 GB) e largura de banda da rede 3 vezes maior. Essas instâncias oferecem 300 Gbps de largura de banda da rede do Elastic Fabric Adapter (EFA), alimentada pelo AWS Nitro System, para comunicações rápidas e de baixa latência entre os nós.

Instâncias Hpc6id: as instâncias Hpc6id são baseadas em 64 núcleos de processadores escaláveis Intel Xeon de terceira geração, que são executados em frequências de até 3,5 GHz para maior eficiência. Essas instâncias foram projetadas para aprimorar a performance das workloads vinculadas à memória, oferecendo largura de banda de memória de 5 GB/s por vCPU. As instâncias Hpc6id oferecem redes do EFA de 200 Gbps para comunicações entre nós de alto throughput para ajudar você a executar as workloads de HPC em grande escala.

Instâncias Hpc6a: as instâncias Hpc6a usam tecnologia dos processadores AMD EPYC de terceira geração, com 96 núcleos e uma frequência turbo de 3,6 GHz em todos os núcleos e 384 GiB de RAM. As instâncias Hpc6a oferecem redes do EFA de 100 Gbps habilitada para comunicações entre nós de alto throughput para ajudar você a executar as workloads de HPC em grande escala.

P: Qual a diferença entre as instâncias Hpc7g e outras instâncias do EC2?

As instâncias Hpc7g são otimizadas para fornecer funcionalidades adequadas para workloads de HPC com computação intensiva. As instâncias Hpc7g são baseadas em processadores Graviton3E que fornecem até 35% mais performance de instruções vetoriais, em comparação com as instâncias existentes baseadas nos processadores Graviton3. Essas instâncias oferecem 64 núcleos físicos, memória de 128 GiB e largura de banda da rede de 200 Gbps otimizada para tráfego entre instâncias na mesma VPC e oferecem suporte ao EFA para maior performance de rede. As instâncias Hpc7g estão disponíveis em implantações de uma única zona de disponibilidade, o que possibilita que as workloads alcancem a performance de rede de baixa latência necessária para comunicação de nó a nó com alto acoplamento para aplicações de HPC.

P: Quais modelos de preço são compatíveis com as instâncias Hpc7g?

As instâncias Hpc7g estão disponíveis para compra por meio de Savings Plans para instâncias do Amazon EC2 de 1 a 3 anos, Savings Plans para computação, instâncias sob demanda do EC2 e instâncias reservadas do EC2.

P: Quais AMIs são compatíveis com instâncias Hpc7g?

As instâncias Hpc7g oferecem suporte somente a AMIs apoiadas pelo Amazon EBS.

P: Qual a diferença entre as instâncias Hpc7a e outras instâncias do EC2?

As instâncias EC2 HPC7a otimizadas para HPC são ideais para aplicações que se beneficiam de processadores de alta performance, como simulações grandes e complexas, incluindo dinâmica de fluidos computacional (CFD), previsão numérica do tempo e simulações multifísicas. As instâncias HPC7a foram projetadas para ajudar você a executar workloads de HPC baseadas em x86 fortemente acopladas com melhor performance. Comparadas às instâncias Hpc6a, os atributos das instâncias Hpc7a oferecem processadores AMD EPYC de 4ª geração com densidade de núcleo 2, 1 vezes maior (até 192 núcleos), throughput de largura de banda de memória 2,2 vezes maior (768 GB de memória) e largura de banda de rede 3 vezes maior. Essas instâncias oferecem 300 Gbps de largura de banda da rede EFA, com tecnologia do AWS Nitro System para comunicações rápidas e de baixa latência entre os nós.

P: Quais modelos de preço são compatíveis com as instâncias Hpc7a?

As instâncias Hpc7a estão disponíveis para compra por meio de Savings Plans para instâncias do Amazon EC2 de 1 a 3 anos, o Savings Plans para computação, as instâncias sob demanda do EC2 e as instâncias reservadas do EC2.

P: Quais AMIs são compatíveis com as instâncias Hpc7a?

As instâncias Hpc7a são compatíveis com o Amazon Linux 2, Amazon Linux, Ubuntu 18.04 ou versões posteriores, Red Hat Enterprise Linux 7.6 ou versões posteriores, SUSE Linux Enterprise Server 12 SP3 ou versões posteriores, CentOS 7 ou versões posteriores e FreeBSD 11.1 ou versões posteriores.

P: Com quais modelos de preços as instâncias Hpc6id são compatíveis?

As instâncias Hpc6id estão disponíveis para compra por meio de Savings Plans para instâncias do Amazon EC2 de 1 a 3 anos, Savings Plans para computação, instâncias sob demanda do EC2 e instâncias reservadas do EC2.

P: Como as instâncias Hpc6id se diferem de outras instâncias do EC2?

As instâncias Hpc6id são otimizadas para fornecer funcionalidades adequadas para workloads de HPC com uso intensivo de dados e vinculadas à memória. A tecnologia Hyper-Threading está desabilitada para aumentar o throughput da CPU por vCPU e até 5 GB/s de largura de banda de memória por vCPU. Essas instâncias oferecem largura de banda da rede de 200 Gbps otimizada para tráfego entre instâncias na mesma nuvem privada virtual (VPC) e oferecem suporte ao EFA para maior performance de rede. Para otimizar a rede de instâncias Hpc6id para workloads fortemente acopladas, você pode acessar as instâncias Hpc6id do EC2 em uma única zona de disponibilidade em cada região.

P: Quais AMIs são compatíveis com as instâncias Hpc6id?

As instâncias Hpc6id são compatíveis com Amazon Linux 2, Amazon Linux, Ubuntu 18.04 ou versões posteriores, Red Hat Enterprise Linux 7.4 ou versões posteriores, SUSE Linux Enterprise Server 12 SP2 ou versões posteriores, CentOS 7 ou versões posteriores, Windows Server 2008 R2 ou versões anteriores e FreeBSD 11.1 ou versões posteriores.

P: Quais AMIs são compatíveis com instâncias Hpc6a?

As instâncias Hpc6a são compatíveis com Amazon Linux 2, Amazon Linux, Ubuntu 18.04 ou versões posteriores, Red Hat Enterprise Linux 7.4 ou versões posteriores, SUSE Linux Enterprise Server 12 SP2 ou versões posteriores, CentOS 7 ou versões posteriores e FreeBSD 11.1 ou versões posteriores. Essas instâncias também são compatíveis com Windows Server 2012, 2012 R2, 2016 e 2019.

P: Com quais modelos de preços as instâncias Hpc6a são compatíveis?

As instâncias Hpc6a estão disponíveis para por meio de instâncias reservadas padrão de 1 e 3 anos, instâncias reservadas conversíveis, Savings Plans e instâncias sob demanda.

Instâncias de uso geral

P: Como as instâncias M7i se comparam às M7i-Flex? Quando devo usar as instâncias M7i-flex em vez das instâncias M7i?

As instâncias M7i-Flex são uma variante mais barata das instâncias M7i que oferecem um custo-benefício 19% melhor do que as instâncias M6i. As instâncias M7i-Flex podem ser usadas para executar a maioria das workloads de uso geral que se beneficiam da performance de última geração, mas não utilizam totalmente os recursos computacionais. As instâncias M7i-Flex foram projetadas para oferecer uma performance básica da CPU com a capacidade de aumentar a escala verticalmente até a performance total da CPU 95% do tempo. As instâncias M7i-Flex são ideais para workloads que cabem em instâncias até 8 vezes maiores (32 vCPUs e 128 GB), incluindo servidores Web e de aplicações, áreas de trabalho virtuais, microsserviços, bancos de dados e aplicações corporativas. Você pode usar instâncias M7i para workloads que precisam dos maiores tamanhos de instância ou alta performance sustentada da CPU, rede ou EBS, como grandes servidores de aplicações, grandes bancos de dados, servidores de jogos, machine learning baseado em CPU e streaming de vídeo.

P: Qual é a oferta de performance das instâncias M7i-Flex?

As instâncias M7i-Flex fornecem recursos de CPU confiáveis para oferecer uma performance básica de CPU de 40%, projetada para atender aos requisitos de computação da maioria das workloads de uso geral. Nos momentos em que as workloads precisam de melhor performance, as instâncias M7i-Flex oferecem a capacidade de escalar até 100% da CPU por 95% do tempo em uma janela de 24 horas.

P: Quais são alguns outros casos de uso das instâncias M7i-Flex?

As instâncias M7i-Flex fornecem um caminho de atualização atraente para workloads executadas em instâncias T3 de tamanho maior (até 2 vezes maior), oferecendo melhor custo-benefício, um preço fixo por hora que inclui CPU básica e uso adicional de CPU além da linha de base, e instâncias até 8 vezes maiores (32 vCPUs e 128 GB). As instâncias M7i-Flex oferecem uma maneira simplificada de otimizar seu uso do EC2 sem créditos de CPU.
 

P: O que são instâncias M6g do Amazon EC2?

As instâncias M6g do Amazon EC2 são a próxima geração de instâncias de uso geral alimentadas por processadores AWS Graviton2 baseados em Arm. As instâncias M6g oferecem preço/desempenho até 40% melhor em comparação a instâncias M5. Elas são baseadas no AWS Nitro System, uma combinação de hardware dedicado e Nitro hypervisor.

P: Quais são as especificações dos novos processadores AWS Graviton2?

Os processadores AWS Graviton2 oferecem desempenho até 7 vezes maior, 4x o número de núcleos de computação, caches 2x maiores, memória 5x mais rápida e desempenho 50% mais rápido por criptografia por núcleo do que os processadores AWS Graviton da primeira geração. Cada núcleo do processador AWS Graviton2 é uma vCPU de thread único. Esses processadores também oferecem memória DRAM totalmente criptografada, aceleração de hardware para cargas de trabalho de compactação, mecanismos dedicados por vCPU que dobram o desempenho de pontos flutuantes para cargas de trabalho, como codificação de vídeo, e instruções para aceleração de inferência de machine learning com base em CPU int8/fp16. As CPUs são construídas utilizando núcleos Neoverse da Arm de 64 bits e silício personalizado projetado pela AWS na avançada tecnologia de fabricação 7 nm.

P: A criptografia de memória tem suporte por processadores AWS Graviton2?

Os processadores AWS Graviton2 oferecem suporte à criptografia de memória sempre ativa de 256 bits para aprimorar ainda mais a segurança. As chaves de criptografia são geradas com segurança no sistema do host, não saem do sistema do host e são destruídas de forma irrecuperável quando o host é reinicializado ou desligado. A criptografia de memória não oferece suporte à integração com o AWS Key Management Service (AWS KMS) e os clientes não podem trazer as próprias chaves.

P: Quais são alguns dos casos de uso ideais para instâncias M6g?

As instâncias M6g oferecem benefícios significativos de performance e preço para um amplo espectro de workloads de uso geral, como servidores de aplicações, servidores de jogos, microsserviços, bancos de dados de tamanho médio e frotas de armazenamento em cache. Os clientes que implantam aplicações criadas em softwares de código-fonte aberto nas instâncias M perceberão que as instâncias M6g são uma opção atraente para obter o melhor preço-performance. Os desenvolvedores Arm também podem criar suas aplicações diretamente no hardware Arm nativo, ao contrário da compilação cruzada ou da emulação.

P: Quais são as várias opções de armazenamento disponíveis em instâncias M6g?

As instâncias M6g são otimizadas para EBS por padrão e oferecem até 19.000 Gbps de largura de banda dedicada para volumes do EBS criptografados e não criptografados. As instâncias M6g exigem interfaces Non-Volatile Memory Express (NVMe) para acessar volumes de armazenamento do EBS. Além disso, as opções com armazenamento de instâncias NVMe local também estarão disponíveis por meio dos tipos de instâncias M6gd.

P: Quais interfaces de rede são compatíveis com as instâncias M6g?

As instâncias M6g oferecem suporte a redes avançadas baseadas em ENA. Com o ENA, as instâncias M6g podem oferecer até 25 Gbps de largura de banda de rede entre as instâncias executadas em um placement group.

P: Os clientes precisarão modificar seus aplicativos e suas cargas de trabalho para que eles possam ser executados nas instâncias M6g?

As alterações necessárias dependem do aplicativo. Os clientes que executam aplicativos criados em softwares de código-fonte aberto descobrirão que o ecossistema Arm está bem desenvolvido e provavelmente já oferece suporte para seus aplicativos. A maioria das distribuições Linux, bem como contêineres (Docker, Kubernetes, Amazon ECS, Amazon EKS e Amazon ECR) oferece suporte para a arquitetura Arm. Os clientes encontrarão versões Arm dos pacotes de software mais usados disponíveis para instalação pelos mesmos mecanismos que eles usam atualmente. Aplicativos baseados em linguagens interpretadas (como Java, Node e Python) que não dependem de conjuntos de instruções de CPU nativos serão executados com alterações mínimas ou sem alterações. Aplicativos desenvolvidos usando linguagens compiladas (C, C++ e GoLang) precisarão ser recompilados para gerar binários do Arm. A arquitetura Arm tem amplo suporte nessas linguagens de programação populares, e o código moderno geralmente requer um simples comando 'Make'. Consulte o Guia de conceitos básicos no GitHub para obter mais detalhes.

P: O que são instâncias A1 do Amazon EC2?

As instâncias A1 do Amazon EC2 são instâncias de uso geral alimentadas pelos processadores AWS Graviton de primeira geração projetados sob medida pela AWS.

P: Quais são as especificações dos processadores AWS Graviton da primeira geração?

Os processadores AWS Graviton são projetados sob medida pela AWS utilizando a ampla experiência da Amazon na criação de soluções de plataforma para aplicativos de nuvem em execução em grande escala. Esses processadores são baseados no conjunto de instruções Arm de 64 bits e apresentam núcleos Arm Neoverse, além de silício personalizado projetado pela AWS. Os núcleos operam a uma frequência de 2,3 GHz.

P: Quando devo usar instâncias A1?

As instâncias A1 oferecem economias de custos significativas para cargas de trabalho passíveis de expansão que podem se encaixar dentro da área de cobertura de memória disponível. As instâncias A1 são ideais para aplicativos passíveis de expansão, como servidores Web, microsserviços em contêiner e processamento de dados/log. Essas instâncias também são indicadas para desenvolvedores, entusiastas e educadores em toda a comunidade de desenvolvedores do Arm.

P: Os clientes terão de modificar os aplicativos e cargas de trabalho para poder executar em instâncias A1?

As alterações necessárias dependem do aplicativo. Os aplicativos baseados em linguagens interpretadas ou compiladas no tempo de execução (como Python, Java, PHP, Node.js) devem ser executados sem modificações. Outros aplicativos podem precisar de recompilação e os que não dependem de instruções x86 geralmente serão compilados com mudanças mínimas ou sem mudança.

P. Quais sistemas operacionais/AMIs têm suporte nas instâncias A1?

As seguintes AMIs têm suporte nas instâncias A1: Amazon Linux 2, Ubuntu 16.04.4 ou mais recente, Red Hat Enterprise Linux (RHEL) 7.6 ou mais recente, SUSE Linux Enterprise Server 15 ou mais recente. O suporte adicional a AMIs de Fedora, Debian e NGINX Plus também está disponível por meio de AMIs da comunidade e no AWS Marketplace. AMIs HVM baseadas no EBS executadas nas instâncias A1 exigem drivers NVMe e ENA instalados na inicialização da instância.

P: Existem requisitos específicos de AMI para execução em instâncias M6g e A1?

Você precisará usar as AMIs “arm64” com as instâncias M6g e A1. As AMIs x86 não são compatíveis com instâncias M6g e A1.

P: Quando os clientes devem usar instâncias A1 versus as novas instâncias M6g?

As instâncias A1 continuam a oferecer benefícios de custo significativos para cargas de trabalho passíveis de expansão que podem ser executadas em vários núcleos menores e que se encaixam dentro da área de cobertura de memória disponível. As novas instâncias M6g são adequadas para um amplo espectro de aplicativos que exigem mais computação, memória, recursos de rede e/ou que podem se beneficiar da ampliação dos recursos da plataforma. As instâncias M6g proporcionarão o melhor preço/desempenho dentro da família de instâncias para esses aplicativos. A M6g oferece suporta a tamanhos de instância até 16xlarge (a A1 oferece suporte para até 4xlarge), 4GB de memória por vCPU (a A1 oferece suporte para 2GB de memória por vCPU) e até 25 Gbps de largura de banda de rede (a A1 oferece suporte para até 10 Gbps).

P. Quais são as diversas opções de armazenamento disponíveis para clientes das instâncias A1?

As instâncias A1 são otimizadas para EBS por padrão e oferecem até 3,500 Gbps de largura de banda dedicada para volumes do EBS criptografados e não criptografados. As instâncias do A1 só oferecem suporte para interface Non-Volatile Memory Express (NVMe) para acessar volumes de armazenamento do EBS. Instâncias A1 não oferecerão suporte para a interface blkfront.

P: Qual interface de rede tem suporte em instâncias A1?

As instâncias A1 oferecem suporte a redes avançadas baseadas em ENA. Com o ENA, as instâncias A1 podem oferecer até 10 Gbps de largura de banda de rede entre instâncias executadas em um placement group.

P: As instâncias A1 oferecem suporte para o AWS Nitro System?

Sim, as instâncias A1 são baseadas no AWS Nitro System, uma combinação de hardware dedicado e hipervisor Nitro.

P: Por que os clientes devem escolher instâncias M5 do EC2 em vez das instâncias M4 do EC2?

Em comparação às instâncias M4 do EC2, as novas instâncias M5 do EC2 oferecem aos clientes maior performance de computação e armazenamento, maiores tamanhos de instância com custo menor, além de consistência e segurança. O maior benefício das instâncias M5 do EC2 é baseado no uso da mais recente geração de processadores escaláveis Intel Xeon (Skylake-SP ou Cascade Lake), que oferecem uma relação entre preço e performance até 20% melhor em relação às instâncias M4. Com o suporte ao AVX-512 na M5 em comparação ao AVX2 antigo na M4, os clientes obterão ganhos de 2 vezes melhores na performance de cargas de trabalho que exigem operações de ponto flutuante. As instâncias M5 oferecem até 25 Gbps de largura de banda de rede e até 10 Gbps de largura de banda dedicada para o Amazon EBS. As instâncias M5 também oferecem performance consideravelmente maior de redes e do Amazon EBS em instâncias menores com capacidade de intermitência do EBS.

P: Por que os clientes devem escolher instâncias M6i em vez de instâncias M5?

As instâncias M6i são alimentadas por processadores Intel Xeon escalável de 3ª geração (codinome Ice Lake) com uma frequência turbo totalmente core de 3,5 GHz, oferecem performance de preço computacional até 15% melhor em relação às instâncias M5 e criptografia de memória sempre ativa usando a tecnologia Intel Total Memory Encryption (TME). As instâncias do M6i do Amazon EC2 são as primeiras a usar um "i" em minúsculas para indicar que são instâncias desenvolvidas pela Intel. As instâncias M6i fornecem um novo tamanho de instância (m6i.32xlarge) com 128 vCPUs e 512 GiB de memória, 33% a mais do que a maior instância M5. Eles também fornecem até 20% maior largura de banda de memória por vCPU em comparação com instâncias M5, permitindo aos clientes realizar análises em tempo real com eficiência para aplicações de IA/ML, jogos e computação de alta performance (HPC). O M6i oferece aos clientes até 50 Gbps de velocidade de redes e 40 Gbps de largura de banda para o Amazon Elastic Block Store, o dobro em comparação a instâncias M5. O M6i também permite que os clientes utilizem o Elastic Fabric Adapter no tamanho 32xlarge, permitindo baixa latência e comunicação entre nós em alta escala. Para uma performance de redes ideal nessas novas instâncias, uma atualização do driver do Elastic Network Adapter (ENA) pode ser necessária. Para obter mais informações sobre o driver do ENA ideal para M6i, leia este artigo.

P: Como o suporte à Intel AVX-512 beneficia os clientes que utilizam a família EC2 M5 ou a família M6i?

O Intel Advanced Vector Extensions 512 (AVX-512) é um conjunto de novas instruções de CPU disponíveis nos mais recentes processadores Intel Xeon escaláveis, que podem acelerar a performance de workloads e usos como simulações científicas, análises financeiras, inteligência artificial, machine learning/aprendizado profundo, modelagem e análise 3D, processamento de imagens e vídeo e criptografia e compressão de dados, entre outros. O Intel AVX-512 oferece processamento excepcional de algoritmos de criptografia, ajudando a reduzir a sobrecarga de performance para criptografia, o que significa que os clientes que usam a família M5 ou a família M6i do EC2 podem implantar dados e serviços mais seguros em ambientes distribuídos sem comprometer a performance.

P: O que são instâncias M5zn?

Instâncias M5zn são uma variante das instâncias de objetivo geral M5 que são promovidas pelo processador Intel Xeon Escalável mais rápido na nuvem, com uma frequência turbo all-core de até 4.5 GHz, juntamente com 100 Gbps de rede e suporte para o Amazon EFA. As instâncias M5zn são uma opção ideal para cargas de trabalho como jogos, aplicativos financeiros, aplicativos de modelagem de simulação, como aqueles usados nos setores automotivo, aeroespacial, de energia e telecomunicações, e outros aplicativos de computação de alto desempenho.

P: Como as instâncias M5zn são diferentes das instâncias z1d?

As instâncias z1d são uma instância otimizada por memória, e apresentam uma versão de alta frequência dos processadores Intel Xeon Escaláveis (até 4.0 GHz), juntamente com o armazenamento local NVMe. As instâncias M5zn são uma instância de objetivo geral, e apresentam uma versão de alta frequência dos processadores escaláveis Intel Xeon de segunda geração até 4.5 GHz, juntamente com até 100 Gbps de desempenho de rede, e suporte para EFA. As instâncias M5zn oferecem melhor performance no preço comparadas às z1d.

Instâncias com mais memória

P. O que são instâncias com mais memória EC2?

As instâncias com mais memória do Amazon EC2 oferecem 3, 6, 9, 12, 18 ou 24 TiB de memória em uma única instância. Essas instâncias são projetadas para executar grandes bancos de dados na memória, incluindo instalações de produção do SAP HANA na nuvem.

As instâncias com mais memória do EC2 com 3, 6, 9 e 12 TiB de memória foram desenvolvidas em uma plataforma de oito soquetes com os processadores Intel® Xeon® Platinum 8176M (Skylake). As instâncias do EC2 com mais memória com 18 e 24 TiB de memória são as primeiras instâncias do Amazon EC2 baseadas em uma plataforma de oito soquetes com a segunda geração de processadores Intel® Xeon® Scalable (Cascade Lake), otimizados para cargas de trabalho empresariais de missão essencial. As instâncias do EC2 com mais memória entregam alto rendimento de rede e baixa latência, com até 100 Gbps de largura de banda de rede agregada usando redes aperfeiçoadas baseadas no Elastic Network Adapter (ENA – Adaptador de rede elástica) da Amazon. As instâncias de EC2 com mais memória são otimizadas para EBS por padrão e dão suporte a volumes do EBS criptografados e não criptografados.

P: As instâncias com mais memória são certificadas pela SAP para executar workloads SAP HANA?

As instâncias com mais memória são certificadas pela SAP para executar Business Suite on HANA, Business Suite S/4HANA de próxima geração, Data Mart Solutions on HANA, Business Warehouse on HANA e SAP BW/4HANA em ambientes de produção. Para receber detalhes, consulte Diretório de hardware SAP HANA certificado e com suporte da SAP.

P: Quais tipos de instância estão disponíveis para instâncias de alta memória?

As instâncias de alta memória estão disponíveis como instâncias bare metal e virtualizadas. Isso permite que os clientes escolham entre ter acesso direto aos recursos de hardware subjacentes ou aproveitar a flexibilidade adicional oferecida por instâncias virtualizadas, incluindo as opções de compra do Savings Plan de um ano e três anos e a opção sob demanda. Confira as opções disponíveis para instâncias de alta memória na seção otimizada para memória da página tipos de instâncias do EC2.

P: Quais são alguns dos benefícios do uso de instâncias virtualizadas de alta memória em vez de instâncias bare metal de alta memória?

Os benefícios das instâncias virtuais de alta memória em relação às instâncias metal de alta memória incluem: tempos de inicialização e reinicialização significativamente melhores, opções de compra flexíveis (sob demanda, Savings Plan, instâncias reservadas, hosts dedicados), escolha do tipo de locação, opções de autoatendimento e suporte para um número maior de volumes do EBS (27 contra 19).

P: Quando uma instância “metal” de alta memória deve ser usada em vez de uma instância “virtualizada” de alta memória?

Embora, em geral, o uso de instâncias “virtualizadas” de alta memória seja recomendado, há situações específicas em que somente instâncias metal com alta memória podem funcionar. Essas situações incluem: ao usar versões de sistema operacional que não são suportadas em instâncias virtuais de alta memória OU ao usar aplicativos que precisam ser executados em modo não virtualizado para atender aos requisitos de licenciamento e suporte OU ao usar aplicativos que exigem acesso ao conjunto de recursos de hardware (como Intel VT-x) OU ao usar um hipervisor personalizado (por exemplo, ESXi).

P: Como faço para migrar de instâncias metal de alta memória para instâncias virtualizadas de alta memória?

Você pode migrar sua instância metal de alta memória para uma instância virtualizada em apenas algumas etapas. 1/ Pare sua instância, 2/ Altere a instância e o tipo de locação por meio da API EC2 e 3/ Inicie sua instância novamente. Se você estiver usando o Red Hat Enterprise Linux para SAP ou o SUSE Linux Enterprise Server para SAP, você precisa garantir que as versões do sistema operacional e do kernel sejam compatíveis com instâncias virtualizadas de alta memória. Para mais detalhes, consulte a documentação sobre como migrar o SAP HANA na AWS para uma instância de alta memória do EC2.

P: Quais são as opções de armazenamento disponíveis em instâncias com mais memória?

As instâncias de alta memória oferecem suporte a volumes do Amazon EBS para armazenamento. As instâncias com mais memória são otimizadas para EBS por padrão e oferecem até 38 Gbps de largura de banda de armazenamento.

P: As instâncias com mais memória oferecem suporte a quais interfaces de armazenamento?

Essas instâncias acessam volumes do EBS por meio de interfaces NVM Express (NVMe) associadas via PCI. Volumes do EBS associados a instâncias com mais memória aparecerem como dispositivos NVMe. O NVMe é uma interface de armazenamento eficiente e escalonável, que é comumente usada para SSDs baseados em flash e fornece redução de latência e resulta em maior E/S de disco e rendimento. Os volumes do EBS são anexados e desconectados pelo hotplug PCI.

P: Qual performance de rede é compatível com instâncias com mais memória?

As instâncias com mais memória usam o adaptador de rede elástica (ENA) para redes e habilitam por padrão as redes aperfeiçoadas. Com o ENA, as instâncias com mais memória podem utilizar até 100 Gbps de largura de banda da rede.

P: É possível executar instâncias com mais memória na minha Amazon Virtual Private Cloud (Amazon VPC) existente?

Você pode executar instâncias com mais memória nas Amazon VPCs existentes e novas.

Qual é o hipervisor subjacente das instâncias com mais memória?

As instâncias de alta memória usam o hipervisor Nitro leve que se baseia na tecnologia core KVM.

P: As instâncias com mais memória permitem o controle do estado de gerenciamento de capacidade da CPU?

Sim. Você pode configurar estados C e estados P nas instâncias com mais memória. Você pode usar estados C para habilitar frequências turbo mais altas (de até 4,0 GHz). Você também pode usar estados P para reduzir a variação da performance ao fixar todos os núcleos em P1 ou estados P mais elevados, o que é semelhante a desabilitar o Turbo e executar de modo constante na velocidade de relógio da CPU básica.

Quais opções de compra estão disponíveis para instâncias com mais memória?

As instâncias virtualizadas de alta memória do EC2 (por exemplo, u-6tb1.112xlarge) estão disponíveis para compra por meio do Savings Plan sob demanda de um e três anos e de instância reservada de um e três anos. As instâncias metal de alta memória do EC2 (por exemplo, u-6tb1.metal) só estão disponíveis para compra como hosts dedicados do EC2 com reservas de um ano e três anos.

P: Qual é o ciclo de vida de um host dedicado?

Depois que um host dedicado é alocado em sua conta, ele fica de prontidão para seu uso. Você pode, então, iniciar uma instância com uma locação de “host” usando a API RunInstances e também pode parar/iniciar/encerrar a instância por meio do API. Você pode usar o Console de Gerenciamento da AWS para gerenciar o host dedicado e a instância. 

P: Posso executar, parar/iniciar e encerrar instâncias com mais memória usando o AWS CLI/SDK?

Você pode executar, interromper/iniciar e encerrar instâncias usando o AWS CLI/SDK.

P: Quais AMIs são compatíveis com instâncias com mais memória?

AMIs HVM apoiadas pelo EBS com suporte para a rede ENA podem ser usados com instâncias com mais memória. Os mais recentes AMIs Amazon Linux, Red Hat Enterprise Linux, SUSE Enterprise Linux Server e Windows Server são suportados. O suporte do sistema operacional para cargas de trabalho do SAP HANA em instâncias com mais memória inclui: SUSE Linux Enterprise Server 12 SP3 para SAP, Red Hat Enterprise Linux 7.4 para SAP, Red Hat Enterprise Linux 7.5 para SAP, SUSE Linux Enterprise Server 12 SP4 para SAP, SUSE Linux Enterprise Server 15 para SAP, Red Had Enterprise Linux 7.6 para SAP. Consulte o Diretório de hardware SAP HANA certificado e com suporte da SAP para obter os detalhes mais recentes sobre os sistemas operacionais compatíveis.

P: Existem estruturas de implantação de referência padrão do SAP HANA disponíveis para a instância com mais memória e a Nuvem AWS?

Você pode usar as implantações do SAP HANA de referência do AWS Quick Start para implantar rapidamente todos os elementos fundamentais do SAP HANA necessários nas instâncias com mais memória, seguindo as recomendações da SAP para alta performance e confiabilidade. Os AWS Quick Starts são modulares e personalizáveis para que você possa acrescentar funcionalidades adicionais ou modificá-los para fazer suas próprias implementações.

Instâncias otimizadas para memória

P: Quando devo usar instâncias com otimização de memória?

As instâncias com otimização de memória oferecem uma memória de grande extensão para aplicações com alto uso da memória, inclusive aplicações na memória, bancos de dados na memória, soluções de recursos analíticos na memória, HPC, computação científica e outras aplicações com alto uso da memória. 

P: O que são instâncias R6g do Amazon EC2?

As instâncias R6g do Amazon EC2 são a próxima geração de instâncias otimizadas para memória alimentadas por processadores AWS Graviton2 baseados em Arm. As instâncias R6g oferecem preço/desempenho até 40% melhor em comparação a instâncias R5. Elas são baseadas no AWS Nitro System, uma combinação de hardware dedicado e Nitro Hypervisor.

P: Quais são alguns dos casos de uso ideais para instâncias R6g?

As instâncias R6g oferecem benefícios de performance/preço para workloads com uso intenso de memória, como instâncias, e são ideais para a execução de workloads com uso intenso de memória, como bancos de dados de código-fonte aberto, caches na memória e análise de big data em tempo real. Os clientes que implantam aplicações criadas em software de código-fonte aberto em todas as instâncias R perceberão que as instâncias R6g são uma opção atraente para obter o melhor preço-performance na família de instâncias. Os desenvolvedores Arm também podem criar suas aplicações diretamente no hardware Arm nativo, ao contrário da compilação cruzada ou da emulação.

P: Quais são as várias opções de armazenamento disponíveis em instâncias R6g?

As instâncias R6g são otimizadas para EBS por padrão e oferecem até 19.000 Gbps de largura de banda dedicada para volumes do EBS criptografados e não criptografados. As instâncias R6g exigem interfaces Non-Volatile Memory Express (NVMe) para acessar volumes de armazenamento do EBS. Além disso, as opções com armazenamento de instâncias NVMe local também estarão disponíveis por meio dos tipos de instâncias R6gd.

P: Quais interfaces de rede são compatíveis com as instâncias R6g?

As instâncias R6g oferecem suporte a redes avançadas baseadas em ENA. Com o ENA, as instâncias R6g podem oferecer até 25 Gbps de largura de banda de rede entre as instâncias executadas em um placement group.

P: Os clientes precisarão modificar seus aplicativos e suas cargas de trabalho para que eles possam ser executados nas instâncias R6g?

As alterações necessárias dependem do aplicativo. Os clientes que executam aplicativos criados em softwares de código-fonte aberto descobrirão que o ecossistema Arm está bem desenvolvido e provavelmente já oferece suporte para seus aplicativos. A maioria das distribuições Linux, bem como contêineres (Docker, Kubernetes, Amazon ECS, Amazon EKS e Amazon ECR) oferece suporte para a arquitetura Arm. Os clientes encontrarão versões Arm dos pacotes de software mais usados disponíveis para instalação pelos mesmos mecanismos que eles usam atualmente. Aplicativos baseados em linguagens interpretadas (como Java, Node e Python) que não dependem de conjuntos de instruções de CPU nativos serão executados com alterações mínimas ou sem alterações. Aplicativos desenvolvidos usando linguagens compiladas (C, C++ e GoLang) precisarão ser recompilados para gerar binários do Arm. A arquitetura Arm tem amplo suporte nessas linguagens de programação populares, e o código moderno geralmente requer um simples comando 'Make'. Consulte o Guia de conceitos básicos no GitHub para obter mais detalhes.

P: Por que você deve escolher instâncias R6i em vez de instâncias R5?

As instâncias Amazon R6i são alimentadas por processadores Intel Xeon escalável de 3ª geração (Ice Lake) com uma frequência turbo totalmente core de 3,5 GHz, oferecem uma relação preço-performance computacional até 15% melhor em relação às instâncias R5 e criptografia de memória sempre ativa usando a tecnologia Intel Total Memory Encryption (TME). As instâncias R6i do Amazon EC2 usam um “i” minúsculo para indicar que são instâncias desenvolvidas pela Intel. As instâncias R6i fornecem um novo tamanho de instância (r6i.32xlarge) com 128 vCPUs e 1.024 GiB de memória, 33% a mais do que a maior instância R5. Também fornecem até 20% maior largura de banda de memória por vCPU em comparação com instâncias R5, permitindo que você faça análise em tempo real com eficiência para aplicações de IA/ML, jogos e computação de alta performance (HPC). As instâncias R6i oferecem a você até 50 Gbps de velocidade de redes e 40 Gbps de largura de banda para o Amazon Elastic Block Store, o dobro em comparação com instâncias R5. As instâncias R6i também permitem utilizar o Elastic Fabric Adapter para que os clientes usem o Elastic Fabric Adapter (EFA) nos tamanhos 32xlarge e metal, permitindo baixa latência e comunicação entre nós em alta escala. Para obter a performance de redes ideal nessas novas instâncias, pode ser necessário atualizar o driver do Adaptador de Rede Elástica (ENA). Para obter mais informações sobre o driver ENA ideal para R6i, consulte “O que preciso fazer antes de migrar minha instância do EC2 para uma instância de sexta geração?” no Centro de Conhecimentos.

P: O que são instâncias R5b do Amazon EC2?

Instâncias R5b são variantes otimizadas EBS de instâncias R5 otimizadas por memória que fornecem até 3x melhor desempenho EBS comparadas às instâncias R5 do mesmo tamanho. As instâncias R5b fornecem largura de banda de até 60 Gbps e 260 mil IOPS de performance do EBS, a mais rápida performance em armazenamento de blocos no EC2. Elas são baseadas no AWS Nitro System, uma combinação de hardware dedicado e Nitro Hypervisor.

P: Quais são alguns dos casos de uso ideais para instâncias R5b?

As instâncias R5b são ideais para grandes cargas de trabalho de bancos de dados relacionais, incluindo Microsoft SQL Server, SAP HANA, IBM DB2 e Oracle que executam aplicações de desempenho intensivo, tais como plataformas comerciais, sistemas ERP e sistemas de registro de saúde. Os clientes que procuram migrar grandes cargas de trabalho no local com grandes requisitos de desempenho de armazenamento para a AWS acharão que as instâncias R5b são um bom ajuste.

P: Quais são as várias opções de armazenamento disponíveis em instâncias R5b?

As instâncias R5b são otimizadas para EBS por padrão e oferecem até 60.000 Mbps de largura de banda dedicada e 260K de IOPS para volumes do EBS criptografados e não criptografados. Instâncias R5b só oferecem suporte para interface Non-Volatile Memory Express (NVMe) para acessar volumes de armazenamento do EBS. As R5b são suportadas por todos os tipos de volumes, com exceção dos volumes io2.

P. Quando devo usar instâncias R5b?

Os clientes que executam workloads como grandes bancos de dados relacionais e análises de dados que querem aproveitar o aumento da performance da rede de armazenamento EBS podem usar instâncias R5b para oferecer maior performance e largura de banda. Os clientes também podem reduzir custos migrando as workloads para instâncias R5b de menor tamanho ou as consolidando em menos instâncias R5b.

P: Quais são as opções de armazenamento disponíveis em instâncias com mais memória?

As instâncias de alta memória oferecem suporte a volumes do Amazon EBS para armazenamento. As instâncias com mais memória são otimizadas para EBS por padrão e oferecem até 38 Gbps de largura de banda de armazenamento para volumes do EBS criptografados e não criptografados.

P: O que são instâncias X2gd do Amazon EC2?

As instâncias X2gd do Amazon EC2 são a próxima geração de instâncias otimizadas para memória alimentadas por processadores AWS Graviton2 baseados em Arm projetados pela AWS. As instâncias X2gd oferecem preço-performance até 55% melhor em comparação às instâncias X1 baseadas em x86 e o menor custo por GiB de memória no Amazon EC2. Elas são as primeiras instâncias X a serem criadas no AWS Nitro System, que é uma combinação de hardware dedicado com hipervisor Nitro.

P: Quais workloads são adequadas para as instâncias X2gd?

O X2gd é ideal para clientes com cargas de trabalho de scale-out vinculadas à memória compatíveis com Arm, como bancos de dados in-memory Redis e Memcached, que precisam de acesso à memória de baixa latência e se beneficiam de mais memória por vCPU. O X2gd também é adequado para bancos de dados relacionais, como PostgreSQL, MariaDB, MySQL e RDS Aurora. Os clientes que executam cargas de trabalho com uso intensivo de memória, como Apache Hadoop, análises em tempo real e servidores de cache em tempo real, se beneficiarão com a proporção de 1:16 vCPU para memória de X2gd. Cargas de trabalho de thread único, como tarefas de verificação de back-end de EDA, se beneficiarão do núcleo físico e de mais memória de instâncias do X2gd, permitindo que elas consolidem mais cargas de trabalho em uma única instância. A instância X2gd também apresenta armazenamento em bloco SSD NVMe local para melhorar os tempos de resposta agindo como uma camada de cache.

P: Quando devo usar as instâncias X2gd comparadas à família de instâncias X1, X2i ou R?

As instâncias X2gd são adequadas para workloads de dimensionamento associadas à memória compatíveis com Arm, como bancos de dados na memória, aplicações de análise de memória, workloads de banco de dados relacional de código aberto, workloads EDA e grandes servidores de cache. As instâncias X2gd oferecem aos clientes o menor custo por gigabyte de memória no EC2, com tamanhos de até 1 TiB. As instâncias X2iezn, X2idn, X2iedn, X1 e X1e usam processadores x86 e são adequadas para workloads de expansão de classe empresarial com uso intensivo de memória, como workloads do Windows, bancos de dados na memória (como SAP HANA) e bancos de dados relacionais (como OracleDB). Os clientes podem usar a família de instâncias X baseada em x86 para tamanhos maiores de memória até 4 TiB. As instâncias R6g e R6gd são adequadas para workloads, como aplicações Web, bancos de dados e consultas de indexação de pesquisa que precisam de mais vCPUs durante períodos de processamento pesado de dados. Os clientes que executam workloads com limite de memória que precisam de menos de 1 TiB de memória e dependem do conjunto de instruções x86, como aplicações Windows e outras aplicações, como Oracle ou SAP, podem utilizar a família de instâncias R5 e R6.

P: Quando devo usar instâncias X2idn e X2iedn?

As instâncias X2idn e X2iedn são alimentadas por processadores Intel Xeon escaláveis de 3ª geração com frequência turbo em todos os núcleos de 3,5 GHz e oferecem performance de preço de computação até 50 % maior do que instâncias X1 comparáveis. As instâncias X2idn e X2iedn incluem até 3,8 TB de armazenamento local SSD NVMe e até 100 Gbps de largura de banda de rede. A instância X2idn oferece até 2 TiB de memória e a instância X2iedn oferece até 4 TiB de memória. As instâncias X2idn e X2iedn são certificadas pelo SAP e são excelentes para workloads, como bancos de dados tradicionais e na memória de pequena a grande escala e análise.

P: Quando devo usar instâncias X2iezn?

As instâncias X2iezn apresentam os processadores Intel Xeon escalável mais rápidos na nuvem e são ideais para workloads que precisam de alta performance de thread único combinado com uma alta proporção de memória para vCPU e rede de alta velocidade. As instâncias X2iezn têm uma frequência turbo de até 4,5 GHz em todos os núcleos, apresentam uma proporção de memória para vCPU de 32:1 e oferecem performance de preço de computação até 55% maior em comparação com instâncias X1e. As instâncias X2iezn são ótimas para workloads de Electronic Design Automation (EDA), como verificação física, análise de tempo estático, aprovação de energia e simulação completa em nível de porta de chip.

P: Quais sistemas operacionais/AMIs são aceitos nas instâncias X2gd?

As seguintes AMIs são compatíveis: Amazon Linux 2, Ubuntu 18.04 ou mais recente, Red Hat Enterprise Linux 8.2 ou mais recente e SUSE Enterprise Server 15 ou mais recente. Os clientes encontrarão AMIs adicionais, como Fedora, Debian, NetBSD e CentOS, disponíveis por meio de AMIs da comunidade e do AWS Marketplace. Para aplicações em contêineres, o Amazon ECS e as AMIs otimizadas para EKS também estão disponíveis.

P: Quando devo usar instâncias X1?

As instâncias X1 são ideais para a execução de bancos de dados na memória, como SAP HANA, mecanismos de processamento de big data, como Apache Spark ou Presto, e aplicações de computação de alta performance (HPC). As instâncias X1 têm a certificação da SAP para executar ambientes de produção do Business Suite S/4HANA, do Business Suite on HANA (SoH), do Business Warehouse on HANA (BW) e do Data Mart Solutions on HANA de próxima geração na Nuvem AWS.

P: As instâncias X1 e X1e permitem o controle do estado de gerenciamento de capacidade da CPU?

Sim. Você pode configurar estados C e P em instâncias x1e.32xlarge, x1e.16xlarge, x1e.8xlarge, x1.32xlarge e x1.16xlarge. Você pode usar estados C para habilitar frequências turbo mais altas (de até 3,1 GHz com um ou dois núcleos turbo). Você também pode usar estados P para reduzir a variação da performance ao fixar todos os núcleos em P1 ou estados P mais elevados, o que é semelhante a desabilitar o Turbo e executar de modo constante na velocidade de relógio da CPU básica.

A instância x1e.32xlarge também oferecerá suporte ao Windows Server 2012 R2 e 2012 RTM. As instâncias x1e.xlarge, x1e.2xlarge, x1e.4xlarge, x1e.8xlarge, x1e.16xlarge e x1.32xlarge também oferecerão suporte ao Windows Server 2012 R2, 2012 RTM e 2008 R2 de 64 bits (não haverá suporte para o Windows Server 2008 SP2 e versões mais antigas) e a instância x1.16xlarge oferecerá suporte ao Windows Server 2012 R2, 2012 RTM, 2008 R2 de 64 bits, 2008 SP2 de 64 bits e 2003 R2 de 64 bits (não haverá suporte para as versões de 32 bits do Windows Server).

Existem estruturas de implantação de referência padrão do SAP HANA disponíveis para a instância com mais memória e a nuvem AWS?

É possível usar as implantações do AWS Launch Wizard for SAP ou SAP HANA de referência do AWS Quick Start para implantar rapidamente todos os elementos fundamentais do SAP HANA necessários nas instâncias com mais memória, seguindo as recomendações da AWS e da SAP para alta performance e confiabilidade.

Instâncias de gerações anteriores

P: Por que não vejo mais as instâncias M1, C1, CC2 e HS1 nas páginas de definição de preço?

Essas instâncias foram transferidas para a página Instância de gerações anteriores.

P: Ainda há suporte para as instâncias de gerações anteriores?

Sim. As instâncias de gerações anteriores ainda são completamente suportadas.

P: Ainda posso usar ou adicionar mais instâncias de gerações anteriores?

Sim. As instâncias de gerações anteriores ainda estão disponíveis como instâncias sob demanda, reservadas e spot em nossas interfaces de APIs, ILC e EC2 Management Console.

P: As minhas instâncias de gerações anteriores serão excluídas?

Não. As instâncias C1, C3, CC2, CR1, G2, HS1, M1, M2, M3, R3 e T1 continuam totalmente funcionais e não serão excluídas em função dessa alteração.

P: As instâncias de gerações anteriores serão descontinuadas em breve?

No momento, não há planos para encerrar o ciclo de vida das instâncias de gerações anteriores. No entanto, assim como com qualquer tecnologia de rápida evolução, a geração mais recente normalmente fornecerá o melhor desempenho pelo preço e encorajamos nossos clientes a aproveitarem os avanços tecnológicos.

P: As instâncias de gerações anteriores que comprei como instâncias reservadas serão afetadas ou alteradas?

Não. As suas instâncias reservadas não mudarão e as instâncias de gerações anteriores não serão descartadas.

Instâncias otimizadas para armazenamento

P: O que é uma instância de armazenamento denso?

Instâncias de armazenamento denso são projetadas para workloads que exigem acesso sequencial intenso de leitura e gravação a grandes conjuntos de dados, como computação distribuída com Hadoop, armazém de dados de processamento paralelo maciço e aplicações de processamento de log. As instâncias de armazenamento denso oferecem a melhor relação preço/GB de armazenamento e preço/taxa de transferência de disco de todas as instâncias do EC2.

P: Como as instâncias de armazenamento denso se comparam com as instâncias de E/S elevada?

As instâncias de E/S elevada (Im4gn, Is4gen, I4i, I3, I3en) são voltadas para workloads que exigem baixa latência e E/S alta e aleatória, além de densidade de armazenamento moderada, oferecendo a melhor relação preço/IOPS de outros tipos de instância do EC2. As instâncias de armazenamento denso (D3, D3en, D2) e as instâncias de armazenamento em HDD (H1) são otimizadas para aplicações que exigem acesso intenso de leitura/gravação sequencial e armazenamento de baixo custo para conjuntos de dados muito grandes, oferecendo a melhor relação preço/GB de armazenamento e preço/taxa de transferência de disco de outras instâncias do EC2.

P: Qual é o throughput de disco oferecido pelas instâncias de armazenamento denso e de armazenamento em HDD?

A maior geração atual de casos de armazenamento denso, d3en.12xlarge, pode fornecer até 6,2 GiBps ler e escrever 6.2 GiBps de débito do disco com um tamanho de 128k bloco. Consulte a página de detalhes do produto para mais informações sobre desempenho. Para assegurar a melhor performance na taxa de transferência de disco de suas instâncias D2, D3 e D3en no Linux, recomendamos que você use a versão mais recente da Amazon Linux AMI ou outra AMI do Linux com uma versão de kernel 3.8 ou posterior que seja compatível com concessões persistentes, uma extensão do protocolo de anel de bloco do Xen que melhora significativamente o throughput e a escalabilidade do disco.

P: As instâncias de armazenamento denso e armazenamento em HDD oferecem algum mecanismo de failover ou redundância?

As instâncias D2 e H1 fornecem notificações para falhas de hardware. Como todo armazenamento das instâncias, esses volumes de armazenamento denso de HDD persistem apenas durante a vida útil da instância. Por isso, recomendamos que você crie um grau de redundância (por exemplo, RAID 1/5/6) ou use sistemas de arquivos (por exemplo, HDFS e MapR-FS), que sejam compatíveis com redundância e tolerância a falhas. Você também pode fazer backup periodicamente em mais soluções de armazenamento de dados, como o Amazon EBS ou Amazon S3.

P: No que as instâncias de armazenamento denso com HDD diferem do Amazon EBS?

O Amazon EBS oferece armazenamento simples, elástico, confiável (replicado) e persistente no nível do bloco para o Amazon EC2, abstraindo os detalhes da mídia de armazenamento subjacente em uso. As instâncias do Amazon EC2 com HDD local ou armazenamento NVMe oferecem blocos de criação de armazenamento de alta performance que podem ser usados para várias aplicações de armazenamento. Instâncias de armazenamento denso são especificamente voltadas para clientes que querem acesso sequencial intenso de leitura/ gravação a grandes conjuntos de dados no armazenamento local, por exemplo, para computação distribuída com Hadoop e armazém de dados de processamento paralelo maciço.

P: Posso executar instâncias de armazenamento denso com HDD como instâncias otimizadas para o Amazon EBS?

Cada tipo de instância de armazenamento HDD (H1, D2, D3 e D3en) é otimizada por EBS como padrão. Como esse recurso está sempre habilitado, a execução de uma destas instâncias explicitamente como otimizada para EBS não afetará o comportamento da instância. Para mais informações, consulte instâncias otimizadas pelo Amazon EBS.

P: Posso executar instâncias D2 como instâncias otimizadas para o Amazon EBS?

Por padrão, todos os tipos de instância D2 são otimizados para o EBS. Instâncias D2 de 500 Mbps a 4.000 Mbps para EBS acima e além do throughput de rede de uso geral fornecida para a instância. Como esse recurso está sempre habilitado em instâncias D2, a execução de uma instância D2 explicitamente como otimizada para EBS não afetará o comportamento da instância.

P: O que é uma instância de E/S elevada?

As Instâncias de E/S elevada usam armazenamento local de instâncias baseado em NVMe para fornecer às aplicações uma capacidade muito elevada de E/S com baixa latência e são otimizadas para aplicações que exigem milhões de IOPS. Assim como as instâncias de cluster, as instâncias de E/S elevada podem ser agrupadas em cluster através de grupos de posicionamento de cluster para obter redes de baixa latência.

P: Todos os recursos do Amazon EC2 estão disponíveis para as instâncias de E/S elevada?

As instâncias de E/S elevada são compatíveis com todos os recursos do Amazon EC2. As instâncias Im4gn, Is4gen, I4i, I3 e I3en oferecem somente armazenamento NVMe. As instâncias I2, da geração anterior, permitem acesso a armazenamento herdado blkfront.

P: A AWS tem outras ofertas de banco de dados e de Big Data. Quando ou por que devo usar instâncias de E/S elevada?

As instâncias de E/S elevada são ideais para as aplicações que exigem acesso a milhões de IOPS de baixa latência e podem utilizar arquiteturas e armazenamentos de dados que gerenciam a disponibilidade e a redundância dos dados. Entre os aplicativos de exemplo estão:

  • Bancos de dados NoSQL, como Cassandra e MongoDB
  • Bancos de dados na memória, como Aerospike
  • Cargas de trabalho analíticas e do Elasticsearch
  • Sistemas OLTP

P: As instâncias de E/S elevada fornecem algum mecanismo de failover ou redundância?

Assim como outros tipos de instância do Amazon EC2, o armazenamento nas instâncias Im4gn, Is4gen, I4i, I3 e I3en persiste durante a vida da instância. Os clientes devem criar resiliência nas suas aplicações. Recomendamos o uso de sistemas de arquivos e bancos de dados compatíveis com a redundância e a tolerância a falhas. Os clientes devem fazer backup de seus dados periodicamente no Amazon S3 para maior durabilidade dos dados.

P: As instâncias de E/S elevada são compatíveis com o TRIM?

O comando TRIM permite que o sistema operacional informe a SSDs quais blocos de dados não são mais considerados em uso e que podem ser limpos internamente. Na ausência do comando TRIM, as futuras operações de gravação nos blocos envolvidos poderão ficar significativamente lentas. As instâncias Im4gn, Is4gen, I4i, I3 e I3en são compatíveis com TRIM.

P: Como as instâncias D3 e D3en se comparam às instâncias D2?

As instâncias D3 e D3en oferecem melhores especificações sobre o D2 nos seguintes atributos de cálculo, armazenamento e rede:

  • As instâncias D3 e D3en oferecem até 30% maior desempenho de cálculo do que as instâncias D2 equivalentes. O benefício exato do desempenho dependerá da carga de trabalho específica.
  • As instâncias D3 e D3en fornecem até 45% e 100% maior rendimento do disco do que as instâncias D2, respectivamente.
  • As instâncias D3 estão disponíveis a um preço 5% menor que as instâncias D2. As instâncias D3en custam menos por TB de armazenamento até 80% em comparação com as instâncias D2.
  • As instâncias D3 e D3en oferecem as Extensões de Vetor Avançado Intel (AVX 512), que oferecem até 2x o FLOPS por ciclo comparadas ao AVX2 no D2.
  • As instâncias D3en oferecem um novo tamanho de instância (12xl) com 48 vCPUs e 7 TB de armazenamento por vCPU para 336 TB de armazenamento total, mas têm metade da memória por vCPU em comparação com D2 e 48 TB de armazenamento total.
  • As instâncias D3 e D3en oferecem até 25 Gbps e 75 Gbps de largura de banda da rede respectivamente em seus maiores tamanhos para atender às necessidades dos clientes quanto à performance da rede para executar grandes workloads de dados e clusters de sistemas de arquivos.

P: As instâncias D3 e D3en criptografam volumes de armazenamento e tráfego de rede?

Sim; os dados escritos nos volumes de armazenamento serão criptografados em repouso, usando AES-256-XTS. O tráfego de rede entre as instâncias D3 e D3en no mesmo VPC ou um VPC de pares são criptografados por padrão usando uma chave de 256 bits.

Armazenamento

Amazon Elastic Block Store (Amazon EBS)

P: O que acontece aos meus dados quando um sistema é encerrado?

Os dados armazenados em um armazenamento de instância local persistirão somente desde que aquela instância esteja ativa. No entanto, os dados que são armazenados em um volume do Amazon EBS persistirão independentemente da vida útil da instância. Portanto, recomendamos que você use o armazenamento da instância local para os dados temporários e para os dados exigindo maior durabilidade, recomendamos o uso de volumes do Amazon EBS ou o backup dos dados para o Amazon S3. Se você estiver usando um volume do Amazon EBS como uma partição-raiz, deverá definir o sinalizador Excluir ao Encerrar para “N” para que seu volume do Amazon EBS se mantenha fora da vida da instância.

P: Que tipo de performance posso esperar dos volumes do Amazon EBS?

O Amazon EBS disponibiliza quatro tipos de volumes da geração atual que se dividem em duas categorias principais: armazenamento baseado em SSD para workloads transacionais e armazenamento sustentado por HDD para workloads com alto consumo de taxa de transferência. Esses tipos de volume diferem quanto às características de performance e preço, permitindo que você adapte o custo e a performance do armazenamento às necessidades das aplicações. Para obter mais informações, consulte a visão geral do Amazon EBS. Para obter mais informações sobre o desempenho, consulte a seção de Desempenho do EBS no Guia do usuário do Amazon EC2.

P: O que são os tipos de volume HDD otimizados para throughput (st1) e HDD inativo (sc1)?

Os volumes ST1 são sustentados por unidades de disco rígido (HDDs) e ideais para cargas de trabalho acessadas com frequência, além de alto consumo de throughput, grandes conjuntos de dados e E/S extensas, como MapReduce, Kafka, processamento de logs, data warehouse e cargas de trabalho de ETL. Esses volumes disponibilizam desempenho ideal em termos de taxa de transferência, medida em MB/s, e incluem a capacidade de chegar até 250 MB/s por TB, com um parâmetro de taxa de transferência de 40 MB/s por TB e uma taxa de transferência máxima de 500 MB/s por volume. O ST1 foi criado para disponibilizar a performance de throughput esperada durante 99% do tempo e tem créditos de E/S suficientes para sustentar uma varredura de volume total na taxa de intermitência.

Os volumes SC1 são sustentados por HDDs e disponibilizam o custo mais baixo por GB de todos os tipos de volume do EBS. Ele é ideal para workloads acessadas em menor frequência com grandes conjuntos de dados “frios”. Semelhante ao st1, o sc1 disponibiliza um modelo de intermitência: esses volumes podem chegar até a 80 MB/s por TB, com um parâmetro de taxa de transferência de 12 MB/s por TB e uma taxa de transferência máxima de 250 MB/s por volume. Para dados acessados com pouca frequência, o sc1 disponibiliza um armazenamento muito barato. O SC1 foi criado para disponibilizar o desempenho de taxa de transferência esperada durante 99% do tempo e tem créditos de E/S suficientes para dar suporte a uma verificação de volume total na taxa de intermitência.

Para maximizar o desempenho do st1 e do sc1, recomendamos usar instâncias do EC2 otimizadas para EBS.

P: Que tipo de volume devo escolher?

O Amazon EBS inclui duas grandes categorias de armazenamento: armazenamento sustentado por SSD para cargas de trabalho transacionais (o desempenho depende principalmente das IOPS) e armazenamento sustentado por HDD para cargas de trabalho de taxa de transferência (o desempenho depende principalmente da taxa de transferência, medida em MB/s). Os volumes baseados em SSD são criados para cargas de trabalho de bancos de dados transacionais com alto consumo de IOPS, volumes de inicialização e cargas de trabalho que exigem IOPS elevadas. Os volumes sustentados por SSD incluem Provisioned IOPS SSD (IO1 e IO2) e General Purpose SSD (GP2 e GP3). Os volumes sustentados por HDD são criados para cargas de trabalho com alto consumo da taxa de transferência e de big data, E/S extensas e padrões de E/S sequenciais. Os volumes sustentados por HDD incluem Throughput Optimized HDD (st1) e Cold HDD (sc1). Para obter mais informações, consulte a visão geral do Amazon EBS.

P: Vocês oferecem suporte a várias instâncias acessando um único volume?

Os clientes podem habilitar o Multi-Attach no volume io1 de IOPS provisionadas do EBS para permitir que um volume seja associado simultaneamente a até dezesseis instâncias do EC2 baseadas no Nitro na mesma zona de disponibilidade. Para obter mais informações sobre o Amazon EBS Multi-Attach, consulte a página do produto EBS.

P: Poderei acessar meus snapshots do EBS usando as APIs regulares do Amazon S3?

Não. Os snapshots do EBS estão disponíveis somente por meio das APIs do Amazon EC2.

P: Os volumes precisam ser desvinculados para criar um snapshot? O snapshot precisa ser concluído para que o volume possa ser usado novamente?

Não, os snapshots podem ser feitas em tempo real enquanto o volume está anexado e em uso. No entanto, os snapshots capturam somente os dados que foram gravados no volume do Amazon EBS, o que poderá excluir quaisquer dados que foram localmente armazenados em cache pelo aplicativo ou SO. Para assegurar snapshots consistentes em volumes anexados a uma instância, recomendamos desanexar claramente o volume, emitir o comando de snapshot e, em seguida, anexar novamente o volume. Para os volumes do Amazon EBS que atuam como dispositivos-raiz, recomendamos o desligamento da máquina para obter um snapshot nítido.

P: Os snapshots têm versões? Posso ler um snapshot mais antigo para fazer uma recuperação pontual?

Cada snapshot recebe um identificador exclusivo e os clientes podem criar volumes com base em qualquer um de seus snapshots existentes.

P: Quais cobranças aplicam-se ao usar snapshots compartilhadas do Amazon EBS?

Se você compartilhar um snapshot, não haverá cobrança quando outros usuários fizerem uma cópia de seu snapshot. Se você fizer uma cópia do volume compartilhado de outro usuário, haverá cobrança das taxas de EBS normais.

P: Os usuários de meus snapshots compartilhados do Amazon EBS podem alterar alguns dos meus dados?

Os usuários que têm permissão para criar volumes com base nos snapshots compartilhados primeiro farão uma cópia do snapshot em sua conta. Os usuários podem modificar suas próprias cópias dos dados, mas os dados em seu snapshot original e em quaisquer outros volumes criados por outros usuários com base em seu snapshot original permanecerão inalterados.

P: Como posso descobrir snapshots do Amazon EBS que foram compartilhados comigo?

Você pode localizar os snapshots que foram compartilhadas com você ao selecionar ''Private Snapshots'' (Snapshots privados) na visualização suspensa na seção Snapshots do AWS Management Console. Essa seção listará os snapshots que você possui e os snapshots que foram compartilhados com você.

P: Como posso localizar quais snapshots do Amazon EBS são compartilhados globalmente?

É possível localizar os snapshots que foram compartilhados globalmente ao selecionar ''Public Snapshots'' (Snapshots públicos) na visualização suspensa na seção Snapshots do AWS Management Console.

P: Vocês oferecem criptografia nos volumes e snapshots do Amazon EBS?

Sim. O EBS oferece criptografia integrada de volumes e snapshots de dados. A criptografia do EBS aumenta sua capacitação para cumprir requisitos de conformidade de segurança e criptografia.

P: Como posso localizar uma lista dos conjuntos de dados públicos da Amazon?

Todas as informações sobre conjuntos de dados públicos estão disponíveis no nosso Centro de recursos de conjuntos de dados públicos. Você também pode obter uma listagem de Conjuntos de dados públicos no AWS Management Console ao selecionar ''Amazon Snapshots'' (Snapshots da Amazon) na visualização suspensa na seção Snapshots.

P: Onde posso saber mais sobre o EBS?

Consulte as Perguntas frequentes sobre o Amazon EBS.

Amazon Elastic File System (Amazon EFS)

P: Como faço para acessar um sistema de arquivos por meio de uma instância do Amazon EC2?

Para acessar seu sistema de arquivos, você instala o sistema de arquivos em uma instância baseada em Linux do Amazon EC2 usando o comando de instalação padrão do Linux e o nome DNS do sistema de arquivos. Depois de instalar, é possível trabalhar com os arquivos e os diretórios no seu sistema de arquivos da mesma forma como você trabalharia com um sistema de arquivos local.

O Amazon EFS usa o protocolo NFSv4.1. Para obter um exemplo em detalhes sobre como acessar um sistema de arquivos a partir de uma instância do Amazon EC2, consulte o Guia de conceitos básicos do Amazon EFS.

P: Quais tipos de instâncias e AMIs do Amazon EC2 funcionam com o Amazon EFS?

O Amazon EFS é compatível com todos os tipos de instância do Amazon EC2 e pode ser acessado por meio de AMIs baseadas em Linux. É possível misturar e combinar os tipos de instância conectados a um único sistema de arquivos. Para obter um exemplo em detalhes sobre como acessar um sistema de arquivos a partir de uma instância do Amazon EC2, consulte o Guia de conceitos básicos do Amazon EFS.

P: Como faço para carregar dados para um sistema de arquivos?

É possível carregar dados em um sistema de arquivos do Amazon EFS por meio de instâncias do Amazon EC2 ou servidores de datacenter on-premises.

Os sistemas de arquivos do Amazon EFS podem ser montados em uma instância do Amazon EC2. Dessa forma, qualquer dado que possa ser acessado por uma instância do Amazon EC2 também poderá ser lido e gravado no Amazon EFS. Para carregar dados que não estejam armazenados no momento na nuvem da Amazon, é possível empregar os mesmos métodos usados atualmente para transferir arquivos para o Amazon EC2, como a cópia segura (SCP), por exemplo.

Os sistemas de arquivos do Amazon EFS também podem ser instalados em um servidor local, portanto qualquer dado acessível para um servidor local poderá ser lido e gravado no Amazon EFS usando ferramentas Linux padrão. Para obter mais informações sobre como acessar um sistema de arquivos a partir de um servidor no local, consulte a seção Acesso no local das perguntas frequentes do Amazon EFS.

Para obter mais informações sobre a transferência de dados para a nuvem da Amazon, consulte a página Migração de dados para a nuvem.

P: Como faço para acessar o sistema de arquivos do lado de fora da VPC?

As instâncias do Amazon EC2 em sua VPC podem acessar seu sistema de arquivos diretamente. Os servidores on-premises podem montar sistemas de arquivos por meio de uma conexão do AWS Direct Connect com a VPC.

P: Quantas instâncias do Amazon EC2 posso conectar a um sistema de arquivos?

O Amazon EFS comporta desde uma a milhares de instâncias do Amazon EC2 que se conectam a um sistema de arquivos simultaneamente.

P: Onde posso saber mais sobre o EFS?

Você pode visitar a página de perguntas frequentes do Amazon EFS.

Armazenamento de instâncias NVMe

P: Os dados armazenados no armazenamento de instâncias NVMe do Amazon EC2 são criptografados?

Sim. Todos os dados são criptografados em um módulo de hardware AWS Nitro antes de serem gravados nos SSDs conectados localmente oferecidos pelo armazenamento de instâncias NVMe.

P: Qual algoritmo de criptografia é usado para criptografar o armazenamento de instâncias NVMe do Amazon EC2?

O armazenamento de instâncias NVMe do Amazon EC2 é criptografado usando uma cifra de blocos XTS-AES-256.

P: As chaves de criptografia são exclusivas de uma instância ou dispositivo específico do armazenamento de instâncias NVMe?

As chaves de criptografia são geradas com segurança no módulo de hardware Nitro e são exclusivas para cada dispositivo de armazenamento de instâncias NVMe fornecido com uma instância do EC2.

P: Qual é o tempo de vida das chaves de criptografia no armazenamento de instâncias NVMe?

Todas as chaves serão destruídas, sem possibilidade de recuperação, sempre que o armazenamento for desalocado, incluindo as ações de interrupção e encerramento de instâncias.

P: Posso desabilitar a criptografia do armazenamento de instâncias NVMe?

Não. A criptografia do armazenamento de instâncias NVMe está sempre ativado e não é possível desabilitá-lo.

P: Os números de performance de IOPS publicados para instâncias I3 e I3en incluem a criptografia dos dados?

Sim. Os números de IOPS documentados para o armazenamento de instâncias NVMe Im4gn, Is4gen, I4i, I3 e I3en incluem criptografia.

P: O armazenamento de instâncias NVMe do Amazon EC2 oferece suporte ao AWS Key Management Service (KMS)?

Não. A criptografia de disco do armazenamento de instâncias NVMe não oferece suporte à integração com o sistema AWS KMS. Os clientes não podem usar suas próprias chaves no armazenamento de instâncias NVMe. 

Redes e segurança

Elastic Network Adapter (ENA) Express

P: O que é o ENA Express?

ENA Express é um aperfeiçoamento no Elastic Network Adapter que traz o protocolo Scalable Reliable Datagram (SRD) para redes TCP e UDP tradicionais. Transparente para a aplicação, o ENA Express melhora as larguras de banda de fluxo único e reduz as latências tardias em workloads com uso intenso de throughput.

P: Como o ENA Express funciona?

Quando configurado, o ENA Express trabalha entre duas instâncias compatíveis em uma zona de disponibilidade (AZ). O ENA Express detecta a compatibilidade entre instâncias do EC2 e estabelece uma conexão SRD quando está habilitado nas duas instâncias em comunicação. Depois que a conexão é estabelecida, o tráfego pode usar o SRD e seus benefícios de performance.

P: Quando devo usar o ENA Express?

O ENA Express funciona melhor para aplicações que exigem alto throughput de fluxo único, como sistemas de armazenamento distribuído e codificação de mídia ao vivo. Essas workloads exigem alta largura de banda de fluxo único e baixa latência residual.

P: Como faço para habilitar o ENA Express?

O ENA Express pode ser habilitado por ENI. Ao anexar um cartão de rede a uma instância ou ao executar um comando “modify”,o ENA Express pode ser habilitado. O ENA Express deve ser habilitado nas duas ENIs comunicantes para estabelecer comunicação ponto a ponto com ele. Além disso, se você estiver usando Jumbo Frames, é necessário ajustar seu MTU máximo para 8900 a fim de usar o ENA Express.

P: Quais protocolos são compatíveis com ENA Express?

O ENA Express é compatível com TCP por padrão. Como opção, o UDP pode ser habilitado por meio de um argumento de API ou no console de gerenciamento.

P: Quais instâncias são compatíveis?

O ENA Express é compatível com instâncias EC2 baseadas em Graviton, Intel e AMD. Ele é compatível com instâncias baseadas em computação, memória, uso geral e armazenamento. Para obter uma lista completa das instâncias suportadas, consulte o guia do usuário do ENA Express.

P: Qual é a diferença entre o Elastic Fabric Adapter (EFA) e o ENA Express?

EFA é uma interface de rede criada para aplicações de HPC e ML, e também utiliza o protocolo SRD. O EFA requer um modelo diferente de programação de rede, que usa a interface LibFabric para passar a comunicação à ENI. Diferente do EFA, o ENA Express ajuda você a executar sua aplicação de modo transparente em TCP e UDP. Além disso, o ENA Express permite a comunicação dentro da zona de disponibilidade (AZ), enquanto o EFA atualmente está limitado à comunicação dentro da mesma sub-rede.

P: O que acontece se eu estiver executando o ENA Express em uma instância e ela estiver se comunicando com outra instância que não é compatível com o ENA Express ou que não o habilitou na ENI?

O ENA Express detectará se o ENA Express foi habilitado em outra instância. Se essa instância não oferecer for compatível ou não tiver habilitado o ENA Express, sua instância retornará à operação normal do ENA. Você não conseguirá obter nenhum dos benefícios de performance do SRD nesse caso, mas também não haverá efeitos adversos.

P: Quais sistemas operacionais são compatíveis?

A funcionalidade SRD será compatível com todos os sistemas operacionais, mas observe que as métricas de monitoramento ENA Express estarão disponíveis apenas no EthTool na AMI Amazon Linux mais recente ou instalando o driver ENA versão 2.8.0 ou posterior do GitHub, com todos os operacionais sistemas compatíveis com as métricas no futuro.

P: Quais ferramentas de monitoramento estão disponíveis para acompanhar isso?

O ENA Express oferece contadores EthTool para rastrear pacotes elegíveis para transmissão SRD, além daqueles realmente enviados e recebidos com SRD. Além disso, o EthTool oferecerá suporte a uma métrica de utilização de recursos SRD em uma base percentual, fornecendo informações sobre quando você deve considerar o aumento da escala de sua arquitetura na horizontal. Por fim, um booleano fornecerá o status de ativação e desativação do ENA Express e do protocolo UDP.

P: Onde o ENA Express está disponível?

O ENA Express está disponível em todas as regiões comerciais. Ele pode ser usado para estabelecer comunicação entre quaisquer duas instâncias habilitadas dentro da mesma AZ.

P: Há custos adicionais para executar o ENA Express?

Não, o uso do ENA Express é gratuito.

Elastic Fabric Adapter (EFA)

P: Por que usar o EFA?

O EFA oferece a escalabilidade, a flexibilidade e elasticidade da nuvem para aplicativos de HPC estritamente vinculados. Com o EFA, as aplicações de HPC com alto acoplamento têm acesso a latência menor e mais consistente e maior throughput do que os canais tradicionais de TCP, permitindo uma melhor escalabilidade. O suporte do EFA pode ser ativado dinamicamente, sob demanda, em qualquer instância do EC2 suportada sem pré-reserva, garantindo a flexibilidade de responder à evolução das prioridades de negócio/da carga de trabalho.

P: Que tipos de aplicativos podem se beneficiar do uso do EFA?

As aplicações de HPC distribuem workloads computacionais em um cluster de instâncias para processamento paralelo. Entre os exemplos de aplicativos de HPC estão a dinâmica computacional de fluidos (CFD), simulações de falha e simulações meteorológicas. Aplicações de HPC geralmente são criadas usando a Interface de passagem de mensagens (MPI) e impõem requisitos rigorosos para comunicação entre instâncias em termos de latência e de largura de banda. Aplicativos que usam MPI e outro middleware de HPC que oferecem suporte para a pilha de comunicação libfabric podem ser beneficiar do EFA.

P: Como funciona a comunicação do EFA?

Os dispositivos EFA oferecem todas as funcionalidades dos dispositivos ENA mais uma nova interface de hardware de bypass do SO para comunicação direta dos aplicativos do espaço do usuário com a funcionalidade de transporte confiável fornecida pelo hardware. A maioria das aplicações usará o middleware existente, como a MPI, para fazer interface com o EFA. A AWS trabalhou com diversos provedores de middleware para garantir suporte para a funcionalidade de bypass de SO do EFA. Observe que a comunicação que utiliza a funcionalidade de bypass do SO é limitada a instâncias em uma única sub-rede de uma nuvem privada virtual (VPC).

P: Que tipos de instâncias oferecem suporte ao EFA?

Para obter uma lista completa das instâncias EC2 suportadas, consulte esta página em nossa documentação.

P: Quais são as diferenças entre uma ENI do EFA e uma ENI do ENA?

Uma ENI do ENA oferece os recursos de redes IP tradicionais necessários para oferecer suporte para redes de VPC. Uma ENI do EFA oferece toda a funcionalidade de uma ENI do ENA, mais suporte de hardware para que os aplicativos se comuniquem diretamente com a ENI do EFA sem envolver o kernel da instância (comunicação de bypass do SO) usando uma interface de programação estendida. Devido aos recursos avançados da ENI do EFA, as ENIs do EFA só podem ser anexadas na inicialização ou a instâncias interrompidas.

P: Quais são os pré-requisitos para ativar o EFA em uma instância?

O suporte do EFA pode ser ativado na inicialização*** da instância ou adicionado a uma instância interrompida. Os dispositivos EFA não podem ser anexados a uma instância em execução.

Redes avançadas

P: Quais capacidades de rede estão incluídas neste recurso?

Atualmente a AWS é compatível com capacidades de redes aperfeiçoadas usando SR-IOV (Virtualização de E/S de raiz única). O SR-IOV é um método de virtualização de dispositivos que oferece performance de E/S mais alta e utilização de CPU mais baixa comparado às implementações tradicionais. Para instâncias do Amazon EC2 compatíveis, este recurso oferece performance de pacotes por segundo (PPS) mais alta, latências entre instâncias mais baixas e variação de rede muito baixa.

P: Por que devo usar as redes aperfeiçoadas?

Se seus aplicativos beneficiam-se de redes de alta performance de pacotes por segundo e/ou de baixa latência, as redes aperfeiçoadas fornecerão performance significativamente melhorada, consistência de performance e escalabilidade.

P: Como posso ativar as redes aperfeiçoadas nas instâncias compatíveis?

Para ativar esse recurso, você precisa iniciar uma AMI de HVM com os drivers adequados. As instâncias listadas como geração atual usam o ENA para redes aperfeiçoadas. Como padrão, o Amazon Linux AMI inclui esses dois drivers. Para as AMIs que não contêm esses drivers, será necessário fazer o download e instalar os drivers apropriados com base nos tipos de instância que você planeja usar. Você pode usar as instruções do Linux ou do Windows para habilitar redes aperfeiçoadas em AMIs que não incluem o driver SR-IOV por padrão. As redes aperfeiçoadas são compatíveis apenas no Amazon VPC.

P: Eu preciso pagar uma taxa adicional para usar as redes aperfeiçoadas?

Não, não há taxa adicionar para usar as redes aperfeiçoadas. Para tirar proveito das redes aperfeiçoadas, você precisa iniciar a AMI adequada em um tipo de instância compatível em um VPC.

P: Que tipos de instâncias são compatíveis com as redes aperfeiçoadas?

Dependendo do tipo de instância, é possível habilitar a rede avançada usando um dos seguintes mecanismos:

Interface Intel 82599 Virtual Function (VF) – a interface Intel 82599 Virtual Function oferece suporte a velocidades de rede de até 10 Gbps para tipos de instâncias compatíveis. As instâncias C3, C4, D2, I2, M4 (exceto a m4.16xlarge) e R3 usam a interface Intel 82599 VF para redes avançadas.

Elastic Network Adapter (ENA): o Elastic Network Adapter (ENA) oferece suporte a velocidades de rede de até 200 Gbps para os tipos de instâncias compatíveis. As instâncias listadas como geração atual usam ENA para redes aperfeiçoadas, com exceção das instâncias C4, D2 e M4 menores que m4.16xlarge.

P: O que significa ter várias placas de rede para uma instância do EC2? Por que são necessárias?

As instâncias do EC2 da geração mais recente usam placas de rede Nitro para descarga do plano de dados da VPC. Para fornecer maior largura de banda da rede e melhor performance na taxa de pacotes, é possível configurar instâncias do EC2 específicas para usar várias placas de rede para o processamento de pacotes, aumentando a performance geral do sistema.

P: Que tipos de instância são compatíveis com várias placas de rede?

Várias placas de rede são compatíveis com instâncias aceleradas, como p4d.24xlarge, e instâncias otimizadas para rede, como c6in.32xlarge. Para obter uma lista completa de instâncias compatíveis com várias placas de rede, consulte Interfaces de rede elásticas.

P: Qual o número padrão de interfaces de rede com que uma instância de várias placas pode ser iniciada?

Isso depende do tipo de instância. Instâncias aceleradas, como as p4, aumentam a escala verticalmente para até 15 interfaces de rede por placa de rede. As instâncias com muito uso de rede, como as instâncias c6in lançadas recentemente, comportam um agregado de 14 interfaces de rede divididas uniformemente (7 e 7) pelas duas placas de rede. Para obter informações sobre a escala de interfaces de rede por placas de rede, consulte Placas de rede.

Elastic Load Balancing

P: Quais opções de balanceamento de carga o serviço Elastic Load Balancing oferece?

O Elastic Load Balancing oferece dois tipos de load balancers que proporcionam alta disponibilidade, escalabilidade automática e forte segurança. Estas incluem o Classic Load Balancer que faz o roteamento do tráfego com base no aplicativo ou nas informações de nível de rede, e o Application Load Balancer que faz o roteamento do tráfego com base nas informações avançadas de nível de aplicativo, incluindo o conteúdo da solicitação.

P: Quando devo usar o Classic Load Balancer e o Application Load Balancer?

O Classic Load Balancer é ideal para o balanceamento de carga simples do tráfego entre várias instâncias EC2, já o Application Load Balancer é excelente para aplicações que precisam de recursos avançados de roteamento, microsserviços e arquiteturas baseadas em contêiner. Acesse Elastic Load Balancing para obter mais informações.

Elastic IP

P: Por que há um limite de 5 endereços Elastic IP por região?

Os endereços da Internet públicos (IPV4) são um recurso escasso. Há somente uma quantidade limitada de espaço IP público disponível e o Amazon EC2 está comprometido em ajudar a usar tal espaço de forma eficiente.

Como padrão, todas as contas estão limitadas a 5 endereços de IP elástico por região. Se você precisar de mais de 5 endereços de IP elástico, solicitamos que se cadastre para que o limite seja aumentado. Pediremos que você reflita sobre o caso de uso e nos ajude a compreender sua necessidade com relação a mais endereços. Você pode solicitar mais endereços IP elástico aqui. Quaisquer aumentos serão específicos da região para a qual foram solicitados.

P: Por que há cobrança quando o endereço de IP elástico não está associado a uma instância em execução?

Para ajudar a assegurar que nossos clientes estejam usando com eficiência os endereços de IP elástico, impomos a cobrança de uma pequena taxa por hora para cada endereço quando ele não está associado a uma instância em execução.

P: Preciso de um endereço de IP elástico para cada instância que estiver sendo executada?

Não. Você não precisa de um endereço Elastic IP para todas as instâncias. Como padrão, toda instância vem com um endereço IP privado e um endereço IP público roteável da Internet. O endereço IP privado permanece associado à interface de rede quando a instância é interrompida e reiniciada, sendo liberado quando a instância é encerrada. O endereço público é associado exclusivamente à instância até ser interrompido, encerrado ou substituído por um endereço Elastic IP. Esses endereços IP devem ser adequados para muitos aplicativos onde não é necessário um ponto final roteável da Internet ativo extenso. Os clusters de computação, crawling da Web e serviços back-end são exemplos de aplicativos que normalmente não requerem endereços Elastic IP.

P: Quanto tempo demora para remapear um endereço Elastic IP?

No momento, o processo de remapeamento leva vários minutos, desde quando você instrui a remapear o Elastic IP até ele ser totalmente propagado por meio do nosso sistema.

P: Posso configurar o registro DNS reverso para meu endereço IP elástico?

Todos os endereços IP elásticos são fornecidos com DNS reverso em um modelo padrão do formulário ec2-1-2-3-4.region.compute.amazonaws.com. Para clientes que precisam de configurações personalizadas de DNS reverso para aplicativos voltados à Internet que usam autenticação mútua baseada em IP (como o envio de e-mail de instâncias do EC2), você pode configurar o registro de DNS reverso do endereço IP elástico preenchendo este formulário. Como alternativa, entre em contato com o suporte ao cliente da AWS se quiser que a AWS delegue o gerenciamento do DNS reverso de seu IPs elásticos para seus servidores de nome de DNS autorizados (como o Amazon Route 53). Assim, você poderá gerenciar os seus próprios registros PTR do DNS para apoiar esses casos de uso. Observe que um registro DNS de encaminhamento correspondente apontando para aquele endereço IP elástico deve estar presente antes que possamos criar o registro DNS reverso.

Segurança

P: Como faço para impedir que outras pessoas visualizem meus sistemas?

Você tem controle total sobre a visibilidade dos sistemas. Os sistemas de segurança do Amazon EC2 permitem que você posicione suas instâncias em execução em grupos arbitrários de sua escolha. Usado a interface de serviços da Web, você pode, então, especificar quais grupos podem se comunicar com quais outros grupos e também quais sub-redes de IP na Internet podem conversar com quais grupos. Isso permite que você controle o acesso às suas instâncias em nosso ambiente altamente dinâmico. É claro que você também deve proteger sua instância assim como faria com qualquer outro servidor.

P: Posso obter um histórico de todas as chamadas de API do EC2 realizadas na minha conta para fins de análise de segurança ou solução de problemas operacionais?

Sim. Para receber um histórico de todas as chamadas de API do EC2 (incluindo a VPC e o EBS) realizadas na sua conta, basta ativar o CloudTrail no Console de gerenciamento da AWS. Para obter mais informações, acesse a página inicial do CloudTrail.

P: Onde posso localizar mais informações sobre a segurança na AWS?

Para obter mais informações sobre a segurança na AWS, consulte nosso whitepaper Amazon Web Services: visão geral dos processos de segurança e o Guia de segurança do Amazon EC2 que executa Windows

Gerenciamento

Amazon CloudWatch

P: Qual é a granularidade de intervalo de tempo mínimo para os dados que o Amazon CloudWatch recebe e agrega?

As métricas são recebidas e agregadas em intervalos de um minuto.

P: Quais sistemas operacionais são compatíveis com o Amazon CloudWatch?

O Amazon CloudWatch recebe e fornece métricas para todas as instâncias do Amazon EC2 e deve funcionar com qualquer sistema operacional compatível no momento com o serviço Amazon EC2.

P: Perderei os dados de métricas se desativar o monitoramento para uma instância do Amazon EC2?

Você pode recuperar os dados de métricas para qualquer instância do Amazon EC2 até duas semanas a partir do início do seu monitoramento. Após duas semanas, os dados de métricas para uma instância do Amazon EC2 não estarão disponíveis se o monitoramento foi desativado para aquela instância do Amazon EC2. Se você quiser arquivar as métricas por mais de duas semanas, poderá fazê-lo ao chamar o comando mon-get-stats da linha de comando e armazenar os resultados no Amazon S3 ou no Amazon SimpleDB.

P: Posso acessar os dados de métricas para uma instância encerrada do Amazon EC2 ou um Elastic Load Balancer excluído?

Sim. O Amazon CloudWatch armazena as métricas para as instâncias encerradas do Amazon EC2 ou Elastic Load Balancer excluídas por duas semanas.

P: A cobrança do monitoramento do Amazon CloudWatch muda dependendo do tipo de instância do Amazon EC2 monitorada?

Não, a cobrança de monitoramento do Amazon CloudWatch não varia por tipo de instância do Amazon EC2.

P: Por que a representação gráfica da mesma janela de tempo parece diferente quando visualizo em períodos de cinco minutos e um minuto?

Se você visualizar a mesma janela de tempo em um período de cinco minutos em comparação com um período de um minuto, poderá visualizar que os pontos de dados são exibidos em diferentes locais no gráfico. Para o período especificado no gráfico, o Amazon CloudWatch encontrará todos os pontos de dados disponíveis e calculará um único ponto agregado para representar todo o período. No caso de um período de cinco minutos, o ponto de dados único é posicionado no início da janela de tempo de cinco minutos. No caso de um período de um minuto, o ponto de dados único é posicionado na marca de um minuto. Recomendamos usar um período de um minuto para solucionar problemas e outras atividades que exigem a representação gráfica mais precisa dos períodos.

Amazon EC2 Auto Scaling

P: Posso escalar automaticamente os grupos de Auto Scaling do Amazon EC2?

Sim. O Amazon EC2 Auto Scaling é um serviço gerenciado, criado para iniciar ou encerrar automaticamente instâncias do Amazon EC2. Dessa forma, ajuda a garantir a disponibilidade do número correto de instâncias do Amazon EC2 para processar as cargas dos aplicativos. O EC2 Auto Scaling ajuda a manter a disponibilidade dos aplicativos por meio do gerenciamento de frotas de instâncias EC2, que detecta e substitui instâncias não íntegras, e da escalabilidade automática da capacidade do Amazon EC2 de acordo com as condições que você definiu. Você pode usar o EC2 Auto Scaling para aumentar automaticamente o número de instâncias do Amazon EC2 durante picos de demanda para manter os níveis de performance, e diminuir a capacidade durante períodos ociosos para reduzir os custos.

As estratégias de alocação do EC2 Auto Scaling determinam como as instâncias spot de uma frota são atendidas usando grupos de instâncias spot. A estratégia de alocação otimizada para capacidade tenta provisionar instâncias spot dos grupos de instâncias spot mais disponíveis mediante a análise de métricas de capacidade. Essa estratégia é uma boa opção para cargas de trabalho como big data e análises, renderização de imagens e mídias, machine learning e computação de alta performance, que podem ter um custo de interrupção mais elevado. A estratégia de alocação por menor preço inicia instâncias spot estritamente com base na diversificação entre os N grupos com menor preço.

Para obter mais informações, consulte as Perguntas frequentes do Amazon EC2 Auto Scaling.

Hibernar

P: Por que eu devo fazer uma instância hibernar?

Você pode fazer uma instância hibernar para que ela e as aplicações sejam rapidamente iniciadas e executadas se forem do tipo de demoram no bootstrap (como carregar caches de memória). Você pode iniciar instâncias, levá-las a um estado desejado e hiberná-las. Essas instâncias «pré-aquecidas» podem então ser retomadas para reduzir o tempo que leva para que voltem ao serviço. A hibernação retém o estado da memória entre os ciclos de Parada/Início.

P: O que acontece quando eu faço minha instância hibernar?

Quando você faz uma instância hibernar, os dados do seu volume raiz do EBS e todos os volumes de dados do EBS associados são persistidos. Além disso, o conteúdo da memória da instância (RAM) é persistido no volume raiz do EBS. Quando a instância é reiniciada, ela volta ao seu estado anterior e recarrega o conteúdo RAM.

P: Qual é a diferença entre hibernar e parar?

No caso da hibernação, a instância é hibernada e os dados RAM são persistidos. No caso da parada, a instância é encerrada e a RAM é descartada.

Nos dois casos, os dados do volume raiz do EBS e todos os volumes de dados do EBS associados são persistidos. O endereço IP privado continua o mesmo, assim como o endereço IP elástico (se for o caso). O comportamento da camada de rede será semelhante ao do fluxo de trabalho de parada/início do EC2. Os comportamentos de parada e hibernação estão disponíveis apenas para instâncias baseadas no Amazon EBS. O armazenamento local de instâncias não é persistido.

P: Quanto custa para fazer uma instância hibernar?

Fazer instâncias hibernarem custa o mesmo que as taxas padrão do EBS para armazenamento. Como com uma instância parada, você não paga taxas de uso de instância enquanto ela estiver hibernando.

P: Como eu posso fazer uma instância hibernar?

A hibernação deve ser ativada quando você inicia a instância. Depois de ativada, você pode usar a API StopInstances com um parâmetro adicional “Hibernate” para acionar a hibernação. Você também pode fazer isso por meio do console selecionando sua instância, clicando em Actions > Instance State > Stop – Hibernate. Para obter mais informações sobre o uso da hibernação, consulte o guia do usuário.

P: Como eu reinicio uma instância hibernada?

Você pode reiniciar chamando a API StartInstances, como faria para uma instância regular parada. Você também pode fazer isso por meio do console selecionando sua instância, clicando em Actions > Instance State > Start (Ações > Estado da instância > Iniciar).

P: Posso ativar a hibernação em uma instância existente?

Não. Você não pode ativar a hibernação em uma instância existente (em execução ou parada). Isso precisa ser ativado durante a inicialização da instância.

P: Como eu sei se uma instância está hibernada?

É possível saber se a instância está hibernada olhando o motivo do estado. Ele deve ser “Client.UserInitiatedHibernate”. Isso pode ser visto no console em “Instances – Details” (Instâncias – Detalhes) ou na resposta da API DescribeInstances como o campo “reason” (razão).

P: Qual é o estado de uma instância quando ela está hibernando?

Instâncias hibernadas ficam no estado “Stopped”.

P: Que dados são salvos quando eu faço uma instância hibernar?

O armazenamento de volume do EBS (volume de inicialização e volumes de dados anexados) e memória (RAM) são salvos. O endereço IP privado continua o mesmo (para VPC), assim como o endereço IP elástico (se for o caso). O comportamento da camada de rede será semelhante ao do fluxo de trabalho de parada/início do EC2.

P: Onde meus dados são armazenados quando eu faço uma instância hibernar?

Como com o recurso Parar, o dispositivo raiz e os dados do dispositivo anexados são armazenados nos volumes do EBS correspondentes? O conteúdo da memória (RAM) é armazenado no volume raiz do EBS.

P: Meus fados da memória (RAM) são criptografados quando movidos para o EBS?

Sim, os dados RAM são sempre criptografados quando movidos para o volume raiz do EBS. A criptografia no volume raiz do EBS é aplicada no momento de inicialização da instância. Isso é para garantir proteção de qualquer conteúdo confidencial que esteja na memória no momento da hibernação.

P: Por quanto tempo posso manter minha instância hibernada?

Não oferecemos suporte para manter uma instância hibernada por mais de 60 dias. Você precisa reiniciar a instância e passar pelo processo de Parar e Iniciar (sem hibernação) se desejar manter a instância por uma duração maior. Estamos trabalhando constantemente para manter nossa plataforma atualizada com upgrades e correções de segurança. Alguns deles podem entrar em conflito com instâncias antigas hibernadas. Notificaremos você sobre atualizações críticas que exijam que você reinicie a instância hibernada para realizar um encerramento ou reinicialização.

P: Quais são os pré-requisitos para hibernar uma instância?

Para usar a hibernação, o volume raiz deve ser um volume do EBS criptografado. A instância precisa ser configurada para receber o sinal ACPID para hibernação (ou usar as AMIs publicadas pela Amazon configuradas para hibernação). Além disso, sua instância deve ter espaço suficiente disponível no volume raiz do EBS para gravar os dados da memória.

P: Que instâncias e sistemas operacionais oferecem suporte à hibernação?

Em instâncias executadas no Amazon Linux, Amazon Linux 2, Ubuntu e Windows, a hibernação é compatível com as instâncias C3, C4, C5, C5d, I3, M3, M4, M5, M5a, M5ad, M5d, R3, R4, R5, R5a, R5ad, R5d, T2, T3 e T3a. 

Em instâncias executadas em CentOS, Fedora e Red Hat Enterprise Linux, a hibernação é compatível com as instâncias C5, C5d, M5, M5a, M5ad, M5d, R5, R5a, R5ad, R5d, T3 e T3a.

No Windows, a hibernação é compatível com instâncias de até 16 GB de RAM. Para outros sistemas operacionais, a hibernação tem suporte para instâncias com menos de 150 GB de RAM. Para ver a lista das versões de sistema operacional e tipos de instâncias compatíveis, consulte o guia do usuário.

P: Devo usar imagem de máquina da Amazon (AMI) se quiser colocar minha instância para hibernar?

Você pode usar qualquer AMI configurada para oferecer suporte à hibernação. Você pode usar as AMIs publicadas pela AWS que oferecem suporte à hibernação por padrão. Como alternativa, você pode criar uma imagem personalizada de uma instância depois de seguir a lista de verificação de pré-requisitos de hibernação e configurar sua instância adequadamente.

P: E se o volume raiz do EBS não for grande o suficiente para armazenar o estado da memória (RAM) para a hibernação?

Para ativar a hibernação, o espaço é alocado no volume raiz para armazenar a memória da instância (RAM). Certifique-se de que o volume raiz seja grande suficiente para armazenar o conteúdo da RAM e acomodar seu uso esperado, por exemplo, sistema operacional, aplicações. Se o volume raiz do EBS não tiver espaço suficiente, a hibernação falhará e a instância será desligada.

VM Import/Export

P: O que é VM Import/Export?

O VM Import/Export permite que os clientes importem imagens de máquina virtual (VM) a fim de criar instâncias do Amazon EC2. Os clientes também podem exportar instâncias EC2 previamente importadas para criar VMs. Os clientes podem usar o VM Import/Export para aproveitar os investimentos anteriores na construção de VMs migrando suas VMs para o Amazon EC2.

P: Quais sistemas operacionais são compatíveis?

Atualmente, o VM Import/Export é compatível com VMs Windows e Linux, incluindo várias edições do Windows Server, Red Hat Enterprise Linux (RHEL), CentOS, Ubuntu, Debian e outros. Para obter mais detalhes sobre o VM Import, incluindo formatos de arquivo, arquiteturas e configurações de sistema operacional compatíveis, consulte a seção VM Import/Export do VM Import/Export.

P: Quais formatos de arquivo da VM são compatíveis?

Você pode importar imagens de VMware ESX VMDK, Citrix Xen VHD, Microsoft Hyper-V VHD e RAW como instâncias do Amazon EC2. Você pode exportar instâncias EC2 para as imagens VMware ESX VMDK, VMware ESX OVA, Microsoft Hyper-V VHD ou Citrix Xen VHD. Para obter uma lista completa dos sistemas operacionais compatíveis, consulte Quais sistemas operacionais são compatíveis?

P: O que é VMDK?

VMDK é um formato de arquivo que especifica o disco rígido de uma máquina virtual encapsulado em um único arquivo. Normalmente, ele é usado por infraestruturas de TI virtuais, como aquelas vendidas pela VMware, Inc.

P: Como preparo um arquivo VMDK para a importação usando o cliente vSphere da VMware?

O arquivo VMDK pode ser preparado ao chamar o modelo File-Export-Export para OVF no cliente VMware vSphere. O arquivo VMDK resultante é compactado para reduzir o tamanho da imagem e é compatível com o VM Import/Export. Nenhuma preparação especial será exigida se você estiver usando o Amazon EC2 VM Import Connector vApp para o VMware vCenter.

P: O que é VHD?

VHD (disco rígido virtual) é um formato de arquivo que especifica o disco rígido de uma máquina virtual encapsulado em um único arquivo. O formato de imagem VHD é usado por plataformas de virtualização, como o Microsoft Hyper-V e o Citrix Xen.

P: Como preparo um arquivo VHD para a importação a partir do Citrix Xen?

Abra o Citrix XenCenter e selecione a máquina virtual que você deseja exportar. No menu “Tools”, clique em “Virtual Appliance Tools” e selecione “Export Appliance” para iniciar a tarefa de exportação. Quando a exportação for concluída, você poderá localizar o arquivo de imagem VHD no diretório de destino especificado na caixa de diálogo Exportar.

P: Como preparo um arquivo VHD para a importação a partir do Microsoft Hyper-V?

Abra o Gerenciador do Hyper-V e selecione a máquina virtual que você deseja exportar. No painel “Actions” da máquina virtual, selecione ”Export” para iniciar a tarefa de exportação. Assim que a exportação for concluída, você poderá localizar o arquivo de imagem VHD no diretório de destino especificado na caixa de diálogo Exportar.

P: Há outras exigências ao importar uma VM para o Amazon EC2?

A máquina virtual deve estar em um estado interrompido antes de gerar a imagem VMDK ou VHD. A VM não pode estar em um estado pausado ou suspenso. Sugerimos que você exporte a máquina virtual com apenas o volume de inicialização anexado. Você pode importar discos adicionais usando o comando ImportVolume e anexá-los à máquina virtual usando o AttachVolume. Além disso, os discos criptografados (por ex., Bit Locker) e os arquivos de imagem criptografados não são compatíveis. Você também é responsável por assegurar que dispõe de todos os direitos e licenças necessários para importar para a AWS e executar qualquer software incluído na sua imagem do VM.

P: A máquina virtual precisa ser configurada de alguma forma específica para permitir a importação para o Amazon EC2?

Verifique se o Remote Desktop (RDP) ou Secure Shell (SSH) estão habilitados para acesso remoto e verifique se o firewall de host (Windows firewall, iptables, ou similar), se configurado, permite o acesso ao RDP ou SSH. Do contrário, não será possível acessar a instância após concluir a importação. Verifique também se as VMs Windows estão configuradas para usar senhas fortes para todos os usuários, incluindo o administrador e as VMs Linux e configuradas com uma chave pública para acesso SSH.

P: Como faço para importar uma máquina virtual para uma instância do Amazon EC2?

Você pode importar as imagens de VM usando as ferramentas API do Amazon EC2:

  • Importe o arquivo VMDK, VHD ou RAW via API ec2-import-instance. A tarefa da instância de importação captura os parâmetros necessários para configurar corretamente as propriedades da instância do Amazon EC2 (tamanho da instância, zona de disponibilidade e security groups) e carrega a imagem do disco para o Amazon S3.
  • Se ec2-import-instance for interrompida e finalizar sem ter concluído o upload, use ec2-resume-import para reiniciar o upload. A tarefa de importação será iniciada do ponto em que foi interrompida.
  • Use o comando ec2-describe-conversion-tasks para monitorar o progresso do processo de importação e obter o ID da instância resultante do Amazon EC2.
  • Assim que a sua tarefa de importação estiver concluída, você pode reinicializar a instância do Amazon EC2 ao especificar o ID da mesma para a API ec2-run-instances.
  • Por fim, use a ferramenta de linha de comando ec2-delete-disk-image para excluir sua imagem de disco do Amazon S3, uma vez que ela não é mais necessária.

Como alternativa, se você usar a plataforma de virtualização do VMware vSphere, poderá importar sua máquina virtual para o Amazon EC2 usando uma interface gráfica de usuário fornecida pelo AWS Management Portal for vCenter. Consulte o Guia de conceitos básicos no AWS Management Portal for vCenter. O AWS Management Portal for vCenter inclui suporte integrado para VM Import. Após a instalação do portal no vCenter, você poderá clicar com o botão direito do mouse em uma VM e selecionar “Migrate to EC2” para criar uma instância do EC2 com base na VM. O portal processará a exportação da VM do vCenter, carregando-a no S3 e convertendo-a em uma instância do EC2 para você, sem nenhum trabalho adicional. Você também pode acompanhar o andamento das suas migrações de VM no portal.

P: Como exporto uma instância do Amazon EC2 de volta para meu ambiente de virtualização local?

Você pode exportar sua instância do Amazon EC2 utilizando as ferramentas de CLI do Amazon EC2:

  • Exporte a instância utilizando o comando ec2-create-instance-export-task. O comando exportar captura os parâmetros necessários (ID da instância, bucket do S3 para segurar a imagem exportada, nome da imagem exportada, formato VMDK, OVA ou VHD) para exportar de maneira apropriada a instância para o formato de sua escolha. O arquivo exportado é salvo em um bucket do S3 que foi previamente criado por você.
  • Use ec2-describe-export-tasks para monitorar o progresso da exportação.
  • Use ec2-cancel-export-task para cancelar uma tarefa de exportação antes que ela seja concluída.

P: Há outras exigências ao exportar uma instância EC2 utilizando o VM Import/Export?

Você pode exportar as instâncias EC2 em execução ou interrompidas que foram importadas anteriormente utilizando o VM Import/Export. Se a instância estiver sendo executada, ela será interrompida momentaneamente para criar um snapshot do volume de inicialização. Os volumes de dados EBS não podem ser exportados. As instâncias EC2 com mais de uma interface de rede não podem ser exportadas.

P: Posso exportar instâncias do Amazon EC2 que tenham um ou mais volumes de dados EBS anexados?

Sim, mas o VM Import/Export só exportará o volume de inicialização da instância EC2.

P: Qual é o custo de importar uma máquina virtual?

Haverá uma cobrança pela transferência de dados padrão do Amazon S3 e tarifas de armazenamento para o upload e o armazenamento do arquivo de imagens da VM. Assim que a VM for importada, as tarifas padrão de hora da instância do Amazon EC2 e do serviço EBS serão aplicadas. Se você não quiser mais armazenar o arquivo de imagens da VM no S3 após a conclusão do processo de importação, use a ferramenta da linha de comando ec2-delete-disk-image para excluir a imagem do disco do Amazon S3.

P: Quanto custa exportar uma VM?

Haverá cobrança das tarifas de armazenamento padrão do Amazon S3 pelo armazenamento de seu arquivo de imagem da VM exportada. Também haverá cobrança pelas tarifas padrão de transferência de dados do S3 ao fazer download do arquivo da VM exportada para seu ambiente de virtualização local. Por fim, haverá uma cobrança pelas tarifas do EBS para o armazenamento de um snapshot temporário de sua instância EC2. Para minimizar as cobranças de armazenamento, exclua o arquivo de imagem da VM no S3 após fazer download do mesmo para seu ambiente de virtualização.

P: Quando importo uma VM do Windows Server 2003 ou 2008, quem é responsável pelo fornecimento da licença do sistema operacional?

Ao iniciar uma VM importada usando o Microsoft Windows Server 2003 ou 2008, haverá cobrança de taxas de horas da instância padrão para o Amazon EC2 executando a versão apropriada do Windows Server, que inclui o direito de utilizar esse sistema operacional no Amazon EC2. Você é responsável por assegurar que todos os outros softwares instalados estejam apropriadamente licenciados.

Então, o que acontece com minha chave de licença local do Microsoft Windows quando eu importo uma VM do Windows Server 2003 ou 2008? Uma vez que sua chave de licença local do Microsoft Windows associada a essa VM não foi utilizada ao executar sua VM importada como uma instância EC2, você pode reutilizá-la para outra VM em seu ambiente local.

P: Posso continuar usando a chave de licença do Microsoft Windows fornecida pela AWS depois de exportar uma instância do EC2 de volta para meu ambiente de virtualização on-premises?

Não. Após a exportação de uma instância do EC2, a chave de licença utilizada na instância do EC2 não estará mais disponível. Você terá que reativar e especificar uma nova chave de licença para a VM exportada após a inicialização da mesma em sua plataforma de virtualização on-premises.

P: Quando se importa uma VM com Red Hat Enterprise Linux (RHEL), quem é responsável por fornecer a licença do sistema operacional?

Ao importar imagens VM do Red Hat Enterprise Linux (RHEL), é possível usar a portabilidade de licença para suas instâncias do RHEL. Com a portabilidade de licença, você é responsável por manter as licenças RHEL para instâncias importadas, o que pode ser feito usando inscrições do Cloud Access para o Red Hat Enterprise Linux. Entre em contato com a Red Hat para aprender mais sobre o Cloud Access e verificar sua elegibilidade.

P: Quanto tempo demora para importar uma máquina virtual?

A duração para importar uma máquina virtual depende do tamanho da imagem do disco e da velocidade da conexão da rede. Como um exemplo, uma imagem SP2 VMDK de 10 GB do Windows Server 2008 leva cerca de duas horas para ser importada quando for transferida por meio de uma conexão de rede de 10 Mbps. Se você tiver uma conexão de rede lenta ou um disco grande para fazer upload, sua importação pode sofre uma demora significativa.

P: Em quais regiões do Amazon EC2 posso usar o VM Import/Export?

Acesse a página Tabela de regiões para ver a disponibilidade de serviço do produto por região.

P: Quantas tarefas simultâneas de importação ou exportação posso ter?

Cada conta pode ter até cinco tarefas de importação ativas e cinco tarefas de exportação por região.

P: Posso executar máquinas virtuais importadas na Amazon Virtual Private Cloud (Amazon VPC)?

Sim, é possível iniciar as máquinas virtuais importadas no Amazon VPC.

P: Posso usar o Console de Gerenciamento da AWS com o VM Import/Export?

Não. Os comandos do VM Import/Export são disponibilizados pela API e CLI do EC2. Você também pode usar o AWS Management Portal para vCenter para importar VMs para o Amazon EC2. Uma vez importadas, as instâncias resultantes estarão disponíveis para o uso através do AWS Management Console.

Opções de compra e faturamento

Faturamento

P: Como será a cobrança e o faturamento do uso que eu fizer do Amazon EC2?

Você paga somente pelo que usar. A definição de preço exibida é uma taxa horária. No entanto, dependendo da instância escolhida, cada tipo de instância é cobrado por hora ou segundo (mínimo de 60 segundos). Horas parciais de instância consumidas são cobradas de acordo com o uso da instância. Os dados transferidos entre os serviços da AWS em diferentes regiões são cobrados com base nas taxas de transferência de dados entre regiões padrão. O uso de outros Amazon Web Services é cobrada separadamente do Amazon EC2.

Para obter informações sobre a definição de preço do EC2, visite a seção de definição de preço na página de detalhes do EC2.

P: Quando o faturamento dos meus sistemas do Amazon EC2 começa e termina?

O faturamento começa quando o Amazon EC2 inicia a sequência de inicialização de uma instância da AMI. O faturamento termina quando a instância é encerrada, o que poderia ocorrer por meio de um comando de serviços da web ao executar “shutdown -h” ou por meio da falha da instância. Quando você para uma instâncias, nós a desligamos, mas não fazemos a cobrança por hora de uso da instância interrompida ou da tarifa de transferência de dados, mas cobramos pelo armazenamento de quaisquer volumes do Amazon EBS. Para saber mais, acesse a Documentação da AWS.

P: O que define o uso faturável de instâncias do EC2?

O uso das instâncias será cobrado por todo o tempo em que as instâncias estiverem no estado “em execução”. Se você não quiser mais ser cobrado pela instância, deverá interrompê-la ou encerrá-la para evitar o faturamento de uso de instância adicional. A cobrança começa quando uma instância muda para o estado “em execução”.

P: Se houver duas instâncias em zonas de disponibilidade diferentes, como será a cobrança da transferência dos dados regionais?

Cada instância será cobrada com relação à importação e à exportação de dados, de acordo com as taxas correspondentes de transferência de dados. Portanto, se dados forem transferidos entre essas duas instâncias, eles serão cobrados como “Exportação de dados do EC2 para outra região da AWS” para a primeira instância e como “Importação de dados de outra região da AWS” para a segunda instância. Consulte esta página para obter detalhes sobre o preço da transferência de dados.

P: Se houver duas instâncias em regiões diferentes, como será a cobrança da transferência de dados?

Cada instância é cobrada com relação aos seus dados de entrada e saída em taxas de Transferência de dados entre regiões. Portanto, se os dados forem transferidos entre essas duas instâncias, haverá cobrança de Transferência externa de dados entre regiões para a primeira instância e de Transferência interna de dados entre regiões para a segunda instância.

P: Como a fatura mensal mostra os valores por segundo e por hora?

Agora, as cobranças do EC2 na fatura mensal serão calculadas por segundo. No entanto, para fins de consistência, a fatura mensal do EC2 mostrará o uso cumulativo de cada instância executada em um determinado mês em horas decimais. Por exemplo, uma instância em execução por 1 hora, 10 minutos e 4 segundos seria apresentada como 1,1677. Leia este blog para ver um exemplo do relatório de faturamento detalhado.

P: Os preços incluem impostos?

Salvo indicação em contrário, nossos preços excluem impostos e taxas aplicáveis, incluindo o IVA e o imposto sobre vendas aplicável. Para clientes com endereço de pagamento no Japão, o uso da AWS está sujeito ao imposto sobre consumo japonês. Saiba mais.

Taxas de transferência de dados ao mover todos os dados para fora da AWS

P: Vou incorrer em alguma cobrança de transferência de dados para a Internet quando eu mover meus dados para fora da AWS?

A AWS oferece aos clientes qualificados transferência gratuita de dados para a Internet quando eles movem todos os seus dados para fora da AWS, de acordo com o processo abaixo.

P: Quero mover meus dados para fora da AWS. Como faço para solicitar uma transferência gratuita de dados para a Internet?

Conclua as seguintes etapas:

1) Se você tiver uma equipe de contas da AWS dedicada, entre em contato com eles primeiro e informe-os sobre seus planos. Em alguns casos, se você tiver um compromisso negociado com a AWS, convém discutir suas opções com sua equipe de contas da AWS.

2) Analise os critérios e o processo descritos nesta página.

3) Entre em contato com o Suporte ao Cliente da AWS e indique que sua solicitação é de “transferência gratuita de dados para fora da AWS”. O Suporte ao Cliente da AWS solicitará que você forneça informações para que eles possam analisar seus planos de mudança, avaliar se você se qualifica para a transferência gratuita de dados e calcular um valor de crédito adequado.

4) Se o Suporte ao Cliente da AWS aprovar sua mudança, você receberá um crédito temporário pelo custo da transferência de dados com base no volume de todos os dados armazenados nos serviços da AWS no momento do cálculo da AWS. O Suporte ao Cliente da AWS notificará você se você for aprovado e, em seguida, você terá 60 dias para concluir sua saída da AWS. O crédito contará somente para a transferência de dados para fora do uso e não será aplicado ao uso de outros serviços. Depois de se afastar dos serviços da AWS, dentro do período de 60 dias, você deve excluir todos os dados e workloads restantes da sua conta da AWS, ou você pode fechar sua conta da AWS.

As transferências gratuitas de dados para provedores de TI móveis também estão sujeitas aos seguintes critérios:

a) Somente clientes com uma conta ativa da AWS em boas condições estão qualificados para a transferência gratuita de dados.

b) Se você tiver menos de 100 GB de dados armazenados em sua conta da AWS, poderá mover esses dados para fora da AWS gratuitamente sob o nível gratuito mensal existente de 100 GB da AWS para transferência de dados. Clientes com menos de 100 GB de dados armazenados em sua conta da AWS não estão qualificados para créditos adicionais.

c) A AWS fornecerá a você uma transferência gratuita de dados para a Internet quando você mover todos os seus dados para fora da AWS. Se você quiser transferir apenas o uso total de um único serviço, mas não tudo, entre em contato com o Suporte ao Cliente da AWS.

d) Se seus planos mudarem ou você não conseguir concluir sua saída da AWS dentro de 60 dias, você deverá notificar o Suporte ao Cliente da AWS.

e) As cobranças de serviços padrão pelo uso dos serviços da AWS não estão incluídas. Somente cobranças de transferência de dados em apoio à sua saída da AWS são elegíveis para créditos. No entanto, a transferência de dados de serviços especializados de transferência de dados, como Amazon CloudFront, AWS Direct Connect, AWS Snow Family e AWS Global Accelerator, não está incluída.

f) A AWS pode revisar seu uso do serviço para verificar a conformidade com esses requisitos. Se determinarmos que seu uso da transferência de dados foi para uma finalidade diferente de sair da AWS, poderemos cobrar pela transferência de dados que foi creditada.

g) A AWS pode fazer alterações com relação às transferências gratuitas de dados para a Internet a qualquer momento.

P: Por que preciso solicitar a pré-aprovação da AWS para transferência gratuita de dados para a Internet antes de transferir meus dados para fora da AWS?

Os clientes da AWS fazem centenas de milhões de transferências de dados todos os dias, e geralmente não sabemos o motivo de qualquer transferência de dados. Por exemplo, os clientes podem estar transferindo dados para um usuário final da aplicação, para um visitante do site ou para outro ambiente on-premises ou na nuvem para fins de backup. Portanto, a única maneira de sabermos que sua transferência de dados é apoiar sua saída da AWS é se você nos informar com antecedência.

Instância reservada conversível

P: O que é uma instância reservada conversível?

Uma instância reservada conversível é um tipo de instância reservada com atributos que podem ser alterados durante seu período de vigência.

P: Quando devo comprar uma instância reservada conversível em vez de uma padrão?

A instância reservada conversível é indicada para clientes que podem se comprometer com o uso de instâncias EC2 durante um período de vigência de três anos em troca de um desconto significativo no uso do EC2, não têm certeza sobre as necessidades futuras de instância ou querem se beneficiar com as alterações de preço.

P: Quais opções de período de vigência estão disponíveis para as instâncias reservadas conversíveis?

Da mesma forma que as instâncias reservadas padrão, as instâncias reservadas conversíveis estão disponíveis para compra por períodos de vigência de um ou três anos.

P: Posso alterar uma instância reservada conversível para me beneficiar de uma instância reservada conversível correspondente a um tipo de instância, sistema operacional, locação ou opção de pagamento diferente?

Sim. Você pode selecionar um novo tipo de instância, sistema operacional, locação ou opção de pagamento ao trocar suas instâncias reservadas conversíveis. Você também conta com a flexibilidade de trocar uma parte de uma instância reservada conversível ou combinar o valor de várias instâncias reservadas conversíveis em uma única troca.

P: Posso transferir uma instância reservada conversível ou padrão de uma região para outra?

Não. Uma RI está associada a uma região específica, que é fixa durante o período de vigência da reserva.

P: Como posso mudar a configuração de uma instância reservada conversível?

Você pode fazer isso usando o Console de Gerenciamento do EC2 ou a API GetReservedInstancesExchangeQuote. Você também conta com a flexibilidade de trocar uma parte de uma instância reservada conversível ou combinar o valor de várias instâncias reservadas conversíveis em uma única troca. Clique aqui para saber mais sobre a troca de instâncias reservadas conversíveis.

P: Preciso pagar uma taxa para trocar instâncias reservadas conversíveis?

Não. Você não paga uma taxa para trocar instâncias reservadas. No entanto, pode ser necessário pagar uma taxa única de ajuste das diferenças de definição de preço entre as instâncias reservadas conversíveis que você tem e as instâncias reservadas conversíveis que você deseja obter.

P: Como funcionam as trocas de instâncias reservadas conversíveis?

Quando você troca uma instância reservada conversível por outra, o EC2 garante que o valor total de instâncias reservadas conversíveis seja mantido durante a conversão. Portanto, se você estiver convertendo uma instância reservada com um valor total de 1.000 USD em outra instância reservada, receberá uma quantidade de instâncias reservadas conversíveis com um valor igual ou superior a 1.000 USD. Não é possível converter uma instância reservada conversível em instâncias reservadas conversíveis com um valor inferior.

P: Qual é a definição de valor total?

O valor total é a soma de todos os pagamentos que você faria durante o período de vigência da instância reservada.

P: Você pode demonstrar como o custo do ajuste é calculado para uma conversão entre duas instâncias reservadas conversíveis com pagamento adiantado integral?

Digamos que você comprou uma instância reservada conversível com pagamento adiantado integral de 1.000 USD e, no meio do período de vigência, você decide alterar os atributos da instância reservada. Como você já está na metade do período de vigência da instância reservada, terá 500 USD restantes do valor pro rata remanescente na instância reservada. A instância reservada conversível com pagamento adiantado integral para a qual você deseja fazer a conversão custa hoje um valor adiantado de 1.200 USD. Como você só tem metade do período de vigência restante na instância reservada conversível atual, existe um valor remanescente de 600 USD na nova instância reservada conversível desejada. O ajuste que você pagará será a diferença de valor adiantado entre as instâncias reservadas conversíveis original e desejada, ou seja, 100 USD (600 USD – 500 USD).

P: Você pode demonstrar uma conversão entre instâncias reservadas conversíveis sem pagamento adiantado?

Diferentemente das conversões entre instâncias reservadas conversíveis com o pagamento de um valor adiantado, considerando que você está fazendo a conversão entre instâncias reservadas sem custo adiantado, não será cobrada um ajuste. No entanto, o valor pago por hora antes da troca deverá ser superior ou igual ao valor pago por hora total após a troca.

Por exemplo, digamos que você comprou uma instância reservada conversível sem pagamento adiantado (A) com uma taxa de 0,10 USD/hora e decidiu trocar a instância reservada conversível A por outra instância reservada (B) que custa 0,06 USD/hora. Ao fazer a conversão, você receberá duas instâncias reservadas B, pois o valor pago por hora deve ser superior ou igual ao valor que você está pagando por hora pela instância A.

P: Posso personalizar o número de instâncias que recebo como resultado da troca de uma instância reservada conversível?

Não. O EC2 usa o valor das instâncias reservadas conversíveis que você está trocando para calcular o número mínimo de instâncias reservadas conversíveis que você receberá e garante que o resultado da troca dará a você instâncias reservadas conversíveis de valor igual ou maior.

P: Existem limites de troca para instâncias reservadas conversíveis?

Não há limite de troca para instâncias reservadas conversíveis.

P: Eu tenho a liberdade de escolher qualquer tipo de instância durante a troca de instâncias reservadas conversíveis?

Não. Você só pode fazer trocas por instâncias reservadas conversíveis disponibilizadas no momento pela AWS.

P: Posso atualizar a opção de pagamento associada a uma instância reservada conversível?

Sim. Você pode atualizar a opção de pagamento associada a uma instância reservada. Por exemplo, você pode trocar instâncias reservadas sem pagamento adiantado por instâncias reservadas com pagamento adiantado parcial ou integral para beneficiar-se com uma definição de preço mais vantajosa. Não é possível trocar a opção de pagamento adiantado integral ou pagamento adiantado parcial pela opção sem pagamento adiantado.

P: As instâncias reservadas conversíveis permitirão que eu me beneficie das reduções de preço quando elas ocorrerem?

Sim. Você pode trocar instâncias reservadas para beneficiar-se com uma definição de preço mais vantajosa. Por exemplo, se o preço de novas instâncias reservadas conversíveis for reduzido em 10%, você poderá trocar instâncias reservadas conversíveis e se beneficiar da redução de 10% no preço.

EC2 Fleet

P: O que é o Amazon EC2 Fleet?

Com uma única chamada de API, o EC2 Fleet permite provisionar capacidade computacional com diversos tipos de instância, zonas de disponibilidade e modelos de compra (sob demanda, instâncias reservadas e instâncias spot) para ajudar a otimizar a escala, a performance e o custo.

P: Se eu já uso uma frota spot do Amazon EC2, devo migrar para a frota do Amazon EC2?

Se você está usando instâncias spot do Amazon EC2 como uma frota spot, pode continuar a fazer isso. A frota spot e a frota do EC2 oferecem a mesma funcionalidade. A migração não é obrigatória.

P: Posso usar os descontos das instâncias reservadas com o Amazon EC2 Fleet?

Sim. De forma semelhante a outras APIs do EC2 ou outros serviços da AWS que iniciam instâncias do EC2, se a instância sob demanda iniciada pela frota do EC2 corresponder a uma instância reservada existente, receberá o desconto de instância reservada. Por exemplo, se você tiver instâncias reservadas regionais do tipo M4 e especificar somente instâncias M4 na frota do EC2, os descontos das instâncias reservadas será aplicado automaticamente a esse uso das instâncias M4.

P: O Amazon EC2 Fleet executará um failover para instâncias sob demanda se a capacidade spot do EC2 não for totalmente atendida?

Não. A o EC2 Fleet continuará a tentar atender à capacidade spot desejada de acordo com o número de instâncias spot solicitadas na especificação de execução da frota.

P: Qual é a definição de preço do Amazon EC2 Fleet?

O EC2 Fleet não tem custo adicional. Você paga apenas pelos recursos subjacentes executados pelo EC2 Fleet.

P: Há algum exemplo do mundo real sobre o uso do Amazon EC2 Fleet?

Há várias maneiras de utilizar o Amazon EC2 Fleet, como workloads de big data, aplicações conteinerizadas e workloads de processamento em grade, entre outras. Neste exemplo de uma workload de sequenciamento de genômica, você pode iniciar uma grade de nós de processamento com uma única chamada de API: selecione as instâncias favoritas, atribua ponderações a essas instâncias, especifique a capacidade pretendida das instâncias spot e sob demanda e crie uma frota em segundos para processar rapidamente os dados de genômica.

P: Como posso alocar recursos em um Amazon EC2 Fleet?

Por padrão, a frota do EC2 será executada na opção sob demanda com o menor preço. Para instâncias spot, a frota do EC2 oferece três estratégias de alocação: otimizada para a capacidade, menor preço e diversificada. A estratégia de alocação otimizada para capacidade tenta provisionar instâncias spot dos grupos de instâncias spot mais disponíveis mediante a análise de métricas de capacidade. Essa estratégia é uma boa opção para cargas de trabalho como big data e análises, renderização de imagens e mídias, machine learning e computação de alta performance, que podem ter um custo de interrupção mais elevado.

A estratégia de preço mais baixo permite provisionar instâncias spot em grupos que oferecem o menor preço por unidade de capacidade no momento da solicitação. A estratégia diversificada permite provisionar instâncias spot em diversos grupos spot e você pode manter a capacidade pretendida da frota para aumentar a disponibilidade da aplicação.

P: Posso enviar uma solicitação do Amazon EC2 Fleet com várias regiões?

Não, não oferecemos suporte a solicitações de frotas do EC2 com várias regiões.

P: Posso marcar um Amazon EC2 Fleet com tags?

Sim. Você pode etiquetar uma solicitação de frota do EC2 com etiquetas para criar agrupamentos de etiquetas relevantes para a empresa e organizar os recursos de acordo com fatores técnicos, comerciais e de segurança.

P: Posso modificar um Amazon EC2 Fleet?

Sim. No modo de manutenção, você pode modificar a capacidade pretendida total de uma frota do EC2. É possível que seja necessário cancelar a solicitação e enviar uma nova para alterar outros parâmetros de configuração de solicitação.

P. Posso especificar uma AMI diferente para cada tipo de instância a ser usada?

Sim, basta especificar a AMI que você gostaria de usar em cada especificação de execução incluída na frota do EC2.

Amazon EC2 Capacity Blocks para ML

P: O que são os Blocos de capacidade do Amazon EC2 para ML?

Os blocos de capacidade do Amazon EC2 para ML permitem que você reserve instâncias de GPU em um Amazon EC2 UltraClusters para executar suas workloads de machine learning (ML). Com os blocos de capacidade do Amazon EC2, você pode reservar capacidade de GPU a partir de uma data futura por até 14 dias e em tamanhos de cluster de uma a 64 instâncias. Quando a data e a hora de reserva do EC2 Capacity Block chegarem, você poderá iniciar suas instâncias e usá-las até que o horário da reserva termine.

P: Por que eu deveria usar os blocos de capacidade do EC2?

Os blocos de capacidade do EC2 facilitam o acesso às instâncias de GPU de maior performance no Amazon EC2 for ML, mesmo em face da escassez de GPU em todo o setor. Use os blocos de capacidade do EC2 para garantir a disponibilidade de capacidade das instâncias de GPU para planejar seu desenvolvimento de ML com confiança. Os blocos de capacidade do EC2 são fornecidos em UltraClusters do EC2 para que você possa aproveitar a melhor latência de rede e performance de throughput disponível no EC2.

P: Quando devo usar os blocos de capacidade do Amazon EC2 em vez das reservas de capacidade sob demanda?

Você deve usar os blocos de capacidade do EC2 quando precisar de garantia de capacidade de curto prazo para treinar ou ajustar modelos de ML, realizar experimentos, criar protótipos ou lidar com picos na demanda por aplicações de ML. Com os blocos de capacidade do EC2, você pode ficar tranquilo sabendo que terá acesso aos recursos da GPU em uma data específica para executar suas workloads de ML. Você deve usar as reservas de capacidade sob demanda para todos os outros tipos de workload que precisam de garantia, como aplicações essenciais para os negócios, requisitos normativos ou recuperação de desastres.

P: Como faço para começar a usar os blocos de capacidade do EC2?

Você pode pesquisar os blocos de capacidade do EC2 disponíveis com base em suas necessidades de capacidade no Console de Gerenciamento da AWS, na AWS Command Line Interface (AWS CLI) e nos SDKs da AWS. Depois de comprar um bloco de capacidade do EC2, uma reserva é criada em sua conta. Quando chegar a hora de início do EC2 Capacity Block, o EC2 emitirá um evento por meio do Amazon EventBridge para indicar que a reserva agora está ativa e disponível para uso. Para usar um bloco de capacidade EC2 ativo, selecione a opção de compra “Bloco de capacidade” e defina o ID de reserva de capacidade para seu bloco de capacidade do EC2 ao iniciar instâncias do EC2. À medida que o horário de término do bloco de capacidade do EC2 se aproxima, o EC2 emitirá um evento por meio do EventBridge, informando que sua reserva terminará em breve para que você possa verificar sua workload. Cerca de 30 minutos antes de seu bloco de capacidade do EC2 expirar, a AWS começará a encerrar todas as instâncias em execução. O valor cobrado pelo seu bloco de capacidade do EC2 não inclui os últimos 30 minutos da reserva.

P: Quais tipos de instância são compatíveis com os blocos de capacidade do EC2 e em quais regiões da AWS eles estão disponíveis?

Os blocos de capacidade do EC2 oferecem suporte a instâncias EC2 p5.48xlarge nas regiões AWS Leste dos EUA (Norte da Virgínia) e Leste dos EUA (Ohio) e instâncias EC2 p4d.24xlarge nas regiões Leste dos EUA (Ohio) e Oeste dos EUA (Oregon).

P: Quais opções de tamanho estão disponíveis com os blocos de capacidade do EC2?

Os blocos de capacidade do EC2 estão disponíveis em tamanhos de cluster de 1, 2, 4, 8, 16, 32 e 64 instâncias e podem ser reservados por até 14 dias em múltiplos de um dia.

P: Com quanto tempo de antecedência posso reservar um bloco de capacidade do EC2?

Você pode comprar um bloco de capacidade do EC2 em até oito semanas no futuro. Todas as reservas do EC2 Capacity Blocks começam às 11h30, Horário Universal Coordenado (UTC).

P: O que acontece se não houver blocos de capacidade do EC2 disponíveis que atendam às minhas especificações?

Se não houver blocos de capacidade do EC2 que atendam aos seus requisitos, você poderá repetir sua solicitação com parâmetros de entrada diferentes. Recomendamos que você use o maior intervalo de datas possível em suas solicitações de pesquisa para ter a melhor chance de encontrar um bloco de capacidade do EC2.

P: Posso modificar ou cancelar meu bloco de capacidade do EC2?

Não, um bloco de capacidade do EC2 não pode ser modificado ou cancelado depois de reservado.

P: Quanto custam os blocos de capacidade do EC2?

Quando você pesquisa um bloco de capacidade do EC2 em várias datas, a AWS retorna a oferta de menor preço disponível que atende às suas especificações no intervalo de datas que você fornece. O preço de um bloco de capacidade do EC2 depende da oferta e demanda totais disponíveis no momento da compra da reserva. Você pode ver o preço de uma oferta de bloco de capacidade EC2 antes de reservá-la, e o preço de um bloco de capacidade EC2 é cobrado antecipadamente no momento em que a reserva é feita. O preço de um bloco de capacidade do EC2 não muda depois que ele é reservado. Ao iniciar instâncias em um bloco de capacidade EC2 ativo, você só será cobrado pelo uso de qualquer sistema operacional premium com base no pagamento conforme o uso.

P: Os descontos em Savings Plans e instâncias reservadas (IR) se aplicam aos blocos de capacidade do EC2?

Não, os blocos de capacidade do EC2 não são cobertos por Savings Plans ou descontos de IR.

P: Posso usar os blocos de capacidade do EC2 com o Amazon SageMaker?

No momento, os blocos de capacidade do EC2 oferecem suporte apenas às instâncias do EC2.

Reservas de capacidade sob demanda

Uma reserva de capacidade sob demanda é uma oferta do EC2 que você pode usar para criar e gerenciar capacidade reservada no EC2. Você pode criar uma reserva de capacidade sob demanda escolhendo uma zona de disponibilidade (AZ) e uma quantidade (número de instâncias), juntamente com outras especificações de instância, como tipo de instância e locação. Depois de criada, a capacidade do EC2 é retida para você independentemente das instâncias serem ou não executadas.

P: Quanto custam as reservas de capacidade sob demanda?

Quando a reserva de capacidade sob demanda estiver ativa, você pagará as cobranças equivalentes de instância independentemente de você executá-las ou não. Caso não use a reserva, a cobrança será exibida como uma reserva não utilizada em sua fatura do EC2. Ao executar uma instância que corresponda aos atributos de uma reserva, você paga apenas pela instância e nada pela reserva. Não há cobranças antecipadas ou adicionais.

Por exemplo, caso crie uma reserva de capacidade sob demanda para 20 instâncias c5.2xlarge e execute 15 instâncias c5.2xlarge, você será cobrado por 15 instâncias e 5 instâncias não utilizadas na reserva (efetivamente cobrado pelas 20 instâncias).

P: Posso ganhar um desconto pelo uso da reserva de capacidade sob demanda?

Sim. Os Savings Plans para IRs regionais (IRs que estão no escopo de uma região) são aplicáveis a reservas de capacidade sob demanda. Quando você executa uma instância dentro de sua reserva, não há cobrança pela reserva. Serão aplicados Savings Plans ou IRs regionais a esse uso como se fosse um uso sob demanda. Quando a reserva não for utilizada, o AWS Billing aplicará automaticamente seu desconto quando os atributos de uma reserva de capacidade sob demanda corresponderem aos atributos de um Savings Plan ou IR regional ativa.

Por exemplo, caso tenha uma IR regional para 10 instâncias c5.2xlarge e uma reserva de capacidade sob demanda para 10 instâncias c5.2xlarge na mesma região, o desconto de IR será aplicado às 10 instâncias da reserva. Aplicamos os descontos para IRs regionais preferencialmente a usos de instâncias em execução antes de cobrir reservas de capacidade sob demanda não utilizadas. Ou seja, se você tiver qualquer outra instância C5 em execução na região, aplicaremos a IR regional primeiro a essas instâncias e o desconto restante à reserva de capacidade sob demanda não utilizada.

Observação: uma IR regional é uma IR do EC2 com escopo definido para uma região da AWS. Os descontos de IRs zonais (IRs que estão no escopo de uma AZ sem uma Região) não são aplicáveis as Reservas de capacidade sob demanda, pois as IRs zonais já incluem uma reserva de capacidade.

P: Quando devo usar Savings Plans, IRs do EC2 e reservas de capacidade sob demanda?

Use os Savings Plans ou IRs regionais para reduzir sua fatura enquanto se compromete com um prazo de um ou três anos. Os Savings Plans oferecem economia significativa em relação ao Sob demanda, exatamente como as IRs do EC2, mas reduzem automaticamente as faturas dos clientes em uso de computação em qualquer região da AWS, mesmo que o uso mude. Use as reservas de capacidade sob demanda se precisar de mais confiança na sua capacidade de executar instâncias. As reservas de capacidade sob demanda podem ser criadas para qualquer duração e gerenciadas de maneira independente dos Savings Plans ou IRs. Se você tiver Savings Plans ou de IRs regionais, eles serão aplicados automaticamente a todas as reservas de capacidade sob demanda correspondentes. Dessa forma, você conta com a flexibilidade de adicionar seletivamente reservas de capacidade sob demanda a uma parte de suas instâncias e ainda reduz sua fatura por esse uso.

P: Tenho uma IR zonal (IR que está no escopo de uma AZ) que também fornece uma reserva de capacidade. Como isso se compara a uma reserva de capacidade sob demanda?

Uma IR zonal fornece um desconto e uma reserva de capacidade em uma AZ específica em retorno a um compromisso de um a três anos. A reserva de capacidade sob demanda permite a criação e o gerenciamento da capacidade reservada independentemente do compromisso e do período de duração da IR.

Você pode usar as Reservas de capacidade sob demanda com um Savings Plan ou um IR regional para obter, no mínimo, todos os benefícios de um IR sazonal sem custo adicional. Você também obtém uma melhor flexibilidade do Savings Plan (ou IRs regionais) e os recursos da Reserva de capacidade sob demanda: a capacidade de adicionar ou subtrair capacidade da reserva a qualquer momento, ver a utilização da reserva em tempo real e usar uma reserva de capacidade sob demanda para workloads específicas.

A redefinição de escopo de suas IRs zonais para uma região oferece imediatamente a você flexibilidade quanto à AZ e ao tamanho da instância no modo como os descontos de IR são aplicados. Você pode converter suas IRs zonais padrão em uma IR regional modificando o escopo da IR de uma AZ específica para uma região usando o console do EC2 ou usando a API ModifyReservedInstances.

P: Eu criei uma reserva de capacidade sob demanda. Como posso usá-la?

Uma reserva de capacidade sob demanda está vinculada a uma AZ específica e, por padrão, é usada automaticamente pelas instâncias em execução nessa AZ. Quando você inicializa novas instâncias que correspondem aos atributos de reserva, elas são automaticamente associadas à reserva.

Você também pode usar uma reserva para workloads/instâncias específicas se preferir. Consulte a documentação técnica do Linux ou do Windows para saber mais sobre a opção de direcionamento.

P: Quantas instâncias eu tenho permissão para reservar?

O número de instâncias que você pode reservar se baseia no limite de instâncias sob demanda de sua conta. Você pode reservar quantas instâncias o limite permitir, menos o número de instâncias que já estão em execução.

Se precisar de um limite maior, entre em contato com um representante da equipe de vendas da AWS ou preencha o formulário de solicitação de instância do Amazon EC2 com seu caso de uso e o aumento de instâncias será avaliado. Os aumentos de limite estão vinculados à região para a qual são solicitados.

P: Posso modificar uma reserva de capacidade sob demanda após ela ter sido iniciada?

Sim. Você pode reduzir a qualquer momento o número de instâncias que reservou. Também é possível aumentar o número de instâncias (opção sujeita a disponibilidade). Você também pode modificar o prazo final de sua reserva. Não é possível modificar uma reserva de capacidade sob demanda que tenha terminado ou que tenha sido excluída.

P: Posso modificar uma reserva de capacidade após ela ter sido iniciada?

Sim. Você pode encerrar uma reserva de capacidade sob demanda mediante o cancelamento dela usando o console ou a API/SDK, ou modificando sua reserva de modo a especificar um prazo final que faça ela expirar automaticamente. Instâncias em execução não são afetadas por alterações em sua reserva de capacidade sob demanda, inclusive exclusão ou expiração de uma reserva.

P: Onde posso encontrar mais informações sobre o uso de Reservas de capacidade sob demanda?

Consulte a documentação técnica do Linux ou do Windows para saber mais sobre a criação e o uso de uma Reserva de capacidade sob demanda.

P: Posso compartilhar uma reserva de capacidade sob demanda com outra conta da AWS?

Sim, você pode compartilhar reservas de capacidade sob demanda com outras contas da AWS ou dentro da sua organização da AWS por meio do AWS Resource Access Manager (AWS RAM). Você pode compartilhar reservas de capacidade sob demanda do EC2 em três etapas simples: criar um compartilhamento de recursos usando o AWS RAM, adicionar recursos (reservas de capacidade sob demanda) ao compartilhamento de recursos e especificar as contas de destino com as quais você deseja compartilhar os recursos.

Observe que o compartilhamento de reserva de capacidade sob demanda (CR) não está disponível para novas contas da AWS ou contas da AWS com um histórico de faturamento limitado. As novas contas vinculadas a uma conta primária (pagador) qualificada ou por meio de uma organização da AWS estão isentas dessa restrição.

P: O que acontece quando compartilho uma reserva de capacidade sob demanda com outra conta da AWS?

Quando uma reserva de capacidade sob demanda é compartilhada com outras contas, essas contas podem consumir a capacidade reservada para executar suas instâncias do EC2. O comportamento exato depende das preferências definidas na reserva de capacidade sob demanda. Por padrão, as reservas de capacidade sob demanda são automaticamente associadas às instâncias existentes e novas de outras contas que têm acesso compartilhado à reserva. Você também pode usar uma reserva de capacidade sob demanda para workloads/instâncias específicas. Contas individuais podem controlar quais de suas instâncias consomem reservas de capacidade sob demanda. Consulte a documentação técnica do Linux ou do Windows para saber mais sobre as opções de associação de instâncias.

P: Há alguma cobrança adicional para compartilhar uma reserva?

Não, não há custo adicional para o compartilhamento de uma reserva.

P: Quem é cobrando quando uma reserva de capacidade sob demanda é compartilhada entre várias contas?

Se várias contas estiverem consumindo uma reserva de capacidade sob demanda, cada conta será cobrada pelo uso de sua própria instância. A capacidade reservada não utilizada, se houver, é cobrada na conta que possui a reserva de capacidade sob demanda. Se houver um acordo de faturamento consolidado entre as contas que compartilham uma reserva de capacidade sob demanda, a conta primária será cobrada pelo uso de instâncias em todas as contas vinculadas.

P: Posso priorizar o acesso à reserva de capacidade sob demanda entre as contas da AWS que têm acesso compartilhado?

Não. Os spots de instância em uma reserva de capacidade sob demanda estão disponíveis por ordem de chegada para qualquer conta que tenha acesso compartilhado.

P: Como posso comunicar o AZ de uma reserva de capacidade sob demanda com outra conta, já que os mapeamentos de nomes de AZ podem ser diferentes entre as contas da AWS?

Agora você pode usar o ID de zona de disponibilidade (AZ ID) em vez do nome da AZ. O ID da AZ é uma referência estática e fornece uma maneira consistente de identificar a localização de um recurso em todas as suas contas. Isso facilita o provisionamento de recursos centralmente em uma única conta e o compartilhamento deles em várias contas.

P: Posso interromper o compartilhamento de minha reserva de capacidade sob demanda depois de compartilhá-la?

Sim, você pode interromper o compartilhamento de uma reserva depois de compartilhá-la. Quando você para de compartilhar uma reserva de capacidade sob demanda com contas específicas ou para de compartilhar completamente, outras contas perdem a capacidade de iniciar novas instâncias na reserva de capacidade sob demanda. Qualquer capacidade ocupada por instâncias executadas a partir de outras contas será restaurada para a reserva de capacidade sob demanda, para seu uso (sujeito à disponibilidade).

P: Onde posso encontrar mais informações sobre o compartilhamento de reservas de capacidade sob demanda?

Consulte a documentação técnica do Linux ou do Windows para saber mais sobre o compartilhamento de Reservas de Capacidade sob demanda.

P: Posso ganhar um desconto pelo uso da reserva de capacidade sob demanda?

Sim. Os descontos do Savings Plans ou IRs regionais são aplicáveis a reservas de Capacidade sob demanda sob demanda. O faturamento da AWS aplica automaticamente o desconto quando os atributos de uma Reserva de capacidade sob demanda correspondem aos atributos de um Savings Plan ou de um IR regional. Quando uma Reserva de capacidade sob demanda é usada por uma instância, você só é cobrado pelo uso da instância (com os descontos do Savings Plan ou IR aplicados). Os descontos são preferencialmente aplicados a instâncias em execução antes de cobrir Reservas de capacidade sob demanda não utilizadas.

Observação: uma IR regional é uma IR do EC2 com escopo definido para uma região da AWS. A IR zonal (IRs que estão no escopo de uma zona de disponibilidade) não é aplicável a Reservas de capacidade sob demanda, pois as IRs zonais já incluem uma reserva de capacidade.

Instâncias reservadas

P: O que é uma instância reservada?

As RIs (reserved instances – instâncias reservadas) são um serviço do EC2 que oferecem um desconto significativo sobre o uso do EC2 quando você aceita um compromisso com período de vigência de um ano ou três anos.

P: Quais são as diferenças entre as RIs padrão e as RIs conversíveis?

Quando você se compromete com uma família específica de instâncias, as RIs padrão oferecem um desconto significativo sobre o uso de instâncias EC2. As instâncias reservadas conversíveis oferecem a opção de alterar a configuração de instâncias durante o período de vigência e ainda receber um desconto sobre o uso do EC2. Para obter mais informações sobre as RIs conversíveis, clique aqui.

P: As RIs fornecem uma reserva de capacidade?

Sim. Quando uma RI padrão ou conversível entrar no escopo de uma zona de disponibilidade (AZ) específica, a capacidade da instância correspondente à configuração exata da RI será reservada para o seu uso (elas são chamadas de “RIs zonais”). As RIs zonais proporcionam a você segurança extra com relação à sua capacidade de lançar instâncias quando você precisar delas.

Você também poderá optar por abrir mão da reserva de capacidade e comprar IRs padrão e conversíveis que estejam dentro do escopo de uma região (elas são chamadas de “IRs regionais”). As IRs regionais aplicam automaticamente o desconto para uso entre as AZs e os tamanhos de instâncias em uma região, o que facilita a utilização da taxa com desconto de IR.

P: Quando devo comprar uma IR zonal?

Se você desejar utilizar a reserva de capacidade, deverá comprar uma IR em uma AZ específica.

P: Quando devo comprar uma IR regional?

Se você não precisar da reserva de capacidade, deverá comprar uma RI regional. As IRs regionais disponibilizam flexibilidade de AZs e tamanho de instâncias, o que oferece uma aplicabilidade mais ampla da taxa com desconto de IR.

P: O que são AZ e flexibilidade de tamanho de instância?

A flexibilidade de AZs e tamanho de instâncias facilita a utilização da taxa com desconto de IR regional. A flexibilidade de AZ aplica sua taxa com desconto de IR para o uso em qualquer AZ em uma região. Já a flexibilidade de tamanho de instâncias aplica sua taxa com desconto de IR para uso de qualquer tamanho dentro de uma família de instâncias. Digamos que você tenha uma IR regional m5.2xlarge Linux/Unix com locação padrão no Leste dos EUA (Norte da Virgínia). Essa taxa com desconto de IR poderá ser aplicada automaticamente a duas instâncias m5.xlarge na região us-east-1a ou a quatro instâncias m5.large na região us-east-1b.

P: Quais tipos de RIs fornecem flexibilidade de tamanho de instâncias?

As RIs regionais Linux/Unix com locação padrão disponibilizam flexibilidade de tamanho de instâncias. A flexibilidade de tamanho de instâncias não está disponível nas IRs de outras plataformas, como Windows, Windows com SQL Standard, Windows com SQL Server Enterprise, Windows com SQL Server Web, RHEL e instâncias SLES ou G4.

P: Preciso fazer alguma coisa para aproveitar a flexibilidade de AZs e tamanho de instâncias?

As IRs regionais não exigem nenhuma ação para a utilização da flexibilidade de AZs e tamanho de instâncias.

P: Eu possui IRs zonais.. Como posso atribuí-las a uma região?

Você pode atribuir IRs zonais padrão a uma região ao modificar o escopo da IR, passando de uma zona de disponibilidade específica para uma região do console do EC2, ou ao usar a API ModifyReservedInstances.

P: Como posso comprar uma IR?

Para iniciar suas atividades, você poderá comprar uma IR por meio do console do EC2 ou usando a AWS CLI. Basta especificar o tipo de instância, a plataforma, a locação, o período de vigência, a opção de pagamento, bem como a região ou a AZ.

P: Posso comprar uma IR para uma instância em execução?

Sim. A AWS aplicará automaticamente uma taxa com desconto de RI para qualquer uso aplicável de instâncias a partir do momento da compra. Acesse a página Conceitos básicos para saber mais.

P: Posso controlar quais instâncias são faturadas usando a taxa com desconto?

Não. A AWS otimiza automaticamente quais instâncias serão cobradas usando a taxa com desconto, garantindo que você sempre pague o menor valor. Para obter informações sobre faturamento e como ele se aplica às instâncias reservadas, consulte os Benefícios de faturamento e as opões de pagamento.

P: Como funciona a flexibilidade de tamanho de instâncias?

O EC2 usa a escala mostrada abaixo para comparar tamanhos diferentes dentro de uma família de instâncias. No caso da flexibilidade de tamanho de instâncias das RIs, esta escala será usada para aplicar a taxa com desconto de RIs para o uso normalizado da família de instâncias. Por exemplo, se você tiver uma RI m5.2xlarge que esteja dentro do escopo de uma região, sua taxa com desconto poderá ser aplicada ao uso de uma instância m5.2xlarge ou duas instâncias m5.xlarge.

Clique aqui para saber mais sobre como a flexibilidade do tamanho de instâncias de RIs aplica-se ao uso do EC2. E clique aqui para saber como a flexibilidade do tamanho de instâncias de RIs é apresentada no Relatório de uso e custo.

Tamanho de instância

Fator de normalização

nano

 0,25

micro 0,5
pequena 1
médio 2
grande 4
xlarge 8
2xlarge 16
4xlarge 32
8xlarge 64
9xlarge 72
10xlarge 80
12xlarge 96
16xlarge 128
18xlarge 144
24xlarge 192
32xlarge 256

P: Posso alterar minha IR durante seu período de vigência?

Sim, você pode modificar a AZ da IR, alterar o escopo da IR de AZ para Região (e vice-versa) ou modificar os tamanhos das instâncias dentro da mesma família de instâncias (na plataforma Linux/Unix).

P: Posso alterar o tipo de instância da minha IR durante seu período de vigência?

Sim. As RIs conversíveis oferecem a opção de alterar o tipo de instância, o sistema operacional, a locação ou a opção de pagamento das RIs durante seu período de vigência. Consulte a seção Convertible RI das perguntas frequentes para obter mais informações.

P: Quais são as diferentes opções de pagamento das RIs?

Você poderá escolher entre três formas de pagamento ao comprar uma RI. Com a opção de pagamento adiantado integral, você pagará por todo o período de vigência da RI em um único pagamento adiantado. Com a opção de pagamento adiantado parcial, você fará um pequeno pagamento adiantado e será cobrada uma taxa por hora com desconto durante o período de vigência da RI. A opção sem pagamento adiantado não exige nenhum pagamento adiantado e oferece uma taxa por hora com desconto durante o período de vigência da instância reservada.

P: Quando as RIs são ativadas?

O desconto no faturamento e a reserva de capacidade (se aplicáveis) serão ativados assim que o seu pagamento for autorizado. Você poderá ver o status (pendente | ativada | desativada) das suas IRs na página “Instâncias reservadas” do console do Amazon EC2.

P: As IRs se aplicam às instâncias spot ou às instâncias que estão em execução em um host dedicado?

Não. As RIs não se aplicam às instâncias spot nem às instâncias em execução em hosts dedicados. Para diminuir o custo do uso de hosts dedicados, compre reservas de host dedicado.

P: Como as RIs funcionam com o faturamento consolidado?

Nosso sistema otimizará automaticamente quais instâncias serão cobradas usando a taxa com desconto para garantir que as contas consolidadas sempre paguem o menor valor. Se você tiver IRs que se apliquem a uma AZ, apenas a conta à qual a IR pertence receberá a reserva de capacidade. No entanto, o desconto será aplicado automaticamente para uso em qualquer conta de sua família de faturamento consolidado.

P: Posso obter um desconto nas compras de RI?

Sim. O EC2 disponibiliza níveis de descontos para as compras de IR. Esses descontos serão determinados com base no valor total de tabela (preço sem desconto) para as IRs ativas que você tiver por região. Seu valor total de tabela será a soma de todos os pagamentos previstos para uma IR dentro do período de vigência, inclusive os pagamentos por hora recorrentes e os pagamentos adiantados. Os níveis são variados. Você poderá ver os descontos correspondentes exibidos ao lado.

Variação de níveis do valor de tabela

Desconto para pagamento adiantado

Desconto para pagamento por hora

Menos de USD 500 mil

0%

0%

De USD 500 mil a USD 4 milhões

5%

5%

De USD 4 milhões a USD 10 milhões 10% 10%
Mais de USD 10 milhões Ligue para nós  

P: Gostaria de entender como os descontos de volume são aplicados às minhas compras de RI?

Claro. Vamos supor que, no momento, você tenha o equivalente a USD 400.000 em RIs ativas na região US-east-1. Agora, se você comprar o equivalente a 150.000 USD em RIs na mesma região, os primeiros 100.000 USD desta compra não receberão desconto. No entanto, os 50.000 USD restantes dessa compra receberão um desconto de 5%, o que resultará em uma cobrança de apenas 47.500 USD para esta parte da compra durante o período de vigência, com base na sua opção de pagamento.

Para saber mais, acesse a seção Compreender os níveis de preços com desconto para instâncias reservadas do Guia do usuário do Amazon EC2.

P: Como faço para calcular o valor de lista de uma RI?

Veja um exemplo de cálculo de valor de tabela para RIs com pagamento adiantado parcial por três anos:

Valor do desconto por volume para pagamento adiantado parcial por três anos na região Leste dos EUA

  Pagamento adiantado USD Pagamento por hora recorrente USD Valor por hora recorrente Valor de lista
m3.xlarge 1.345 USD 0,060 USD 1.577 USD 2.922 USD
c3.xlarge 1.016 USD 0,045 USD 1.183 USD 2.199 USD

P: Como os descontos por volume serão calculados se eu usar o faturamento consolidado?

Se você utilizar o faturamento consolidado, a AWS usará o preço total agregado de tabela das suas RIs ativas em todas as contas consolidadas para determinar qual nível de desconto por volume aplicar. Os níveis de desconto por volume serão determinados no momento da compra. Portanto, você deverá ativar o faturamento consolidado antes de comprar RIs para garantir que você se beneficiará do maior desconto por volume possível que suas contas consolidadas estiverem qualificadas a receber.

P: As RIs conversíveis se qualificam para os descontos por volume?

Não. Mas o valor de cada RI conversível que você comprar contribuirá para o seu nível atual de desconto por volume.

P: Como faço para determinar qual nível de desconto por volume se aplica ao meu caso?

Para determinar seu nível atual de desconto por volume, consulte a seção Compreender os níveis de preços com desconto para instâncias reservadas do Guia do usuário do Amazon EC2.

P: O custo das minhas instâncias reservadas mudará se meu volume futuro me qualificar para outros níveis de desconto?

Não. Os descontos por volume são determinados no momento da compra, portanto, o custo das suas instâncias reservadas permanecerá o mesmo conforme você se qualificar para outros níveis de desconto. Qualquer nova compra será descontada de acordo com o nível de desconto por volume ao qual você se qualificar no momento da compra.

P: Preciso fazer alguma coisa no momento da compra para receber descontos por volume?

Não. Você receberá automaticamente descontos por volume quando usar a API atual PurchaseReservedInstance ou a interface do Console de Gerenciamento do EC2 para comprar RIs. Se você comprar o equivalente a mais de 10.000.000 USD em RIs, entre em contato conosco para saber sobre o recebimento de descontos além dos concedidos automaticamente.

Marketplace de instâncias reservadas

P: O que é o Marketplace de Instância Reservada (IR)?

Marketplace de IR é uma loja on-line que fornece aos clientes da AWS a flexibilidade de vender suas IRs do Amazon EC2 para outras empresas e organizações. Os clientes também podem percorrer o Marketplace de IR para localizar uma seleção ainda mais ampla de durações da IR e opções de definição de preço vendidas por outros clientes da AWS.

P: Quando posso listar uma IR no Marketplace de IR?

Você pode listar uma IR quando:

  • Você se cadastrou como vendedor no Marketplace de IR.
  • Você pagou pela sua IR.
  • Você é dono da IR há mais de 30 dias.

P: As IRs podem ser transferidas?

As instâncias reservadas do EC2 só são transferíveis de acordo com os requisitos do Marketplace de IR fornecidos nos Termos de Serviço da AWS e não podem ser transferidas de outra forma.

P: Posso vender qualquer IR no Marketplace de IR do EC2?

Não, a AWS proíbe a revenda de IRs compradas como parte de um programa de descontos de acordo com os Termos de Serviço da AWS. Todas as IRs com pagamento adiantado, adiantado parcial ou sem adiantamento compradas diretamente da AWS ou do Marketplace de IR do EC2 que receberam um desconto da AWS (por exemplo, desconto por volume de IR ou outros programas de desconto) não estão qualificadas para venda no Marketplace de IR do EC2.

P: Como vou me registrar como vendedor no Marketplace de IR?

Para se registrar no Marketplace de IR, entre no fluxo de trabalho de registro vendendo uma IR do Console de gerenciamento do EC2 ou configurando seu perfil na página “Configurações da conta” no portal da AWS. Não importa a rota, você precisará concluir as seguintes etapas:

  1. Comece revisando a visão geral do processo de registro.
  2. Faça login em sua conta da AWS.
  3. Informe a conta bancária para a qual deseja que os fundos sejam transferidos. Assim que você clicar em “Continuar”, definiremos essa conta bancária como a opção de transferência padrão.
  4. Na tela de confirmação, selecione “Continue to Console to Start Listing”.

Se você ultrapassar USD 20.000 em vendas de IRs ou planeja vender 50 ou mais IRs, precisará fornecer informações fiscais antes de poder listar suas IRs. Selecione “Continue with Tax Interview”. Durante o processo de verificação tributária, você deverá inserir o nome da empresa, o nome de contato, endereço e número de identificação tributária usando o fluxo de trabalho do TIMS.

Além disso, se você quiser vender mais de USD 50.000 em IRs por ano, precisará também registrar um aumento de limite.

P: Como vou saber quando posso começar a vender no Marketplace de IR?

Você pode começar a vender no Marketplace de IR depois de ter adicionado uma conta bancária através do processo de registro. Quando a ativação for concluída, você receberá um e-mail de confirmação. No entanto, é importante salientar que você não poderá receber transferências até que possamos receber a verificação do seu banco, o que pode demorar até duas semanas, dependendo do banco que você usa.

P: Como faço para listar uma IR para venda?

Para listar uma IR, basta concluir estas etapas no console do Amazon EC2:

  1. Selecione as IRs que você deseja vender e escolha “Vender instâncias reservadas”. Se você não tiver concluído o processo de registro, será solicitado que se registre usando o processo de registro.
  2. Para cada tipo de IR, defina o número de instâncias que você gostaria de vender e o preço da taxa única que quer definir. Observe que você pode definir o preço único para diferenciar valores, dependendo da quantidade de tempo restante, a fim de que não precise continuar ajustando seu preço único se sua IR não for vendida rapidamente. Por padrão, você precisa apenas definir o preço atual e diminuir automaticamente o preço único com o mesmo incremento a cada mês.
  3. Assim que você tiver configurado sua relação, uma tela de confirmação final será exibida. Selecione “Sell Reserved Instance”.

P: Quais IRs posso listar para venda?

Você pode listar qualquer IR que já esteja ativa por pelo menos 30 dias e cujo pagamento já tenha sido recebido pela AWS. Geralmente, isso significa que você poderá listar suas reservas assim que elas estiverem no estado ativo. É importante salientar que se você for um cliente por fatura, sua IR poderá estar no estado ativo antes de a AWS receber o pagamento. Neste caso, sua IR não será relacionada enquanto você não tiver recebido seu pagamento.

P: Como as IRs listadas são exibidas para os compradores?

As IRs (tanto de terceiros quanto as oferecidas pela AWS) listadas no Marketplace de IR podem ser visualizadas na seção “Reserved Instances” do console do Amazon EC2. Também é possível usar a chamada de API DescribeReservedInstancesListings.

As IRs listadas são agrupadas por tipo, duração restante, preço adiantado e preço por hora. Isso torna mais fácil para os compradores encontrarem as IRs certas para comprar.

P: Quanto do meu período de IR posso listar?

Você pode vender um IR pelo período restante, arredondado para o mês mais próximo. Por exemplo, se o período restante for de nove meses e 13 dias, você listará a instância para venda como uma IR com vigência de nove meses.

P: Posso remover meu IR depois de colocá-lo à venda?

Sim, você poderá remover suas listagens de IRs a qualquer momento até que uma venda esteja pendente (o que significa que o comprador adquiriu a IR e a confirmação do pagamento está pendente).

P: Quais dimensões de preço posso definir para as IRs que eu quero listar?

Usando o Marketplace de IR, você pode definir um preço inicial que estaria disposto a aceitar. Você não pode definir o preço por hora (que permanecerá o mesmo definido na IR original) e não receberá quaisquer fundos coletados de pagamentos associados aos preços por hora.

P: Ainda posso usar a minha reserva enquanto ela estiver relacionada no Marketplace de IR?

Sim, você continuará recebendo o benefício no faturamento e a capacidade da sua reserva até ela ser vendida. Assim que ela for vendida, qualquer instância em execução que estava sendo cobrada pela taxa com desconto passará a ser cobrada pela taxa sob demanda até e a menos que você compre uma nova reserva ou encerre a instância.

P: Posso revender uma IR que comprei no Marketplace de IR?

Sim, você pode revender IRs compradas no Marketplace de IR como qualquer outra IR.

P: Há alguma restrição ao vender IRs?

Sim, você precisa ter uma conta bancária nos EUA para vender IRs no Marketplace de IR. Contas bancárias fora dos EUA serão aceitas em breve. Além disso, você não pode vender IRs na região GovCloud dos EUA.

P: Posso vender IRs compradas nos níveis públicos de preços por volume?

Não, esse recurso ainda não está disponível.

P: Há alguma cobrança pela venda de IRs no Marketplace de IR?

Sim, a AWS cobra uma taxa de serviço de 12% do preço inicial total de cada IR que você vende no Marketplace de IR.

P: A AWS pode vender subconjuntos das minhas IRs listadas?

Sim, a AWS pode vender potencialmente um subconjunto da quantidade de IRs que você relacionou. Por exemplo, se você relacionar 100 IRs, podemos ter um comprador interessado em adquirir apenas 50 delas. Venderemos essas 50 instâncias e continuaremos relacionando suas 50 IRs restantes até e enquanto você decidir não relacioná-las mais.

P: Como os compradores pagam pelas IRs que compraram?

O pagamento das vendas de IRs concluídas é feito via transferência bancária ACH (câmara de compensação automática) para uma conta bancária nos EUA.

P: Quando receberei meu dinheiro?

Assim que a AWS receber o pagamento do cliente que adquiriu uma instância, faremos a transferência bancária para a conta especificada quando você se registrou no Marketplace de IR.

Em seguida, enviaremos uma notificação por e-mail informando que o pagamento foi transferido. Geralmente, o pagamento aparecerá em sua conta em três a cinco dias após a venda da IR.

P: Se eu vender minha IR no Marketplace de IR, serei reembolsado pelo Premium Support pelo qual fui cobrado também?

Não, você não receberá um reembolso proporcional pela parte inicial da taxa do AWS Premium Support.

P: Serei notificado sobre as atividades do Marketplace de IR?

Sim, você receberá um único e-mail, uma vez por dia, detalhando sua atividade do Marketplace de IR sempre que criar ou cancelar relações de IRs, compradores adquirirem suas relações ou a AWS enviar pagamentos para a sua conta bancária.

P: Quais informações são trocadas entre o comprador e o vendedor para ajudar no cálculo de impostos da transação?

As informações do país, CEP, estado e cidade do comprador serão fornecidas para o vendedor através de um relatório de transferência bancária. Essas informações permitirão que os vendedores calculem os impostos de transação de pagamento obrigatório para o governo (por exemplo, imposto sobre vendas, imposto sobre valor agregado etc.). O nome da entidade jurídica do vendedor também será fornecido na fatura da compra.

P: Há restrições quanto aos clientes que podem comprar IRs de terceiros?

Sim, você não pode comprar suas próprias IRs listadas, inclusive as que estiverem em qualquer uma de suas contas vinculadas (via faturamento consolidado).

P: Preciso pagar pelo Premium Support ao comprar IRs no Marketplace de IR?

Sim, se você for cliente do Premium Support, você será cobrado pelo Premium Support ao comprar uma IR por meio do Marketplace de IR.

Savings Plans

P: O que são os Savings Plans?

Os Savings Plans são um modelo de preços flexível que oferece preços baixos no uso do EC2, Lambda e Fargate, em troca de um compromisso com uma quantidade consistente de uso (medido em USD/hora) por um período de um ou três anos. Ao se inscrever nos Savings Plans, você será cobrado pelo preço com desconto dos Savings Plans pelo uso até o que foi acordado em seu compromisso. Por exemplo, se você comprometer-se a USD 10 em uso de computação por hora, os preços dos Savings Plans chegarão a USD 10, e qualquer uso além do compromisso será cobrado por taxas sob demanda.

P: Quais tipos de plano de Savings Plans a AWS oferece?

A AWS oferece dois tipos de Savings Plans:

  1. Os Compute Savings Plans fornecem a maior flexibilidade e ajudam a reduzir seus custos em até 66%. Esses planos se aplicam automaticamente ao uso da instância do EC2, independentemente da família de instâncias, tamanho, AZ, região, sistema operacional ou locação da instância, e também se aplicam ao uso do AWS Fargate e Lambda. Por exemplo, com Savings Plans para computação, você pode mudar das instâncias C4 para M5, alterar uma workload da UE (Irlanda) para UE (Londres) ou mover uma workload do EC2 para Fargate ou Lambda a qualquer momento e continuar automaticamente a pagar o preço dos Savings Plans.
  2. Os Savings Plans para instâncias do EC2 fornecem os preços mais baixos, oferecendo economia de até 72% em troca do comprometimento com o uso de famílias de instâncias individuais em uma região (por exemplo, uso do M5 no Norte da Virgínia). Isso reduz automaticamente seu custo na família de instâncias selecionadas nessa região, independentemente de AZ, tamanho, sistema operacional ou locação. Os EC2 Instance Savings Plans oferecem a flexibilidade de alterar seu uso entre instâncias de uma família nessa região. Por exemplo, você pode passar de c5.xlarge executando Windows para c5.2xlarge executando Linux e se beneficiar automaticamente dos preços dos Savings Plan.

P: Como os Savings Plans se comparam às RIs do EC2?

Os Savings Plans oferecem economia significativa em relação ao Sob demanda, exatamente como as RIs do EC2, mas reduzem automaticamente suas faturas em uso de computação em qualquer região da AWS, mesmo que o uso mude. Isso permite que você tenha flexibilidade para usar a opção de computação mais adequada às suas necessidades e continue a economizar dinheiro, tudo sem ter de fazer trocas ou modificações.

Os Savings Plans para computação, que oferecem economia de até 66% (como as IRs conversíveis), reduzem automaticamente seu custo em qualquer uso de instância do EC2, independentemente de região, família de instâncias, tamanho, sistema operacional, locação e até no AWS Fargate e Lambda. Os Savings Plans para instâncias do EC2, que oferecem economia de até 72% (como as IRs Standard), economizam seu dinheiro automaticamente em qualquer uso de instância dentro de uma determinada família de instâncias do EC2 em uma região escolhida (por exemplo, M5 no Norte da Virgínia), independentemente do tamanho, sistema operacional ou locação.

P: Os Savings Plans fornecem reservas de capacidade para instâncias do EC2?

Não, os Savings Plans não fornecem uma reserva de capacidade. No entanto, você pode reservar capacidade com Reservas de capacidade sob demanda e pagar preços mais baixos com os Savings Plans.

P: Como começar a usar os Savings Plans?

Você pode começar a usar os Savings Plans no Explorador de Custos da AWS no Console de Gerenciamento da AWS ou usando a API/CLI. Você pode facilmente se comprometer com um Savings Plan usando as recomendações fornecidas no Explorador de Custos da AWS para obter as maiores economias. O compromisso por hora recomendado é baseado no uso histórico Sob demanda e na escolha do tipo de plano, duração do prazo e opção de pagamento. Depois de se cadastrar em um Savings Plan, seu uso de computação será cobrado automaticamente pelos preços com desconto do plano de economia, e qualquer uso além do seu compromisso será cobrado a taxas regulares sob demanda.

P: Posso continuar comprando RIs EC2?

Sim. Você pode continuar comprando RIs para manter a compatibilidade com seus processos de gerenciamento de custos existentes, e suas RIs trabalharão em conjunto com os Savings Plans para reduzir sua fatura geral. No entanto, à medida que suas RIs expiram, recomendamos que você se cadastre nos Savings Plans, pois eles oferecem as mesmas economias que as RIs, mas com flexibilidade adicional.

Instâncias spot

P: O que é instância spot?

As instâncias spot são capacidade extra do EC2 que permite economizar até 90% em relação aos preços sob demanda. Essas instâncias podem ser interrompidas pela AWS mediante uma notificação com dois minutos de antecedência. O spot usa as mesmas instâncias EC2 subjacentes que as instâncias sob demanda e reservadas e é mais adequado para workloads tolerantes a falha e flexíveis. As instâncias spot oferecem uma opção adicional para obter capacidade computacional e podem ser usadas juntamente com instâncias sob demanda e reservadas.

P: No que uma instância spot difere de uma instância sob demanda ou de uma instância reservada?

Durante a execução, as instâncias spot são exatamente iguais às instâncias sob demanda ou reservadas. As principais diferenças são que as instâncias spot normalmente oferecem um desconto considerável sobre os preços sob demanda; as instâncias podem ser interrompidas pelo Amazon EC2 devido a requisitos de capacidade com notificação antecipada de dois minutos; e os preços spot são ajustados gradualmente com base na oferta e na demanda de capacidade extra do EC2 no longo prazo.

Para obter mais detalhes sobre as instâncias spot, visite aqui.

P: Como faço para comprar e inicializar uma instância spot?

As instâncias spot podem ser executadas usando as mesmas ferramentas que você já usa para executar instâncias hoje, incluindo o Console de Gerenciamento da AWS, os grupos do Auto Scaling, Run Instances e a frota spot. Além disso, diversos serviços da AWS oferecem suporte à inicialização de instâncias spot, como o EMR, o ECS, o Data Pipeline, o CloudFormation e o Batch.

Para iniciar uma instância spot, basta escolher um modelo de execução e o número de instâncias a solicitar.

Visite aqui para obter mais detalhes sobre como solicitar instâncias spot.

P: Quantas instâncias spot posso solicitar?

Você pode solicitar instâncias spot até o limite spot de cada região. Observe que os clientes novos da AWS podem começar com um limite menor. Para saber mais sobre os limites das instâncias spot, consulte o Guia do usuário do Amazon EC2.

Se precisar de um limite mais alto, preencha o seu caso de uso no formulário de solicitação de instância do Amazon EC2 e o aumento das instâncias será avaliado. Os aumentos de limite estão vinculados à região para a qual são solicitados.

P: Qual preço pagarei por uma instância spot?

Você pagará o preço spot que estiver em vigor no início de cada instância-hora da instância em execução. Se o preço spot for alterado após a execução da instância, o novo preço será cobrado para o uso da instância na hora subsequente.

P: O que é um grupo de capacidade spot?

Um pool de capacidade spot é um conjunto de instâncias EC2 não utilizadas com o mesmo tipo de instância, sistema operacional e zona de disponibilidade. Cada grupo de capacidade spot pode ter um preço diferente, de acordo com a oferta e a demanda.

P: Quais são as melhores práticas para o uso das instâncias spot?

Recomendamos o uso de vários grupos de capacidade spot para maximizar a quantidade de capacidade spot disponível para você. O EC2 oferece automação incorporada para encontrar a capacidade mais econômica em diversos grupos de capacidade spot usando o EC2 Auto Scaling, frota EC2 ou frota spot. Para obter mais informações, leia as Práticas recomendadas do spot.

P: Como posso determinar o status da minha solicitação spot?

Você pode determinar o status da solicitação spot por meio do código e da mensagem de status de solicitação spot. As informações de status de solicitação spot podem ser acessadas na página de instância Spot do console do EC2 no Console de Gerenciamento da AWS, pela API e pela ILC. Para obter mais informações, consulte o Guia do desenvolvedor do Amazon EC2.

P: Há instâncias spot disponíveis para todas as famílias e tamanhos de instâncias e em todas as regiões?

As instâncias spot estão disponíveis em todas as regiões públicas da AWS. O spot está disponível para praticamente todas as famílias e tamanhos de instância do EC2, incluindo as mais recentes instâncias otimizadas para computação e os tipos de instância de gráficos acelerados e FPGA. Veja aqui uma lista completa dos tipos de instância com suporte em cada região.

P: Quais sistemas operacionais estão disponíveis como instâncias spot?

Linux/UNIX, Windows Server e Red Hat Enterprise Linux (RHEL) estão disponíveis. O Windows Server with SQL Server não está disponível no momento.

P: Posso usar uma instância spot com uma AMI paga para softwares de terceiros (como os pacotes de software da IBM)?

Não neste momento.

P: Posso interromper minhas Instâncias spot em execução?

Sim, você pode “interromper” suas Instâncias spot em execução quando elas não são necessárias e mantê-las para uso posterior, em vez de encerrar instâncias ou cancelar a solicitação Spot. A ação de Parar está disponível para solicitações persistentes de Spot.

P: Como posso parar as Instâncias spot?

Você pode interromper suas instâncias Spot chamando a API StopInstances e fornecendo IDs de instância das Instâncias spot, o que é um processo semelhante a interromper suas Instâncias sob demanda. Isso também pode ser feito no Console de Gerenciamento da AWS, selecionando sua instância, clicando em Actions > Instance State > Stop (Ações > Estado da instância > Interromper).

P: Como posso iniciar as Instâncias spot interrompidas?

Você pode iniciar suas instâncias Spot chamando a API StartInstances e fornecendo IDs de instância das Instâncias spot, o que é um processo semelhante a iniciar suas Instâncias sob demanda. Isso também pode ser feito no Console de Gerenciamento da AWS, selecionando sua instância, clicando em Actions > Instance State > Start (Ações > Estado da instância > Iniciar).

Observação: as instâncias Spot somente serão iniciadas se a capacidade Spot ainda estiver disponível dentro do seu preço máximo. O Spot avalia a disponibilidade da capacidade sempre que você inicia instâncias Spot interrompidas.

P: Como saber se eu interrompi minha instância Spot ou se ela foi interrompida?

É possível saber se você interrompeu sua instância Spot ou se ela foi interrompida, observando o código de status da solicitação Spot. Isso é visível como Status da solicitação Spot, na página Solicitações Spot do Console de Gerenciamento da AWS ou na resposta da API DescribeSpotInstanceRequests como o campo “status-code”.

Se o código de status da solicitação Spot for “instance-stopped-by-user”, significa que você interrompeu sua instância Spot.

P: Como serei cobrado se minha instância Spot for parada ou interrompida?

Se a instância spot for encerrada ou parada pelo Amazon EC2 durante a primeira hora de instância, esse uso não será cobrado. No entanto, se você parar ou encerrar a instância, esse uso será cobrado, arredondado para o segundo mais próximo. Se a instância spot for encerrada ou parada pelo Amazon EC2 em qualquer hora seguinte, esse uso será cobrado, arredondado para o segundo mais próximo. Se você estiver executando no Windows ou no Red Hat Enterprise Linux (RHEL) e parar e encerrar a instância Spot, será cobrada uma hora inteira.

P: Quando uma instância spot é interrompida?

Nos últimos três meses, 92% das interrupções de instâncias spot foram resultantes do encerramento manual da instância pelo cliente porque o aplicativo havia concluído o trabalho.

Caso o EC2 precise recuperar a sua instância spot, isso poderá ocorrer por dois motivos: o principal, requisitos de capacidade do Amazon EC2 (por exemplo, uso de instâncias sob demanda ou reservadas). Ou, caso você tenha definido um “preço spot máximo” e o preço spot ultrapassar esse limite, sua instância será interrompida com uma notificação antecipada de dois minutos. Esse parâmetro determina o preço máximo que você está disposto a pagar por hora de instância spot. Por padrão, o parâmetro é definido com o preço sob demanda. Da mesma forma que antes, você continua a pagar o preço do mercado spot (e não o seu preço máximo) no momento da execução da instância, cobrado em incrementos por segundo.

P: O que acontece com a instância spot quando é interrompida?

Você pode optar por encerrar, parar ou hibernar instâncias spot interrompidas. As opções de parar e hibernar estão disponíveis para solicitações spot persistentes e frotas spot com a opção “manter” habilitada. Por padrão, as instâncias são encerradas.

Consulte a Hibernação de spot para saber mais sobre como processar interrupções.

P: Qual a diferença entre os comportamentos das interrupções de parada e hibernação?

No caso da hibernação, a instância é hibernada e os dados RAM são persistidos. No caso da parada, a instância é encerrada e a RAM é descartada.

Nos dois casos, os dados do volume raiz do EBS e todos os volumes de dados do EBS associados são persistidos. O endereço IP privado continua o mesmo, assim como o endereço IP elástico (se for o caso). O comportamento da camada de rede será semelhante ao do fluxo de trabalho de parada/início do EC2. Os comportamentos de parada e hibernação estão disponíveis apenas para instâncias baseadas no Amazon EBS. O armazenamento local de instâncias não é persistido.

P: E se o volume raiz do EBS não for grande o suficiente para armazenar o estado da memória (RAM) para a hibernação?

Você deve ter espaço suficiente disponível no volume raiz do EBS para gravar os dados da memória. Se o volume raiz do EBS não tiver espaço suficiente, a hibernação falhará e a instância será desligada. Verifique se o volume do EBS é grande o suficiente para persistir dados de memória antes de escolher a opção de hibernação.

P: Qual é o benefício da hibernação de uma instância pelo spot após uma interrupção?

Com a hibernação, as instâncias spot serão suspensas e reiniciadas em caso de interrupções. Assim, as cargas de trabalho podem reiniciar exatamente no ponto em que foram interrompidas. Você pode usar a hibernação quando as instâncias precisam reter seu estado entre ciclos de desligamento/inicialização. Ou seja, quando os aplicativos executados no spot dependem de dados contextuais, empresariais ou de sessão armazenados na RAM.

P: O que preciso fazer para habilitar a hibernação em instâncias spot?

Consulte a Hibernação de spot para saber mais sobre a habilitação da hibernação para suas instâncias spot.

P: Preciso pagar pela hibernação de uma instância spot?

Não há cobrança adicional pela hibernação de uma instância além dos custos de armazenamento do EBS e de qualquer outro recurso do EC2 utilizado. Depois que a instância for hibernada, você não será cobrado pelo uso da instância.

P: Posso retomar uma instância hibernada?

Não. Não é possível retomar diretamente uma instância hibernada. O ciclo de retomada após a hibernação é controlado pelo Amazon EC2. Se uma instância for hibernada pelo Spot, ela será retomada pelo Amazon EC2 quando a capacidade ficar disponível. 

P: Quais instâncias e sistemas operacionais oferecem suporte à hibernação?

No momento, a hibernação de spot conta com suporte em AMIs do Amazon Linux e sistemas operacionais Ubuntu e Microsoft Windows executados em qualquer tipo de instância das famílias C3, C4, C5, M4, M5, R3 e R4 com tamanho de memória (RAM) inferior a 100 GiB.

Para analisar uma lista das versões de sistema operacional compatíveis, consulte Hibernação de spot.

P: Como serei cobrado se o preço spot for alterado durante a execução de uma instância?

Você pagará o preço da instância-hora definido no início de cada instância-hora durante uma hora completa, cobrado até o segundo mais próximo.

P: Onde posso visualizar meu histórico de uso para as instâncias spot e ver o valor da fatura?

O Console de Gerenciamento da AWS disponibiliza um relatório de faturamento detalhado que mostra os horários de início e término/parada da instância spot para todas as instâncias. Os clientes podem comparar o relatório de faturamento com os preços spot históricos por meio da API para verificar se o preço spot pelo qual foram cobrados está correto.

P: Os bloqueios de spot são interrompidos (instâncias spot de duração fixa) em algum momento?

Os bloqueios de spot foram criados para não serem interrompidos e serão executados continuamente durante o período selecionado, independentemente do preço de mercado spot. Em raras situações, os bloqueios de spot podem ser interrompidos devido a necessidades de capacidade da AWS. Nesses casos, enviaremos uma advertência dois minutos antes de encerrarmos sua instância (aviso de encerramento) e você não será cobrado pela(s) instância(s) atingida(s).

P: O que é uma frota spot?

Uma frota spot permite que você solicite e gerencie automaticamente várias instâncias spot que oferecem o menor preço por unidade de capacidade para o seu cluster ou aplicativo, como uma tarefa de processamento de lotes, um fluxo de trabalho do Hadoop ou uma tarefa de computação em grade de HPC. Você pode incluir os tipos de instância que o aplicativo pode usar. Você define uma capacidade pretendida de acordo com as necessidades do aplicativo (em unidades, incluindo instâncias, vCPUs, memória, armazenamento ou throughput de rede) e atualiza a capacidade pretendida após a inicialização da frota. As frotas spot permitem que você execute e mantenha a capacidade pretendida e solicite automaticamente recursos para substituir qualquer instância que seja interrompida ou encerrada manualmente. Saiba mais sobre as frotas spot.

P: Há algum encargo adicional para as solicitações de frotas spot?

Não, não há encargo adicional para as solicitações de frotas spot.

P: Quais são os limites aplicáveis às solicitações de frotas spot?

Consulte a seção Limites de frota spot do Guia do usuário do Amazon EC2 para saber mais sobre os limites aplicáveis à sua solicitação de frota spot.

P: O que acontecerá se a solicitação de frota spot tentar executar instâncias spot, mas exceder o limite regional de solicitações spot?

Se a solicitação de frota spot exceder o limite regional de solicitação de instâncias spot, as solicitações individuais de instância spot falharão com o status de oferta “Limite de solicitações de spot excedido”. O seu histórico de solicitações de frotas spot mostrará todos os erros de limite de solicitações spot recebidos pela solicitação de frota. Consulte a seção Monitoramento de sua frota spot, que faz parte do Guia do usuário do Amazon EC2, para saber como descrever o histórico de solicitações de sua frota spot.

P: Há garantia de atendimento para as solicitações de frotas spot?

Não. As solicitações de frota spot permitem que você solicite várias instâncias spot simultaneamente e estão sujeitas à mesma disponibilidade e aos mesmos preços de uma única solicitação de instância spot. Por exemplo, se nenhum recurso estiver disponível para os tipos de instância listados na solicitação de frota spot, poderemos ser incapazes de atender à sua solicitação de forma parcial ou total. Recomendamos a inclusão de todos os tipos de instância e zonas de disponibilidade possíveis que sejam adequados às workloads na frota spot.

P: Posso enviar uma solicitação de frota spot de várias zonas de disponibilidade?

Sim, consulte a seção Exemplos de frota spot no Guia do usuário do Amazon EC2 para saber como enviar uma solicitação de frota spot de várias zonas de disponibilidade.

P: Posso enviar uma solicitação de frota spot com várias regiões?

Não, não oferecemos suporte a solicitações de frotas com várias regiões.

P: Como a frota spot aloca recursos nos vários grupos de instâncias spot definidos nas especificações de execução?

A API RequestSpotFleet disponibiliza três estratégias de alocação: otimizada para a capacidade, menor preço e diversificada. A estratégia de alocação otimizada para capacidade tenta provisionar instâncias spot dos grupos de instâncias spot mais disponíveis mediante a análise de métricas de capacidade. Essa estratégia é uma boa opção para cargas de trabalho como big data e análises, renderização de imagens e mídias, machine learning e computação de alta performance, que podem ter um custo de interrupção mais elevado.

A estratégia lowestPrice permite provisionar recursos de frota spot em grupos de instância que disponibilizam o preço mais baixo por unidade de capacidade no momento da solicitação. A estratégia diversificada permite provisionar recursos de frota spot em vários grupos de instâncias spot. Isso permite que você mantenha a capacidade pretendida da sua frota e aumente a disponibilidade da sua aplicação de acordo com as oscilações de capacidade do spot.

A execução dos recursos de seu aplicativo em pools de instância spot diferentes também permite que você reduza ainda mais os custos operacionais da sua frota com o passar do tempo. Consulte o Guia do usuário do Amazon EC2 para saber mais.

P: Posso marcar uma solicitação de frota spot com uma tag?

Você pode solicitar a execução de instâncias spot com tags por meio da frota spot. Não é possível atribuir tags à frota em si.

P: Como posso ver a que frotas spot pertencem minhas instâncias spot?

Você pode identificar as instâncias spot associadas à sua frota spot descrevendo sua solicitação de frota. A solicitações de frota estão disponíveis por 48 horas após o encerramento de todas as instâncias spot. Consulte o Guia do usuário do Amazon EC2 para saber como descrever a solicitação de sua frota spot.

P: Posso modificar minha solicitação de frota spot?

Sim, você pode modificar a capacidade pretendida da sua solicitação de frota spot. É possível que seja necessário cancelar a solicitação e enviar uma nova para alterar outros parâmetros de configuração de solicitação.

P: Posso especificar uma AMI diferente para cada tipo de instância que quero usar?

Sim, basta especificar a AMI que você gostaria de usar em cada especificação de execução incluída na solicitação de frota spot.

P: Posso usar a frota spot com Elastic Load Balancing, Auto Scaling ou Elastic MapReduce?

Você pode usar recursos do Auto Scaling com a frota spot, como monitoramento do objetivo, verificações de integridade, métricas do CloudWatch etc., além de associar instâncias a Elastic Load Balancer (Classic e Application Load Balancers). O Elastic MapReduce tem um recurso denominado “frotas de instância” que oferece recursos semelhantes à frota spot.

P: Uma solicitação de frota spot encerra instâncias spot quando elas não estão mais sendo executadas nos grupos spot de menor preço ou otimizado para capacidade e as executa novamente nesses grupos?

Não, as solicitações de frota spot não encerram automaticamente e executam novamente instâncias enquanto elas estão em execução. No entanto, se você encerrar uma instância spot, a frota spot a substituirá por uma nova instância spot no novo grupo com o menor preço ou grupo otimizado para capacidade com base na sua estratégia de alocação.

P: Posso usar os comportamentos de interrupção parar ou hibernar com a frota spot?

Sim. A frota spot oferece suporte aos comportamentos parar-iniciar e hibernar-reiniciar com a opção de frota “manter” habilitada. 

Plataforma

Amazon Time Sync Service

P: Como posso usar este serviço?

O serviço oferece um endpoint NTP em um endereço IP link-local (169.254.169.123), que pode ser acessado por qualquer instância executada em uma VPC. As instruções para configuração de clientes NTP estão disponíveis para Linux e Windows.

P: Quais são os principais benefícios do uso deste serviço?

Uma origem de tempo de referência consistente e precisa é essencial para diversos aplicativos e serviços. O Amazon Time Sync Service oferece uma referência de tempo que pode ser acessada com segurança de uma instância, sem necessidade de alterações e atualizações na configuração da VPC. O serviço foi criado na infraestrutura de rede comprovada da Amazon e usa origens de tempo redundantes para garantir a alta precisão e disponibilidade.

P: Quais tipos de instância contam com o suporte deste serviço?

Todas as instâncias executadas em uma VPC podem acessar o serviço.

Zonas de disponibilidade

P: Até que ponto as zonas de disponibilidade estão isoladas umas das outras?

Cada zona de disponibilidade opera em sua própria infraestrutura fisicamente distinta e independente e é projetada para ser altamente confiável. Pontos comuns de falhas como geradores e equipamentos de refrigeração não são compartilhados pelas Zonas de disponibilidade. Além disso, eles são fisicamente separados, de tal forma que mesmo desastres extremamente incomuns, como incêndios, tornados ou enchentes, afetariam somente uma única zona de disponibilidade.

P: O Amazon EC2 está sendo executado em mais de uma região da AWS?

Sim. Consulte Produtos e Serviços Regionais para obter mais detalhes sobre a disponibilidade de nossos produtos e serviços por região.

P: Como posso me certificar de que estou na mesma Zona de disponibilidade que outro desenvolvedor?

No momento, não oferecemos suporte para a capacidade de coordenar inicializações na mesma Zona de disponibilidade nas contas de desenvolvedores da AWS. O nome de uma zona de disponibilidade (por exemplo, us-east-1a) em duas contas de clientes da AWS pode se referir a diferentes zonas de disponibilidade físicas.

P: Se eu transferir dados entre zonas de disponibilidade usando endereços IP públicos, haverá duas cobranças pela transferência de dados regional (uma vez porque é entre zonas e uma segunda vez porque estou usando endereços IP públicos)?

Não. As taxas de transferência de dados regional são aplicáveis somente quando pelo menos uma das afirmações a seguir é verdadeira, mas são cobradas somente uma vez para uma determinada instância, mesmo se ambas forem verdadeiras:

  • A outra instância está em uma zona de disponibilidade diferente, independentemente do tipo de endereço usado.
  • Os endereços públicos ou Elastic IP são usados, independentemente da zona de disponibilidade em que a outra instância está.

Instâncias de cluster

P: O que é instância de computação em cluster?

As Instâncias de computação em cluster combinam os recursos de computação elevada com uma rede de alta performance para aplicações HPC e outras aplicações exigentes vinculadas à rede. As instâncias de computação em cluster fornecem uma funcionalidade semelhante às de outras instâncias do Amazon EC2, mas foram projetadas especificamente para fornecerem redes de alta performance.

A funcionalidade do grupo com posicionamento em cluster do Amazon EC2 permite que os usuários agrupem as instâncias de computação em cluster – permitindo que os aplicativos obtenham o desempenho de rede de baixa latência necessário para a comunicação entre os nós totalmente integrados, típica de muitos aplicativos de HPC. As instâncias de computação em cluster também fornecem um throughput de rede significativamente elevado no ambiente do Amazon EC2 e para a Internet. Como resultado, essas instâncias também são bastante adequadas para aplicações do cliente que precisam desempenhar operações que requerem bastante rede.

Saiba mais sobre o uso deste tipo de instância para aplicações HPC.

P: Que tipo de performance de rede posso esperar quando executo instâncias no grupo de posicionamento de cluster?

A largura de banda que uma instância do EC2 pode utilizar em um grupo com posicionamento em cluster depende do tipo de instância e de sua especificação de performance de redes. O tráfego entre instâncias dentro da mesma região pode utilizar 5 Gbps para tráfego de fluxo único e até 25 Gbps para tráfego de vários fluxos. Quando iniciadas em um placement group, algumas instâncias do EC2 podem utilizar até 10 Gbps para tráfego de fluxo único.

P: O que é instância de GPU de cluster?

As instâncias de GPU de cluster fornecem unidades de processamento gráfico (GPUs) para fins gerais com maior desempenho de rede e CPU proporcionalmente elevado para aplicativos se beneficiando de processamento extremamente paralelizado, que pode ser acelerado por GPUs usando os modelos de programação CUDA e OpenCL. Entre os aplicativos comuns estão modelagem e simulação, renderização e processamento de mídia.

As Instâncias de GPU de cluster fornecem aos clientes com workloads HPC uma opção além das Instâncias de computação de cluster para personalizar ainda mais seus clusters de desempenho elevado na nuvem para aplicativos que podem se beneficiar do poder computacional paralelo das GPUs.

As instâncias de GPU de cluster usam a mesma funcionalidade de grupo com posicionamento em cluster que as instâncias de computação em cluster para fazer esse tipo de agrupamento. Isso permite que os aplicativos obtenham a performance necessária da rede de baixa latência e de alta largura de banda para a comunicação entre nós altamente acoplada que é típica de muitos aplicativos HPC.

Saiba mais sobre HPC na AWS.

P: O que é instância de cluster com mais memória?

Instâncias de cluster com mais memória oferecem aos clientes grande capacidade de CPU e memória por instância, além de alta capacidade de rede. Esses tipos de instância são ideais para workloads com uso intensivo de memória, incluindo sistemas de análise em memória, análise gráfica e muitas aplicações de engenharia e ciências.

As instâncias de cluster com mais memória usam a mesma funcionalidade de grupo com posicionamento em cluster que as instâncias de computação em cluster para fazer esse tipo de agrupamento. Isso permite que as aplicações obtenham a performance necessária de rede de baixa latência e alta largura de banda para a comunicação entre nós altamente acoplada que é típica de diversas aplicações de HPC e com uso intensivo de rede.

P: O uso das instâncias de computação em cluster ou de GPU de cluster difere dos outros tipos de instâncias do Amazon EC2?

O uso das instâncias de computação em cluster ou de GPU de cluster difere dos outros tipos de instância do Amazon EC2 em dois pontos.

Primeiro, as instâncias de computação em cluster e de GPU de cluster usam virtualização com base em Hardware Virtual Machine (HVM) e executam somente imagens de máquina da Amazon (AMIs) com base em virtualização HVM. As AMIs baseadas em Paravirtual Machine (PVM) usadas com outros tipos de instância do Amazon EC2 não podem ser usadas com as instâncias de computação em cluster ou de GPU de cluster.

Segundo, para se beneficiar totalmente da largura de banda de duas seções total e de baixa latência disponível entre as instâncias, as instâncias de computação em cluster ou de GPU de cluster devem ser inicializadas em um grupo de localização de cluster por meio da API do Amazon EC2 ou do AWS Management Console.

P: O que é placement group de cluster?

grupo de localização de cluster é uma entidade lógica que permite a criação de um cluster de instâncias ao iniciar instâncias como parte de um grupo. O cluster de instâncias oferece conectividade de baixa latência entre instâncias no grupo. Os grupos de posicionamento de cluster são criados por meio da API do Amazon EC2 ou do AWS Management Console.

P: Todos os recursos do Amazon EC2 estão disponíveis para instâncias de computação em cluster e de GPU de cluster?

Atualmente, o Amazon DevPay não está disponível para as instâncias de computação em cluster e de GPU de cluster.

P: Há um limite para o número de instâncias de computação em cluster ou de GPU de cluster que posso usar e/ou para o tamanho do cluster que posso criar ao executar instâncias de computação em cluster ou um GPU de cluster em um placement group de cluster?

Não há um limite específico para as Instâncias de computação em cluster. Para as Instâncias de GPU de cluster, você mesmo pode iniciar duas Instâncias de GPU de cluster. Se você precisar de mais capacidade, preencha o formulário de solicitação de instâncias do Amazon EC2 (selecionando o tipo de instância primária apropriado).

P: Há formas de otimizar a probabilidade de que eu receba o número completo de instâncias solicitadas para meu cluster por meio de um placement group de cluster?

Recomendamos que você inicie o número mínimo de instâncias necessárias para participar de um cluster em uma única inicialização. Para os clusters muito grandes, você deve iniciar vários grupos de posicionamento, p. ex., dois grupos de posicionamento de 128 instâncias, e combiná-los para criar um cluster maior de 256 instâncias.

P: As instâncias de GPU de cluster e de computação em cluster podem ser iniciadas em um único placement group de cluster?

Embora não seja possível iniciar diferentes tipos de instância de cluster em um grupo de posicionamento individual, nesse momento, oferecemos suporte somente para os grupos de posicionamento homogêneo.

P: Se uma instância em um placement group de cluster for interrompida e, em seguida, iniciada novamente, ela manterá sua presença no placement group de cluster?

Sim. Uma instância interrompida será iniciada como parte do grupo de localização de cluster no qual estava quando da interrupção. Se a capacidade não estiver disponível para ser iniciada em um grupo de localização de cluster, haverá falha na inicialização.

Informações sobre hardware

P: Quais opções de CPU estão disponíveis nas instâncias do EC2?

As instâncias do EC2 oferecem uma variedade de opções de CPU para ajudar os clientes a equilibrar os requisitos de performance e custo.  Dependendo do tipo de instância, o EC2 oferece uma opção na CPU, incluindo os processadores AWS Graviton/Graviton2 (Arm), processadores AMD (x86) e processadores Intel (x86).

P: Em que tipo de hardware a minha pilha de aplicativos será executada?

Acesse Tipos de instância do Amazon EC2 para obter uma lista das instâncias do EC2 disponíveis por região.

Q: Como o EC2 realiza manutenção?

A AWS realiza regularmente manutenções de rotina em hardware, software, energia e rede com mínimas interrupções em todos os tipos de instância do EC2. Para isso, empregamos uma combinação de tecnologias e métodos em toda a infraestrutura global da AWS, como atualizações e migração ao vivo, bem como sistemas de manutenção redundantes e simultâneos. Tecnologias de manutenção não intrusivas, como atualizações e migração ao vivo, não exigem que as instâncias sejam interrompidas ou reinicializadas. Não é exigida nenhuma ação por parte do cliente antes, durante ou depois de uma migração ou atualização ao vivo. Essas tecnologias ajudam a melhorar a disponibilidade das aplicações e reduzir o seu esforço operacional. O Amazon EC2 usa a atualização ao vivo para implantar softwares em servidores de forma rápida com impacto mínimo nas instâncias dos clientes. As atualizações ao vivo garantem que as workloads dos clientes sejam executadas em servidores com software atualizado com patches de segurança, novos recursos de instância e melhorias no desempenho. O Amazon EC2 usa a migração ao vivo quando instâncias em execução precisam ser movidas de um servidor para outro para manutenção do hardware, para otimizar o posicionamento de instâncias ou para gerenciar recursos de CPU dinamicamente. O Amazon EC2 tem expandindo o escopo e a cobertura de tecnologias de manutenção não intrusivas ao longo dos anos para que eventos de manutenção agendados sejam uma opção alternativa em vez de serem o meio primário para possibilitar a manutenção de rotina.

P: Como faço para selecionar o tipo de instância correto?

As instâncias do Amazon EC2 são agrupadas em cinco famílias: uso geral, otimizadas para computação, otimizada para memória, otimizadas para armazenamento e computação acelerada. As instâncias de uso geral têm taxas de memória para CPU adequadas para a maioria das aplicações de uso geral e são disponibilizadas com performance fixa ou com capacidade de intermitência. As instâncias otimizadas para computação têm proporcionalmente mais recursos de CPU do que de memória (RAM) e são adequadas para aumentar a escala horizontal de aplicações com uso intenso de computação e workloads de computação de alta performance (HPC). As instâncias otimizadas para memória oferecem tamanhos maiores de memória para aplicações com uso intenso de memória, incluindo aplicações de bancos de dados e de armazenamento de memória em cache. As instâncias com computação acelerada usam aceleradores de hardware ou coprocessadores para executar funções, como cálculos com números com vírgula flutuante, processamento de gráficos ou combinação de padrões de dados, com a máxima eficiência em software executado em CPUs; as instâncias otimizadas para armazenamento fornecem capacidade de E/S de baixa latência usando armazenamento de instância local baseado em SSD para aplicações com uso intenso de E/S, que oferecem alta densidade de armazenamento local e performance de E/S sequencial para data warehousing, Hadoop e outras aplicações com uso intenso de dados. Ao escolher os tipos de instância, você deve levar em consideração as características da sua aplicação em relação à utilização de recursos (ou seja, CPU, memória, armazenamento) e selecionar a família de instâncias e o tamanho de instância ideais.

P: O que é uma “unidade de processamento EC2” e por que vocês a introduziram?

A passagem para um modelo computacional de utilitário muda fundamentalmente como os desenvolvedores foram treinados para pensar sobre os recursos da CPU. Em vez de comprar ou alugar um determinado processador para usar durante vários meses ou anos, você está alugando a capacidade de acordo com a hora. Como o Amazon EC2 foi criado em hardware do tipo commodity, ao longo do tempo poderá haver vários tipos diferentes de hardware físico subjacentes às instâncias do EC2. Nossa meta é fornecer uma quantidade consistente de capacidade da CPU independentemente do hardware subjacente real.

O Amazon EC2 usa uma série de medidas para fornecer a cada instância uma quantidade consistente e previsível de capacidade da CPU. Para facilitar para os desenvolvedores a comparação da capacidade da CPU entre diferentes tipos de instância, definimos uma Unidade computacional do Amazon EC2. A quantidade de CPU que é alocada para determinada instância é expressa em termos dessas Unidades computacionais do EC2. Usamos várias referências e testes para gerenciar a consistência e a previsibilidade do desempenho de uma Unidade computacional do EC2. A Unidade computacional do EC2 (ECU) oferece uma medida relativa da capacidade total de processamento de uma instância do Amazon EC2. Ao longo do tempo, poderemos adicionar ou substituir medidas que fazem parte da definição de uma Unidade computacional do EC2, se acharmos métricas que forneçam um panorama mais nítido da capacidade computacional.

P: Como o EC2 garante uma performance consistente dos tipos de instância ao longo do tempo?

A AWS realiza testes comparativos de performance anuais da performance computacional do Linux e do Windows em tipos de instância do EC2. Os resultados dos testes comparativos, um conjunto de testes que os clientes podem usar para realizar testes independentes, bem como as orientações sobre as variações de performance esperadas, estão disponíveis para as instâncias M,C,R, T e z1d mediante um NDA. Entre em contato com o seu representante de vendas para solicitá-los.

P: Qual é a disponibilidade regional dos tipos de instância do Amazon EC2?

Para obter uma lista com todas as instâncias e a disponibilidade regional, acesse a definição de preço do Amazon EC2.

Microinstâncias

P: Quanto poder computacional as instâncias micro fornecem?

As microinstâncias fornecem uma pequena quantidade de recursos consistentes da CPU e permitem que você ultrapasse a capacidade da CPU em até 2 ECUs quando ciclos adicionais estiverem disponíveis. Elas também são bastante adequadas para aplicações de menor taxa de transferência e sites da Web que consomem ciclos computacionais significativos periodicamente, mas pouquíssima CPU em outros momentos para os processos em segundo plano, daemons etc. Saiba mais sobre o uso desse tipo de instância.

P: Como uma instância micro é comparada, em termos de poder computacional, com uma instância pequena padrão?

No estado estável, as microinstâncias recebem uma fração dos recursos computacionais que as Instâncias pequenas recebem. Portanto, se seu aplicativo tiver necessidades de alto consumo de computação ou estado estável, recomendamos o uso de uma Instância pequena (ou maior, dependendo das suas necessidades). No entanto, as microinstâncias podem ultrapassar periodicamente até 2 ECUs (por períodos curtos). Isso é o dobro do número de ECUs disponíveis com base em uma Instância pequena padrão. Portanto, se você tiver um aplicativo ou um site Web de rendimento relativamente baixo com uma necessidade ocasional que consome ciclos computacionais significativos, recomendamos o uso de microinstâncias.

P: Como saberei se um aplicativo precisa de mais recursos de CPU do que uma instância micro está fornecendo?

A métrica CloudWatch para a utilização da CPU reportará 100% de utilização se a instância ultrapassar muito, de forma que exceda seus recursos de CPU disponíveis durante aquele minuto monitorado do CloudWatch. O CloudWatch reportando 100% de utilização da CPU é o sinal de que você deve considerar o aumento – manualmente ou por meio do Auto Scaling – para um tipo de instância maior ou a redução para várias microinstâncias.

P: Todos os recursos do Amazon EC2 estão disponíveis para as instâncias micro?

Atualmente, o Amazon DevPay não está disponível para as instâncias micro.

Nitro Hypervisor

P: O que é o Nitro Hypervisor?

A inicialização das instâncias C5 introduziu um novo hipervisor para o Amazon EC2, o hipervisor Nitro. Como componente do sistema Nitro, a função principal do Nitro Hypervisor é fornecer isolamento de CPU e memória para instâncias EC2. Os recursos de redes da VPC e de armazenamento do EBS são implementados por Nitro Cards, componentes de hardware dedicados que fazem parte de todas as famílias de instâncias EC2 da geração atual. O Nitro Hypervisor é baseado na tecnologia de núcleo Kernel-based Virtual Machine (KVM – Máquina virtual baseada em kernel) do Linux, mas não inclui componentes de sistema operacional de uso geral.

P: P: Como o Nitro Hypervisor beneficia os clientes?

O hipervisor Nitro fornece performance uniforme e recursos adicionais de computação e memória para instâncias virtualizadas EC2 por meio da remoção de componentes de software do sistema host. Ele permite que a AWS ofereça tamanhos de instância maiores (como c5.18xlarge), que fornecem praticamente todos os recursos do servidor aos clientes. Antes, as instâncias C3 e C4 eliminavam componentes de software movendo funcionalidades da VPC e do EBS para hardware projetado e construído pela AWS. Esse hardware permite que o Nitro Hypervisor seja muito pequeno e não se envolva em tarefas de processamento de dados para redes e armazenamento.

P: Todas as instâncias do EC2 usam o Nitro Hypervisor?

Com o tempo, todos os tipos de instância usarão o hipervisor Nitro. Por enquanto, alguns tipos de instância novos usarão o Xen, dependendo dos requisitos da plataforma.

P: A AWS continuará a investir no hipervisor baseado em Xen?

Sim. Com a ampliação da infraestrutura global de nuvem da AWS, o uso do hipervisor baseado em Xen pelo EC2 também continuará a crescer. O Xen continuará sendo um componente essencial das instâncias EC2 para o futuro próximo. A AWS é membro fundador do Xen Project desde o início como um Linux Foundation Collaborative Project e continua como participante ativa em seu comitê consultivo. Com a ampliação da infraestrutura global de nuvem da AWS, o hipervisor baseado em Xen pelo EC2 também continuará a crescer. Portanto, o investimento do EC2 no Xen, em vez de diminuir, continuará a crescer

P: Quantos volumes do EBS e interfaces de rede elásticas (ENIs) podem ser anexados a instâncias em execução no Nitro Hypervisor?

As instâncias executadas no hipervisor Nitro oferecem suporte a um máximo de 27 dispositivos PCI adicionais para volumes do EBS e ENIs da VPC. Cada volume do EBS ou ENI da VPC usa um dispositivo PCI. Por exemplo, se você associar 3 interfaces de rede adicionais a uma instância que usa o Nitro Hypervisor, poderá associar até 24 volumes do EBS a essa instância.

P: O Nitro Hypervisor altera as APIs usadas para interagir com instâncias do EC2?

Não. Todas as APIs voltadas ao público para interagir com instâncias EC2 executadas usando o hipervisor Nitro continuarão as mesmas. Por exemplo, o campo “hypervisor” da resposta de DescribeInstances continuará a informar “xen” para todas as instâncias EC2, mesmo as executadas no Nitro Hypervisor. Esse campo poderá ser removido em uma revisão futura da API do EC2.

P: As instâncias que usam o Nitro Hypervisor oferecem suporte a quais AMIs?

As AMIs HVM, baseadas no EBS, com suporte para redes ENA e inicializadas de armazenamento NVMe, podem ser usadas com instâncias executadas no hipervisor Nitro. As AMIs mais recentes de Amazon Linux e Windows fornecidas pela Amazon, bem como as AMIs mais recentes de Ubuntu, Debian, Red Hat Enterprise Linux, SUSE Enterprise Linux, CentOS e FreeBSD, também contam com suporte.

P: Notarei alguma diferença entre as instâncias que usam o hipervisor Xen e as que usam o Nitro Hypervisor?

Sim. Por exemplo, as instâncias executadas no hipervisor Nitro são inicializadas de volumes do EBS por meio de uma interface NVMe. As instâncias executadas no Xen são inicializadas de um disco rígido IDE emulado e mudam para os drivers de dispositivos de blocos paravirtualizados do Xen.

Os sistemas podem identificar quando são executados em um hipervisor. Alguns softwares pressupõem que as instâncias EC2 serão executadas no hipervisor Xen e contam com essa detecção. Os sistemas operacionais detectam que são executados no KVM quando uma instância usa o Nitro Hypervisor. Portanto, o processo de identificação de instâncias EC2 deve ser usado para identificar as que são executadas em ambos os hipervisores.

Todos os recursos do EC2, como o Instance Metadata Service, funcionam da mesma forma em instâncias executadas no Xen e no Nitro Hypervisor. A maioria das aplicações funcionará da mesma forma no Xen e no hipervisor Nitro, desde que o sistema operacional tenha o suporte necessário para redes ENA e armazenamento NVMe.

P: Como as solicitações de API do EC2 para reinicialização e encerramento de instâncias são implementadas pelo Nitro Hypervisor?

O hipervisor Nitro notifica o sistema operacional executado na instância de que deve desligar-se de forma ordenada usando métodos ACPI padrão do setor. Para instâncias Linux, isso exige que o acpid esteja instalado e funcionando corretamente. Se o acpid não estiver funcionando para a instância, os eventos de encerramento serão atrasados por vários minutos e executarão como reinicialização forçada ou desligamento.

P: Como os volumes do EBS se comportam quando acessados por interfaces NVMe?

Há algumas diferenças importantes no comportamento dos drivers de NVMe do sistema operacional em relação aos drivers de blocos paravirtuais (PV) do Xen.

Primeiro, os nomes dos dispositivos NVMe usados pelos sistemas operacionais Linux serão diferentes dos parâmetros de solicitações de associação e entradas de mapeamento de dispositivos de blocos de volumes do EBS, como /dev/xvda e /dev/xvdf. Os dispositivos NVMe são enumerados pelo sistema operacional como /dev/nvme0n1, /dev/nvme1n1 e assim por diante. Os nomes de dispositivos NVMe não são mapeamentos persistentes para volumes. Portanto, outros métodos, como UUIDs ou rótulos de sistemas de arquivos, devem ser usados para configurar a montagem automática de sistemas de arquivos ou outras atividades de inicialização. Quando os volumes do EBS são acessados por meio da interface NVMe, o ID do volume do EBS é disponibilizado por meio do número de série do controlador e o nome do dispositivo especificado em solicitações de API do EC2 é fornecido por uma extensão do fornecedor do NVMe para o comando Identify Controller. Assim, é possível manter a compatibilidade com versões anteriores de links simbólicos criados por um script utilitário. Para obter mais informações, consulte a documentação do EC2 sobre nomenclatura de dispositivos e volumes do EBS baseados em NVMe.

Segundo, por padrão, os drivers de NVMe incluídos na maioria dos sistemas operacionais implementam um tempo limite de E/S. Se uma E/S não for concluída em um tempo especificado da implementação, geralmente em dezenas de segundos, o driver tentará cancelar a E/S, fará uma nova tentativa ou retornará um erro ao componente que emitiu a operação de E/S. A interface de dispositivo de blocos Xen PV não gera um tempo limite de E/S, o que pode resultar em processos intermináveis, caso estejam aguardando a E/S. O comportamento do driver NVMe do Linux pode ser modificado com a especificação de um valor mais alto para o parâmetro do módulo do kernel de tempo limite nvme.io.

Terceiro, a interface de NVMe pode transferir quantidades muito maiores de dados por E/S. Em alguns casos, pode oferecer suporte a mais solicitações de E/S pendentes que a interface de blocos PV do Xen. Isso poderá causar uma maior latência de E/S quando E/Ss muito grandes ou um número grande de solicitações de E/S forem emitidos para volumes projetados para oferecer suporte a cargas de trabalho de throughput, como volumes otimizados para throughput HDD (ST1) e volumes frios HDD (SC1) do EBS. Essa latência de E/S é normal para volumes otimizados para throughput nesses cenários, mas pode causar esgotamentos de tempo limite de E/S em drivers de NVMe. O tempo limite de E/S pode ser ajustado no driver Linux mediante a especificação de um valor maior para o parâmetro do módulo kernel nvme_core.io_timeout.

Otimização de CPUs

P: O que é a otimização de CPUs?

A otimização de CPUs oferece duas maneiras de aumentar o controle sobre as instâncias do EC2. Primeiro, você pode especificar um número personalizado de vCPUs ao iniciar novas instâncias para reduzir custos de licenciamento baseados em vCPUs. Segundo, você pode desabilitar a Intel Hyper-Threading Technology (Intel HT Technology) para workloads que executam bem em CPUs de um único thread, como alguns aplicativos de HPC.

P: Por que devo usar o recurso de otimização de CPUs?

Você deve usar a otimização de CPUs se:

  • Executa workloads do EC2 que não fazem uso intenso de computação e incorrem em custos de licenciamento baseado em vCPUs. Pode ser possível otimizar as despesas de licenciamento iniciando instâncias com um número personalizado de vCPUs.
  • Executa workloads que se beneficiam com a desabilitação do hyper-threading em instâncias do EC2.

P: Qual será o preço das instâncias com otimização de CPUs?

O preço das instâncias com otimização de CPUs será o mesmo das instâncias completas equivalentes.

P: Como a performance de uma aplicação é alterada com o uso da otimização de CPUs no EC2?

A alteração da performance de um aplicativo com a otimização de CPUs depende muito das cargas de trabalho executadas no EC2. Recomendamos que você avalie a performance do aplicativo com a otimização de CPUs para determinar o número certo de vCPUs e o comportamento ideal de hyper-threading para o aplicativo.

P: Posso usar a otimização de CPUs em tipos de instância bare metal do EC2 (como i3.metal)?

Não. Só é possível usar a otimização de CPUs em instâncias virtualizadas do EC2.

P: Como posso começar a usar a otimização de CPUs para instâncias do EC2?

Para obter mais informações sobre como começar a usar a otimização de CPUs e sobre os tipos de instância compatíveis, consulte a página de documentação da otimização de CPUs aqui.

Workloads

Amazon EC2 executando IBM

P: Como é a cobrança referente ao uso do Amazon EC2 executando IBM?

Você paga somente por aquilo que usa e não há taxa mínima. A definição de preço é por hora de instância consumida para cada tipo de instância. Horas parciais de instâncias são cobradas como horas completas. A transferência de dados para o Amazon EC2 executando IBM é faturada e escalonada separadamente do Amazon EC2. Não há cobrança de transferência de dados entre dois Amazon Web Services dentro da mesma região (por exemplo, entre o Amazon EC2 no Oeste dos EUA e outro serviço da AWS no Oeste dos EUA). Para os dados transferidos entre os serviços da AWS em diferentes regiões serão cobrados como taxas de transferência de dados de Internet em ambas as extremidades da transferência.

Para obter informações sobre a definição de preço do Amazon EC2 executando IBM, visite a seção de definição de preço na página de detalhes do Amazon EC2 executando IBM.

P: Posso usar o Amazon DevPay com o Amazon EC2 executando IBM?

Não, não é possível usar o DevPay para empacotar produtos na parte superior do Amazon EC2 executando IBM no momento.

Amazon EC2 executando o Microsoft Windows e outros softwares de terceiros

P: Posso usar minha licença existente do Windows Server com o EC2?

Sim, você pode. Depois de importar suas próprias imagens de máquina do Windows Server usando a ferramenta ImportImage, você pode executar instâncias dessas imagens de máquinas em hosts dedicados do EC2, gerenciar com eficácia instâncias e relatar sobre o uso. A Microsoft normalmente requer que você acompanhe o uso das suas licenças em relação aos recursos físicos, como soquetes e núcleos, e os hosts dedicados ajudam você a fazer isso. Acesse a página de detalhes de hosts dedicados para obter mais informações sobre como usar suas próprias licenças do Windows Server em hosts dedicados do Amazon EC2.

P: Quais licenças de software posso trazer para o ambiente do Windows?

Os termos específicos de licença do software variam de acordo com cada fornecedor. Portanto, recomendamos que você verifique os termos de licença do seu fornecedor de software para determinar se as licenças existentes estão autorizadas para o uso no Amazon EC2.

Workloads macOS

P: O que são instâncias Mac do Amazon EC2?

Desenvolvidas em computadores Apple Mac mini, as instâncias Mac do Amazon EC2 permitem que os clientes executem workloads macOS sob demanda na nuvem pela primeira vez, o que amplia a flexibilidade, escalabilidade e benefícios de custo da AWS a todos os desenvolvedores da Apple. Com instâncias Mac do EC2, os desenvolvedores que criam aplicações para iPhone, iPad, Mac, Apple Watch, Apple TV e Safari podem provisionar e acessar ambientes macOS em poucos minutos, escalar a capacidade dinamicamente conforme necessário e se beneficiar do preço conforme o uso da AWS.

P: Quais workloads você deve executar em instâncias Mac do EC2?

As instâncias Mac do Amazon EC2 são projetadas para construir, testar, assinar e publicar aplicações para plataformas Apple como iOS, iPadOS, watchOS, tvOS, macOS e Safari. Clientes como Pinterest, Intuit, FlipBoard, Twitch e Goldman Sachs tiveram uma performance de criação até 75% melhor, taxas de falha de criação até 80% menores e até cinco vezes o número de criações paralelas em comparação com a execução de macOS nas instalações.

P: O que são instâncias Mac x86 do EC2?

As instâncias Mac do EC2 baseadas em x86 são desenvolvidas em minicomputadores Apple Mac com processadores Intel Core i7 e contam com a tecnologia do AWS Nitro System. Eles oferecem aos clientes a opção de macOS Mojave (10.14), macOS Catalina (10.15), macOS Big Sur (11) e macOS Monterey (12) como imagem de máquina da Amazon (AMI). As instâncias EC2 baseadas em x86 estão disponíveis em 12 regiões: Leste dos EUA (Ohio, Norte da Virgínia), Oeste dos EUA (Oregon), Europa (Estocolmo, Frankfurt, Irlanda, Londres) e Ásia-Pacífico (Mumbai, Seul, Cingapura, Sydney, Tóquio). Saiba mais e comece a usar as instâncias Mac do EC2 baseadas em x86 aqui.

P: O que são instâncias Mac M1 do EC2?

As instâncias M1 Mac do EC2 são desenvolvidas em minicomputadores Apple M1 Mac e contam com a tecnologia do AWS Nitro System. Elas oferecem uma performance de preço até 60% melhor em relação às instâncias Mac do EC2 baseadas em x86 para workloads de criação de aplicações para iOS e macOS. As instâncias M1 Mac do EC2 habilitam ambientes macOS baseados em ARM64 pela primeira vez na AWS e oferecem suporte ao macOS Big Sur (11) e ao macOS Monterey (12) como imagens de máquina da Amazon (AMIs). As instâncias M1 Mac do EC2 estão disponíveis em quatro regiões: Leste dos EUA (N. da Virgínia), Oeste dos EUA (Oregon), Europa (Irlanda) e Ásia-Pacífico (Singapura). Saiba mais e comece a usar as instâncias M1 Mac do EC2 aqui.

P: O que são instâncias Mac M2 do EC2?

As instâncias M2 Mac do EC2 são desenvolvidas em minicomputadores Apple M2 Mac e contam com a tecnologia do AWS Nitro System. Elas têm até 10% mais performance do que as instâncias EC2 M1 Mac para workloads de criação de aplicações iOS e macOS. As instâncias EC2 M2 Mac habilitam ambientes MACOS ARM64 na AWS e oferecem suporte ao macOS Ventura (versão 13.2 e posterior) como imagens de máquina da Amazon (AMIs). As instâncias M2 Mac do EC2 estão disponíveis em cinco regiões: Leste dos EUA (N. da Virgínia, Ohio), Oeste dos EUA (Oregon), Europa (Frankfurt) e Ásia-Pacífico (Sydney). Saiba mais e comece a usar as instâncias M2 Mac do EC2 aqui

P: O que são instâncias EC2 M2 Pro Mac?

As instâncias M2 Pro Mac do EC2 são desenvolvidas em minicomputadores Apple M2 Pro Mac e contam com a tecnologia do AWS Nitro System. Elas têm até 35% mais performance do que as instâncias EC2 M1 Mac para workloads de criação de aplicações iOS e macOS. As instâncias EC2 M2 Pro Mac habilitam ambientes MACOS ARM64 na AWS e oferecem suporte ao macOS Ventura (versão 13.2 e posterior) como imagens de máquina da Amazon (AMIs). As instâncias EC2 M2 Pro Mac estão disponíveis em 4 regiões: Leste dos EUA (Norte da Virgínia, Ohio), Oeste dos EUA (Oregon) e Ásia-Pacífico (Sydney). Saiba mais e comece a usar as instâncias M2 Mac do EC2 aqui.

P: Quais modelos de preços estão disponíveis para instâncias Mac do EC2?

As instâncias Mac do Amazon EC2 estão disponíveis como Hosts dedicados por meio de modelos de preços Sob demanda e Savings Plans. O host dedicado é a unidade de cobrança para instâncias Mac do EC2. A cobrança é feita por segundo, com um período mínimo de alocação de 24 horas em relação ao host dedicado para atender ao Contrato de licença de software do Apple macOS. No final do período mínimo de alocação de 24 horas, o host pode ser liberado a qualquer momento, sem nenhum compromisso adicional. Os Savings Plans Compute e Instance estão disponíveis para instâncias Mac do EC2 e oferecem até 44% de desconto nos preços Sob demanda. Veja mais informações na página de definição de preço de hosts dedicados. (Observação: selecione a locação “Dedicated Host” (Host dedicado) e o sistema operacional “Linux” para visualizar os detalhes.) Você também pode acessar os preços de instâncias Mac do EC2 na Calculadora de Preços da AWS para Hosts dedicados.

P: Como um host dedicado é liberado?

O período mínimo de alocação para um host dedicado de instância Mac do EC2 é de 24 horas. Após o período de alocação ter excedido 24 horas, primeiro pare ou encerre a instância em execução no host, depois libere o host usando o comando da CLI aws ec2 release-hosts ou o Console de Gerenciamento da AWS.

P: É possível compartilhar hosts dedicados Mac do EC2 com outras contas da AWS em sua organização?

Sim. Você pode compartilhar os hosts dedicados Mac do EC2 com contas da AWS dentro de sua organização da AWS, uma unidade organizacional dentro de sua organização da AWS, ou toda a sua organização da AWS por meio do AWS Resource Access Manager. Para obter mais informações, consulte a documentação do AWS Resource Access Manager.

P: Quantas instâncias Mac do EC2 é possível executar em um host dedicado Mac do EC2?

As instâncias Mac do EC2 aproveitam todo o poder do hardware subjacente do Mac mini. Você pode rodar uma instância Mac do EC2 em cada host dedicado Mac do EC2.

P: É possível atualizar as variáveis EFI NVRAM em uma instância Mac do EC2?

Sim, é possível atualizar certas variáveis EFI NVRAM em uma instância Mac do EC2 que persistirá através de reinicializações. Entretanto, as variáveis EFI NVRAM serão redefinidas se a instância for interrompida ou encerrada. Consulte a documentação das instâncias Mac do EC2 para obter mais informações.

P: É possível usar o FileVault para criptografar o volume de inicialização do Amazon Elastic Block Store (Amazon EBS) nas instâncias Mac do EC2?

O FileVault requer um login antes de inicializar no macOS e antes que o acesso remoto possa ser habilitado. Se o FileVault estiver habilitado, você perderá o acesso aos seus dados no volume de inicialização ao reiniciar, parar ou encerrar a instância. Recomendamos enfaticamente que você não ative o FileVault. Em vez disso, recomendamos o uso da criptografia EBS da Amazon tanto para volumes de inicialização quanto de dados EBS em instâncias Mac do EC2.

P: É possível acessar a entrada ou saída de áudio de um microfone em uma instância Mac do EC2?

Não há acesso à entrada do microfone em uma instância Mac do EC2 Mac. O servidor Apple Remote Desktop VNC incorporado não é compatível com saídas de áudio. Software de área de trabalho remota de terceiros, como o Teradici CAS, é compatível com áudio remoto no macOS.

P: Quais imagens de máquina da Amazon (AMIs) baseadas em macOS estão disponíveis para as instâncias Mac do EC2?

As instâncias Mac do EC2 utilizam o hardware físico do Mac mini para executar o macOS. O hardware da Apple é compatível apenas com a versão do macOS fornecida com o hardware (ou posterior). As instâncias Mac do EC2 baseadas em x86 utilizam o Mac mini Intel Core i7 de 2018, o que significa que o macOS Mojave (10.14.x) é o mais "antigo" possível, já que o Mac mini de 2018 é fornecido com o Mojave. As instâncias M1 Mac do EC2 utilizam o 2020 M1 Mac mini, que é acompanhado do macOS Big Sur (11.x). As instâncias EC2 M2 e M2 Pro Mac usam os Mac Minis 2023 M2 e M2 Pro, respectivamente, fornecidos com o macOS Ventura (13.2). Para ver quais versões mais recentes do macOS estão disponíveis como AMIs Mac do EC2, acesse a documentação.

P: Como é possível executar versões mais antigas do macOS em instâncias Mac do EC2?

As instâncias do EC2 Mac são instâncias bare metal e não utilizam o Hipervisor Nitro. Você pode instalar e executar uma camada de virtualização tipo 2 em instâncias Mac do EC2 baseadas em x86 para ter acesso ao macOS High Sierra, Sierra ou versões mais antigas do macOS. Nas instâncias M1 Mac do EC2, como macOS Big Sur é a primeira versão do macOS compatível com Apple Silicon, as versões mais antigas do macOS não funcionarão mesmo sob virtualização.

P: Como é possível executar as versões beta ou de demonstração do macOS em instâncias Mac do EC2?

A instalação das versões beta ou prévia do macOS só está disponível nas instâncias EC2 Mac baseadas em Apple Silicon. O Amazon EC2 não qualifica as versões beta ou prévia do macOS e não garante que as instâncias permaneçam funcionais após uma atualização para uma versão de pré-produção do macOS.

P: Como é possível usar dados do usuário do EC2 com instâncias Mac do EC2?

Como nas instâncias Linux e Windows do EC2, é possível passar dados de usuários personalizados para instâncias Mac do EC2. Em vez de usar cloud-init, as instâncias Mac do EC2 usam um daemon de execução de código aberto: ec2-macos-init. Você pode passar esses dados para o EC2 Launch Wizard como texto simples, como um arquivo ou como texto codificado em base64.

P: Como instalar o Xcode em uma instância Mac do EC2?

A AWS fornece AMIs macOS básicas sem instalação prévia do Xcode IDE. Você pode instalar o Xcode (e aceitar o EULA) exatamente como faria em qualquer outro sistema macOS. Você pode instalar o mais recente Xcode IDE da App Store, ou versões anteriores do Xcode a partir do site Apple Developer. Uma vez que você tenha o Xcode instalado, recomendamos a criação de um snapshot de sua AMI para uso futuro.

P: Qual a cadência de versões de AMIs macOS?

Disponibilizamos novas AMIs macOS da melhor maneira possível. Você pode assinar as notificações SNS para receber atualizações. Estamos visando 30 a 60 dias após uma atualização da versão menor do macOS e 90 a 120 dias após uma atualização da versão maior do macOS para lançar as AMIs macOS oficiais.

P: Quais agentes e pacotes estão incluídos nas AMIs macOS do EC2?

Os seguintes agentes e pacotes estão incluídos por padrão nas AMIs macOS do EC2:

  • ENA Driver para macOS
  • AWS CLI
  • EC2-macos-init
  • Agente do Amazon CloudWatch
  • Chrony
  • Homebrew
  • Agente do AWS Systems Manager

P: É possível atualizar os atendentes e pacotes incluídos nas AMIs macOS?

Existe um repositório público do GitHub da derivação do Homebrew para todos os atendentes e pacotes adicionados à imagem base do macOS. Você pode usar o Homebrew para instalar as versões mais recentes de atendentes e pacotes em instâncias macOS.

P: É possível aplicar atualizações de SO e software nas instâncias Mac diretamente dos Servidores de atualização da Apple?

As atualizações automáticas de software do macOS estão desativadas nas instâncias Mac do EC2. Recomendamos o uso de nossas AMIs macOS comercializadas oficialmente para lançar a versão do macOS de que você precisa. Em instâncias Mac do EC2 baseadas em x86 e todas da Apple Silicon, você pode atualizar a versão do macOS através do painel de preferências de atualização de software ou através do comando da CLI de atualização de software. Em ambas as instâncias Mac do EC2, você pode instalar e atualizar aplicações e qualquer outro software de espaço do usuário.

P: Como conectar-se a uma instância Mac do EC2 sobre SSH?

Após lançar sua instância e receber uma identificação de instância, você pode usar o comando a seguir para pesquisar a instância e determinar quando ela está pronta para o acesso SSH. A conexão sobre SSH com instâncias Mac do EC2 segue o mesmo processo que a conexão com outras instâncias do EC2, tais como as que executam Linux ou Windows. Para dar suporte à conexão com sua instância usando SSH, lance a instância usando um par de chaves e um grupo de segurança que permita o acesso SSH. Forneça o arquivo .pem para o par de chaves ao se conectar com a instância. Para obter mais informações, consulte a documentação.

P: Como conectar-se a uma instância Mac do EC2 sobre VNC?

O macOS tem incorporada a funcionalidade de Compartilhamento de tela, que está desabilitada por padrão, mas pode ser habilitada e usada para conectar a uma sessão gráfica (Desktop) de sua instância Mac do EC2. Para obter mais informações sobre como habilitar o Compartilhamento de tela integrado, consulte a documentação.

P: Como conectar-se a uma instância Mac do EC2 usando o Gerenciador de Sessões do AWS Systems Manager?

Você pode se conectar às suas instâncias Mac do EC2 com o Gerenciador de Sessões do AWS Systems Manager (SSM). O Session Manager é um recurso totalmente gerenciado pelo AWS Systems Manager que proporciona um gerenciamento de instância seguro e auditável. Ele elimina a necessidade de manter portas de entrada abertas, manter bastion hosts ou gerenciar chaves SSH. O Agente SSM é pré-instalado por padrão em todas as AMIs macOS do EC2. Para obter mais informações, consulte este blog.

P: Quantos volumes do Amazon EBS e interfaces de rede elásticas (ENIs) são aceitas pelas instâncias Mac do EC2?

As instâncias Mac do EC2 baseadas em x86 aceitam 16 volumes EBS e 8 anexos ENI, e as instâncias M1 Mac EC2 aceitam até 10 volumes EBS e 8 anexos ENI.

P: As instâncias Mac do EC2 são compatíveis com EBS?

As instâncias Mac do EC2 são otimizadas para EBS por padrão e oferecem até 8 Gbps de largura de banda dedicada para volumes do EBS criptografados e não criptografados.

P: As instâncias Mac do EC2 são compatíveis com inicialização no armazenamento local?

As instâncias Mac do EC2 só podem ser inicializadas a partir de AMIs macOS com suporte do EBS. O SSD interno do Mac mini está presente no Disk Utility, mas não é inicializável.

P: As instâncias Mac do EC2 são compatíveis com o Amazon FSx?

Sim. As instâncias Mac do EC2 são compatíveis com o FSx usando o protocolo SMB. Você precisará inscrever a instância Mac do EC2 em um serviço de diretório compatível (como o Active Directory ou o AWS Directory Service) para habilitar o FSx nas instâncias Mac do EC2. Para obter mais informações sobre FSx, acesse a página do produto.

P: As instâncias Mac do EC2 são compatíveis com o Amazon Elastic File System (Amazon EFS)?

Sim, as instâncias Mac do EC2 são compatíveis com EFS sobre o protocolo NFSv4. Para obter mais informações sobre o EFS, acesse a página do produto.

Suporte para Nitro System na geração anterior

P: O que é o suporte para Nitro System para instâncias de geração mais antiga?

O AWS Nitro System agora fornecerá seus componentes modernos de hardware e software para instâncias do EC2 de geração anterior para estender a duração do serviço além da vida útil típica do hardware subjacente. Com o suporte para Nitro System, os clientes podem continuar executando suas workloads e aplicações nas famílias de instâncias em que foram criadas.

P: Quais instâncias da geração anterior receberão suporte para Nitro System e em que prazo?

Habilitamos o suporte do sistema Nitro para instâncias Amazon EC2 C1, M1, M2, C3, M3, R3, C4 e M4. Os clientes dessas instâncias receberão uma notificação de manutenção de migração para o Nitro System. Adicionaremos suporte para outros tipos de instância em 2023.

P: Quais ações preciso executar para migrar minhas instâncias de geração anterior existentes?

Os clientes não precisam executar nenhuma ação para migrar instâncias ativas de geração anterior executadas em hardware de geração anterior. Para instâncias que estão em hardware de geração mais antiga, cada ID de conta de cliente mapeado para instâncias receberá uma notificação por e-mail duas semanas antes da manutenção programada.

Semelhante aos nossos eventos típicos de manutenção, os clientes terão a opção de reagendar sua manutenção quantas vezes forem necessárias dentro de duas semanas adicionais a partir do horário da manutenção programada original.

P: O que acontecerá se a instância for interrompida e iniciada antes ou durante a janela de manutenção programada?

A interrupção/inicialização de uma instância durante a janela de manutenção programada migrará a instância para um novo host e a instância não precisará passar pela manutenção programada. A interrupção/inicialização pode resultar na migração da instância do cliente para que seja compatível com o AWS Nitro System. Observe que os dados em nenhum volume local de armazenamento de instâncias não serão preservados quando você parar e iniciar a instância. Clique aqui para obter mais informações sobre a interrupção/inicialização.

P: O que acontecerá com minha instância durante esse evento de manutenção?

Trabalharemos em conjunto com o cliente como parte de nosso processo de manutenção padrão da AWS. Várias equipes da AWS já migraram e estão executando instâncias de geração anterior em hardware Nitro. Durante a manutenção, a instância será reinicializada, o que pode levar até 30 minutos, dependendo do tamanho e dos atributos da instância. Por exemplo: instâncias com disco local demoram mais para migrar do que instâncias sem disco local. Após a reinicialização, sua instância mantém o endereço IP, nome DNS e todos os dados nos volumes de armazenamento de instância local.

P: Preciso recriarr/recertificar workloads para serem executadas em instâncias de geração anterior migradas para o AWS Nitro System?

Não, os clientes não precisam recriar/recertificar workloads em instâncias de geração anterior migradas para o AWS Nitro System.

P: Haverá alguma alteração nas especificações da minha instância após a migração para o AWS Nitro System?

Não haverá alteração na especificação de instâncias de geração anterior quando as instâncias forem migradas para o AWS Nitro System.

P: Todos os atributos e AMIs em minhas instâncias de geração anterior terão suporte como parte desta migração?

Sim, todos os atributos e AMIs existentes com suporte em instâncias de geração anterior terão suporte à medida que migramos essas instâncias para o AWS Nitro System. 

P: Haverá alterações nos preços e no faturamento quando as instâncias da geração anterior forem migradas para o AWS Nitro System?

Não haverá alteração no faturamento e nos preços. Continuaremos a oferecer suporte aos mesmos modelos de preços que oferecemos hoje para as instâncias da geração anterior (On-Demand, Instância reservada de 1 ano/3 anos, Savings Plan, Spot).

 

Confira recursos adicionais relacionados a produtos

Há muitos recursos que podem ajudá-lo a aprender a criar com o Amazon EC2.

Saiba mais 
Cadastre-se para obter uma conta gratuita

Obtenha acesso instantâneo ao nível gratuito da AWS. 

Cadastrar-se 
Comece a criar no console

Comece a criar com o Amazon EC2 no Console de Gerenciamento da AWS.

Comece a usar