Perguntas frequentes gerais do S3

P: O que é o Amazon S3?

O Amazon S3 é um armazenamento de objetos desenvolvido para armazenar e recuperar qualquer quantidade de dados de qualquer local. Trata-se de um serviço de armazenamento simples que oferece durabilidade, disponibilidade, performance, segurança e, praticamente, escalabilidade ilimitada líderes do setor a um custo muito baixo.

P: O que posso fazer com o Amazon S3?

O Amazon S3 disponibiliza uma interface de serviço da Web simples que pode ser usada para armazenar e recuperar qualquer quantidade de dados, a qualquer momento, de qualquer lugar. Usando esse serviço, você pode criar facilmente aplicações que fazem uso de armazenamento nativo em nuvem. Como o Amazon S3 é altamente escalável e você só paga pelo que usa, é possível começar com uma aplicação pequena e expandi-la da forma desejada, sem comprometer a performance ou a confiabilidade.

O Amazon S3 também foi concebido para ser altamente flexível. Armazene qualquer tipo ou volume de dados que você necessite, leia a mesma porção de dados um milhão de vezes ou apenas para a recuperação de desastres em casos de emergência, crie uma aplicação FTP simples ou um aplicativo da Web avançado semelhante ao site de vendas da Amazon.com. O Amazon S3 permite que os desenvolvedores se concentrem na inovação e não em descobrir como armazenar dados.

P: Como posso começar a usar o Amazon S3?

Para cadastrar-se no Amazon S3, clique neste link. É necessário ter uma conta da Amazon Web Services para acessar esse serviço. Se você não tiver uma conta, terá de criar uma ao iniciar o processo de cadastramento do Amazon S3. Após o cadastramento, consulte a documentação do Amazon S3 e o código de exemplo na Central de recursos para começar a utilizar o Amazon S3.

P: O que os desenvolvedores podem fazer com o Amazon S3 que seria impossível fazer em uma solução no local?

O Amazon S3 permite que qualquer desenvolvedor aproveite os próprios benefícios de escala massiva da Amazon sem investimentos ou compromissos de performance iniciais. Agora, os desenvolvedores têm a liberdade de se concentrar na inovação sabendo que, não importando a dimensão do sucesso dos seus negócios, será econômico e simples garantir que seus dados sejam acessados rapidamente e estejam sempre disponíveis e seguros.

P: Quais tipos de dados eu posso armazenar no Amazon S3?

Você pode armazenar praticamente qualquer tipo de dados em qualquer formato. Consulte o Acordo de licenciamento da Amazon Web Services para obter mais detalhes.

P: Qual quantidade de dados é possível armazenar no Amazon S3?

O volume total de dados e o número de objetos que você pode armazenar são ilimitados. Objetos individuais do Amazon S3 podem variar em tamanho, desde um mínimo de 0 byte até um máximo de 5 terabytes. O tamanho do maior objeto que pode ser carregado em um único PUT é 5 gigabytes. Para objetos maiores do que 100 megabytes, os clientes devem considerar utilizar o recurso de multipart upload.

P: Quais categorias de armazenamento o Amazon S3 oferece?

O Amazon S3 oferece uma ampla variedade de classes de armazenamento para diferentes casos de uso. Elas incluem S3 Standard, para armazenamento geral de dados acessados com frequência, S3 Intelligent-Tiering, para dados com padrões de acesso desconhecidos ou variáveis, S3 Standard-Infrequent Access (S3 Standard – IA) e S3 One Zone-Infrequent Access (S3 One Zone – IA) para dados duradouros acessados com menos frequência e Amazon S3 Glacier (S3 Glacier) e Amazon S3 Glacier Deep Archive (S3 Glacier Deep Archive) para preservação digital e arquivamento de longo prazo. Se você tiver requisitos de residência de dados que não possam ser atendidos por uma região da AWS existente, poderá usar a classe de armazenamento S3 Outposts para armazenar seus dados do S3 on-premises. Saiba mais sobre essas classes de armazenamento na página Classes de armazenamento do Amazon S3

P: Posso ter um bucket com objetos diferentes em classes de armazenamento distintas?

Sim, você pode ter um bucket do S3 com diferentes objetos armazenados no S3 Standard, S3 Intelligent-Tiering, S3 Standard – IA e S3 One Zone – IA.

P: O que a Amazon faz com meus dados no Amazon S3?

A Amazon armazenará os dados e controlará o uso associado para efeitos de cobrança. A Amazon não acessará seus dados para nenhuma outra finalidade que não seja a da oferta do Amazon S3, exceto quando exigido por lei. Consulte o Acordo de licenciamento da Amazon Web Services para obter mais detalhes.

P: A Amazon armazena seus próprios dados no Amazon S3?

Sim. Os desenvolvedores internos da Amazon usam o Amazon S3 em uma ampla variedade de projetos. Muitos desses projetos utilizam o Amazon S3 como datastore principal, usado para operações essenciais aos negócios.

P: Como os dados do Amazon S3 são organizados?

O Amazon S3 é um simples depósito de objetos com base em chave. Ao armazenar os dados, você atribui uma chave de objeto exclusiva que posteriormente pode ser usada para recuperar os dados. As chaves podem ser qualquer string, e podem ser construídas para imitar atributos hierárquicos. Como alternativa, você pode usar o S3 Object Tagging para organizar dados em todos os buckets e/ou prefixos do S3.

P: Qual interface devo usar com o Amazon S3?

O Amazon S3 disponibiliza uma interface REST de web services simples baseada em padrões, criada para trabalhar com qualquer toolkit de desenvolvimento da Internet. As operações são intencionalmente simples para facilitar a adição de novos protocolos de distribuição e camadas funcionais.

P: Qual a confiabilidade do Amazon S3?

O Amazon S3 concede a todos os desenvolvedores o acesso para a mesma infraestrutura de armazenamento de dados altamente escalável, disponível, rápida e econômica usada pela Amazon para operar a sua própria rede global de sites. As classes de armazenamento S3 Standard, S3 Standard – IA e S3 Intelligent-Tiering foram projetadas para oferecer 99,99%, a classe de armazenamento S3 One Zone – IA foi projetada para oferecer 99,5% de disponibilidade, e as classes S3 Glacier e S3 Glacier Deep Archive foram projetadas para oferecer 99,99% de disponibilidade e SLA de 99,9%. Todas essas classes de armazenamento são amparadas pelo Acordo de Nível de Serviço do Amazon S3.

P: Qual será a performance do Amazon S3 durante picos súbitos de tráfego de um aplicativo?

Desde o início, o Amazon S3 foi projetado para lidar com o tráfego para qualquer aplicativo de Internet. Os preços com pagamento conforme o uso e a capacidade ilimitada garantem que seus custos incrementais não mudem e que seu serviço não seja interrompido. A escala massiva do Amazon S3 nos permite distribuir a carga uniformemente, para que nenhum aplicativo individual seja afetado por picos de tráfego.

P: O Amazon S3 oferece um Acordo de nível de serviço (SLA)?

Sim. O SLA do Amazon S3 oferecerá um crédito de serviço se a porcentagem de tempo de atividade mensal do cliente ficar abaixo do nosso compromisso de serviço em qualquer ciclo de faturamento.

P: Qual é o modelo de consistência do Amazon S3?

O Amazon S3 oferece automaticamente uma forte consistência de leitura após gravação, sem alterações no desempenho ou na disponibilidade, sem sacrificar o isolamento regional das aplicações e sem custo adicional.

Após uma gravação bem-sucedida de um novo objeto ou uma substituição de um objeto existente, qualquer solicitação de leitura subsequente recebe imediatamente a versão mais recente do objeto. O S3 também fornece uma consistência forte para operações de lista. Dessa maneira, após uma gravação, você pode executar imediatamente uma listagem dos objetos em um bucket com todas as alterações refletidas.

P: Por que a consistência forte de leitura após gravação me ajuda?

A consistência forte de leitura após gravação ajuda quando é necessário ler imediatamente um objeto após a gravação. Por exemplo, uma consistência forte de leitura após gravação quando você normalmente lê e lista logo depois de gravar os objetos. As cargas de trabalho computacionais com alto desempenho também se beneficiam quando um objeto é substituído e lidos muitas vezes simultaneamente. A consistência forte de leitura após gravação assegura que a gravação mais recente seja lida em todas as leituras. Essas aplicações se beneficiam automática e imediatamente com a consistência forte de leitura após gravação. A consistência forte do S3 também reduz os custos acabando com a necessidade de uma infraestrutura extra para fornecer tal consistência.  

Regiões da AWS

P: Onde meus dados são armazenados?

Você especifica uma região da AWS ao criar um bucket no Amazon S3. Nas classes de armazenamento S3 Standard, S3 Standard-IA e S3 Glacier, os objetos são armazenados automaticamente em vários dispositivos que abrangem no mínimo três zonas de disponibilidade, separadas entre si por quilômetros, dentro de uma região da AWS. Os objetos armazenados na classe de armazenamento S3 One Zone-IA são armazenados com redundância em uma única zona de disponibilidade na região da AWS selecionada. Para S3 on Outposts, seus dados são armazenados em seu ambiente do Outpost local, a menos que você opte manualmente por transferi-los para uma região da AWS. Consulte Produtos e serviços regionais para obter detalhes sobre a disponibilidade do serviço Amazon S3 por região da AWS.

P: O que é uma região da AWS?

Uma região da AWS é uma localização geográfica em que a AWS oferece várias zonas de disponibilidade, separadas e isoladas fisicamente, e conectadas por redes altamente redundantes com baixa latência e alto throughput.

P: O que é uma zona de disponibilidade (AZ) da AWS?

Uma zona de disponibilidade da AWS é uma localização isolada fisicamente em uma região da AWS. Em cada região da AWS, o S3 opera em no mínimo três AZs, separadas por quilômetros para oferecer proteção contra incidentes como incêndios, inundações etc.

As classes de armazenamento Amazon S3 Standard, S3 Standard – Infrequent Access e S3 Glacier replicam dados em no mínimo três zonas de disponibilidade para oferecer proteção contra a perda de uma zona de disponibilidade inteira. Essa proteção continua válida em regiões com menos de três AZs disponíveis para o público. Os objetos armazenados nessas classes de armazenamento estão disponíveis para acesso em todas as zonas de disponibilidade de uma região da AWS.

A classe de armazenamento Amazon S3 One Zone – IA replica dados em uma única zona de disponibilidade. Os dados armazenados no S3 One Zone – IA não são resilientes à perda física de uma zona de disponibilidade resultante de desastres, como terremotos e inundações.

P: Como faço para decidir em que região da AWS meus dados serão armazenados?

Há vários fatores a serem considerados com base em seu aplicativo específico. Você pode desejar armazenar os dados em uma região que...

  • ... esteja próxima aos seus clientes, seus Datacenters ou outros recursos da AWS para reduzir latências de acesso de dados.
  • ... seja afastada de suas outras operações para fins de recuperação de desastres e redundância geográfica.
  • ... permita que requisitos específicos, legais e normativos, sejam atendidos.
  • ... permita que você reduza custos de armazenamento. Você pode optar por uma região de custo mais acessível para economizar. Para obter informações sobre a definição de preço do S3, acesse a página de definição de preços do S3.

P: Em que partes do mundo o Amazon S3 está disponível?

O Amazon S3 está disponível em regiões da AWS em todo o mundo, e pode ser usado independentemente de onde você esteja. Basta decidir em que regiões da AWS você quer armazenar os dados do Amazon S3. Consulte a Tabela de disponibilidade regional da AWS para ver uma lista das regiões da AWS em que o S3 está disponível no momento.

Faturamento

P: Qual é o custo do Amazon S3?

Com o Amazon S3, pague somente pelo que for usado. Não há cobrança mínima. Você pode estimar sua fatura mensal usando a Calculadora de preços da AWS.

Cobramos menos onde nossos custos são menores. Alguns preços variam entre as regiões do Amazon S3. Os preços cobrados são baseados na localização do bucket do S3. Não há cobrança de transferência de dados para dados transferidos dentro de uma região do Amazon S3 por meio de uma solicitação COPY. Os dados transferidos por solicitação COPY entre as regiões da AWS são cobrados de acordo com as taxas especificadas na seção de preços na página de detalhes do Amazon S3. Não há cobrança de transferência de dados para dados transferidos entre o Amazon EC2 (ou qualquer produto da AWS) e o Amazon S3 dentro da mesma região como, por exemplo, dados transferidos dentro da região Leste dos EUA (Norte da Virgínia). No entanto, os dados transferidos entre o Amazon EC2 (ou qualquer serviço da AWS) e o Amazon S3 em todas as outras regiões são cobrados de acordo com as taxas especificadas na página de preços do Amazon S3, como dados transferidos entre o Amazon EC2 na região Leste dos EUA (Norte da Virgínia) e o Amazon S3 na região Oeste dos EUA (Norte da Califórnia). Para saber o preço do S3 on Outposts, visite a página de preços do Outposts.

P: Como serei cobrado e faturado pela utilização do Amazon S3?

Não há taxas de instalação ou confirmações para começar a usar o serviço. No final do mês, você receberá a cobrança automática referente ao uso daquele mês. Você pode visualizar suas taxas do período de cobrança atual a qualquer momento no site da Amazon Web Services. Para isso, faça o login na sua conta da Amazon Web Services e clique no “console Billing and Cost Management” (Gerenciamento de faturamento e custos), em “'Your Web Services Account” (Sua conta de serviços na Web).”

Com o Nível de uso gratuito da AWS*, você pode começar a usar o Amazon S3 gratuitamente em todas as regiões, exceto nas regiões AWS GovCloud. Após o cadastro, novos clientes da AWS recebem 5 GB de armazenamento padrão do Amazon S3, 20.000 solicitações Get, 2.000 solicitações Put e 15 GB de transferência de dados para fora (para a Internet, outras regiões da AWS ou CloudFront) a cada mês, por um ano. A cota mensal não utilizada não será repassada para o mês seguinte.

O Amazon S3 cobra pelos tipos de uso a seguir. Observe que os cálculos abaixo presumem que não há nenhum nível gratuito da AWS em vigor.

Armazenamento utilizado:

Os preços do armazenamento do Amazon S3 estão resumidos na página de preços do Amazon S3.

O volume de armazenamento faturado em um mês baseia-se no armazenamento médio usado durante todo o mês. Isso inclui todos os dados do objeto e metadados armazenados em buckets que você criou em sua conta AWS. Medimos o uso do armazenamento em "TimedStorage-ByteHrs", que são somados no final do mês para gerar seus custos mensais.

Exemplo de armazenamento:

Suponha que você armazene 100 GB (107.374.182.400 bytes) de dados no armazenamento Amazon S3 Standard em um bucket durante 15 dias em março e 100 TB (109.951.162.777.600 bytes) de dados no armazenamento Amazon S3 Standard nos últimos 16 dias de março.

No fim de março, você teria a seguinte utilização em byte-horas: uso total de byte-horas = [107.374.182.400 bytes x 15 dias x (24 horas/dia)] + [109.951.162.777.600 bytes x 16 dias x (24 horas/dia)] = 42.259.901.212.262.400 byte-horas. Calcule as horas com base no número real de dias em um determinado mês. Por exemplo, em nosso exemplo, estamos usando março, que tem 31 dias ou 744 horas.

Vamos converter isso para GB-meses: 42.259.901.212.262.400 byte-horas/1.073.741.824 bytes por GB/744 horas por mês = 52.900 GB-meses

Este volume de utilização alcança dois níveis diferentes de volume. O preço de armazenamento mensal é calculado abaixo, presumindo que os dados sejam armazenados na região Leste dos EUA (Norte da Virgínia): nível de 50 TB: 51.200 GB x 0,023 USD = 1.177,60 USD. Do nível de 50 TB até 450 TB: 1.700 GB x 0,022 USD = 37,40 USD

Taxa de armazenamento total = 1.177,60 USD + 37,40 USD = 1.215 USD

Dados de rede transferidos internamente:

Os preços de transferência de dados para o Amazon S3 estão resumidas na página de preços do Amazon S3. Isso representa a quantidade de dados enviados para seus buckets do Amazon S3. 

Dados de rede transferidos externamente:

Os preços de transferência de dados para fora do Amazon S3 estão resumidos na página de preços do Amazon S3. Para o Amazon S3, essa cobrança se aplica sempre que houver leitura dos dados de qualquer um dos seus buckets de um local fora de uma determinada região do Amazon S3.

Os níveis de taxa para definição de preços de transferência de dados para fora levam em conta sua transferência agregada de dados para fora do Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS e Amazon VPC de uma determinada região para a Internet. Esses níveis não se aplicam à transferência de dados para fora do Amazon S3 em uma região da AWS para outra região da AWS.

Exemplo de transferência de dados para fora:
Suponha que você transfira 1 TB de dados do Amazon S3 da Região Leste dos EUA (Norte da Virgínia) para a Internet todos os dias em um determinado mês de 31 dias. Suponha também que você transfira 1 TB de dados de uma instância do Amazon EC2 da mesma região para a Internet durante o mesmo mês de 31 dias.

A sua transferência de dados agregados seria de 62 TB (31 TB do Amazon S3 e 31 TB do Amazon EC2). Isso totaliza 63.488 GB (62 TB * 1.024 GB/TB).

Este volume de utilização alcança três níveis diferentes de volume. A taxa de transferência de dados mensal calculada abaixo supõe que a transferência dos dados ocorre na Região Leste dos EUA (Norte da Virgínia):
Nível de 10 TB: 10.239 GB (10 x 1.024 GB/TB – 1 [gratuito]) x 0,09 USD = 921,51 USD
Nível de 10 TB até 50 TB: 40.960 GB (40 x 1.024) x 0,085 USD = 3.481,60 USD
Nível de 50 TB até 150 TB: 12.288 GB (restante) x 0,070 USD = 860,16 USD

Taxa de transferência para fora total = 921,51 USD + 3.481,60 USD + 860,16 USD = 5.263,27 USD

Solicitações de dados:

Os preços de solicitações do Amazon S3 estão resumidos no Gráfico de preços do Amazon S3.

Exemplo de solicitação:
Suponha que você transfira 10.000 arquivos para o Amazon S3 e transfira 20.000 arquivos para fora do Amazon S3 diariamente durante o mês de março. Em seguida, você exclui 5.000 arquivos no dia 31 de março.
Total de solicitações PUT = 10.000 solicitações x 31 dias = 310.000 solicitações
Total de solicitações GET = 20.000 solicitações x 31 dias = 620.000 solicitações
Total de solicitações DELETE = 5.000 solicitações x 1 dia = 5.000 solicitações

Supondo que seu bucket esteja na Região Leste dos EUA (Norte da Virgínia), as taxas de solicitações são calculadas conforme as definições abaixo:
310.000 solicitações PUT: 310.000 solicitações x 0,005/1.000 USD = 1,55 USD
620.000 solicitações GET: 620.000 solicitações x 0,004/10.000 USD = 0,25 USD
5.000 solicitações DELETE = 5.000 solicitações x 0,00 USD (sem custo) = 0,00 USD

Recuperação de dados:

Os preços de recuperação de dados do Amazon S3 se aplicam às classes de armazenamento S3 Standard – Infrequent Access (S3 Standard – IA) e S3 One Zone – IA e está resumida na página de preços do Amazon S3.

Exemplo de recuperação de dados:
Suponha que em um mês você recupere 300 GB da classe S3 Standard-IA, com 100 GB enviados para a Internet, 100 GB enviados para o EC2 na mesma região da AWS e 100 GB enviados para o CloudFront na mesma região da AWS.

Sua taxa de recuperação de dados para esse mês seria calculada como 300 GB x 0,01 USD/GB = 3,00 USD. Observe que você também pagaria pelas taxas de transferência de dados na rede para a porção enviada para a Internet.

Consulte aqui os detalhes sobre a cobrança de objetos arquivados no Amazon S3 Glacier.

* * Seu uso do nível gratuito é calculado a cada mês em todas as regiões, exceto na região AWS GovCloud, e é aplicado automaticamente à sua fatura. O uso mensal não utilizado não é acumulado para o próximo mês. Há restrições. Consulte as condições da oferta para obter mais detalhes.

P: Por que os preços variam dependendo da região do Amazon S3 escolhida?

Cobramos menos onde nossos custos são menores. Por exemplo, nossos custos são mais baixos na Região Leste dos EUA (Norte da Virgínia) do que na Região Oeste dos EUA (Norte da Califórnia).

P: Como sou cobrado pelo uso do versionamento?

Taxas normais do Amazon S3 se aplicam a todas as versões de um objeto armazenado ou solicitado. Por exemplo, observemos o cenário a seguir para ilustrar os custos de armazenamento ao usar o versionamento (vamos supor que o mês atual tenha 31 dias):

1) Dia 1º do mês: você realiza uma operação PUT de 4 GB (4.294.967.296 bytes) em seu bucket.
2) Dia 16 do mês: você realiza uma operação PUT de 5 GB (5.368.709.120 bytes) dentro do mesmo bucket usando a mesma chave que a da operação PUT original no Dia 1º.

Ao analisar os custos de armazenamento das operações acima, observe que o objeto de 4 GB do Dia 1º não foi excluído do bucket quando o objeto de 5 GB foi gravado no Dia 15. Em vez disso, o objeto de 4 GB é preservado como uma versão mais antiga e o objeto de 5 GB se torna a versão mais recentemente gravada do objeto dentro de seu bucket. Ao final do mês:

Utilização total de byte-horas
[4.294.967.296 bytes x 31 dias x (24 horas/dia)] + [5.368.709.120 bytes x 16 dias x (24 horas/dia)] = 5.257.039.970.304 byte-horas.

Conversão para total de GB-meses
5.257.039.970.304 byte-horas x (1 GB/1.073.741.824 bytes) x (1 mês/744 horas) = 6,581 GB-mês

O custo é calculado com base nas taxas atuais da região na página de preços do Amazon S3.

P: Como sou cobrado pelo acesso ao Amazon S3 por meio do Console de Gerenciamento da AWS?

O preço normal do Amazon S3 se aplica ao acessar o serviço por meio do Console de Gerenciamento da AWS. Para fornecer uma experiência otimizada, o Console de Gerenciamento da AWS pode executar solicitações proativamente. Além disso, algumas operações interativas resultam em mais de uma solicitação para o serviço.

P: Como sou cobrado por buckets do Amazon S3 acessados de outra conta da AWS?

A definição de preço normal do Amazon S3 é aplicada quando o armazenamento é acessado por outra conta da AWS. Como alternativa, você pode optar por configurar um bucket como Pagamento pelo solicitante. Nesse caso, o solicitante pagará o custo das solicitações e dos downloads dos seus dados do Amazon S3.

Você pode encontrar mais informações sobre as configurações de Pagamento pelo solicitante para buckets na documentação do Amazon S3.

P: Os preços incluem impostos?

Salvo indicação em contrário, nossos preços excluem impostos e taxas aplicáveis, incluindo o IVA e o imposto sobre vendas aplicável. Para clientes com endereço de pagamento no Japão, o uso da AWS está sujeito ao imposto sobre consumo japonês.

Saiba mais sobre as taxas dos serviços da AWS »

Amazon S3 e IPv6

P: O que é o IPv6?

Cada servidor e dispositivo conectado à Internet deve ter um endereço exclusivo. O Internet Protocol Version 4 (IPv4) foi o esquema de endereçamento de 32 bits original. No entanto, o crescimento contínuo da Internet implica que todos os endereços IPv4 disponíveis serão utilizados com o passar do tempo. O Internet Protocol Version 6 (IPv6) é um mecanismo de endereçamento criado para superar as limitações de endereço global do IPv4.

P: O que posso fazer com o IPv6?

Usando o suporte do Amazon S3 ao IPv6, os aplicativos podem conectar-se ao Amazon S3 sem precisar de nenhum software ou sistema de conversão de IPv6 para IPv4. Você pode atender aos requisitos de conformidade, integrar-se mais facilmente a aplicações locais baseadas em IPv6 atuais e eliminar a necessidade de adquirir equipamentos de redes dispendiosos para realizar a conversão de endereço. Agora, também é possível usar os recursos de filtragem de endereços de origem atuais nas políticas do IAM e de bucket com endereços IPv6, aumentando suas opções para proteger aplicativos que interagem com o Amazon S3.

P: Como posso começar a usar o IPv6 no Amazon S3?

Você pode começar a usá-lo ao direcionar sua aplicação para o novo endpoint "dual-stack" do Amazon S3 compatível com acesso via IPv4 e IPv6. Na maioria dos casos, não é exigida nenhuma configuração adicional para o acesso via IPv6, pois a maioria dos clientes de rede preferem endereços IPv6 como padrão. As aplicações afetadas pelo uso do IPv6 podem voltar para os endpoints padrão somente com IPv4 a qualquer instante. O IPv6 com Amazon S3 é compatível com todas as regiões comerciais da AWS, incluindo as regiões AWS GovCoud (EUA), região China (Pequim) da Amazon Web Services, operada pela Sinnet e região China (Ningxia) da Amazon Web Services, operada pela NWCD. 

P: Devo esperar alguma alteração na performance do Amazon S3 ao usar o IPv6?

Não. Você obterá a mesma performance ao usar o IPv4 ou o IPv6 com o Amazon S3.

Notificação de eventos

P: O que são as notificações de eventos do Amazon S3?

As notificações de eventos do Amazon S3 podem ser enviadas como resposta a ações no Amazon S3, como operações PUT, POST, COPY ou DELETE. Mensagens de notificação podem ser enviadas por meio do Amazon SNS, do Amazon SQS ou diretamente ao AWS Lambda.

P: O que posso fazer com as notificações de eventos do Amazon S3?

As notificações de eventos do Amazon S3 permitem executar fluxos de trabalho, enviar alertas ou executar outras ações como resposta a alterações nos objetos armazenados no Amazon S3. Você pode usar as notificações de eventos do S3 para configurar triggers para executar ações como transcodificação de arquivos de mídia após o upload, processamento de arquivos de dados após a disponibilização e ainda sincronização de objetos do S3 com outros datastores. Você também pode definir notificações de eventos com base em prefixos e sufixos de nomes de objetos. Por exemplo, você pode optar por receber notificações sobre nomes de objetos que começam com “images/”.

P: O que é incluído em uma notificação de eventos do Amazon S3?

Para obter uma descrição detalhada das informações incluídas nas mensagens de notificações de eventos do Amazon S3, consulte o tópico Como configurar notificações de evento do Amazon S3 no Guia do desenvolvedor do Amazon S3.

P: Como faço para configurar as notificações de eventos do Amazon S3?

Para obter uma descrição detalhada sobre como configurar notificações de eventos, consulte o tópico Como configurar notificações de evento do Amazon S3 no Guia do desenvolvedor do Amazon S3. Você pode saber mais sobre os serviços de sistemas de mensagens da AWS na documentação do Amazon SNS e na documentação do Amazon SQS.

P: Quanto custa usar as notificações de eventos do Amazon S3?

Não há cobrança adicional do Amazon S3 para as notificações de eventos. Você paga apenas pelo uso do Amazon SNS ou do Amazon SQS para entregar as notificações de eventos, ou pelo custo de execução da função do AWS Lambda. Acesse as páginas de definição de preço do Amazon SNS, do Amazon SQS ou do AWS Lambda para visualizar os detalhes de preço desses serviços.

Amazon S3 Transfer Acceleration

P: O que é o S3 Transfer Acceleration?

O Amazon S3 Transfer Acceleration permite transferências de arquivos rápidas, fáceis e seguras em longas distâncias entre o seu cliente e o bucket do Amazon S3. O S3 Transfer Acceleration utiliza os pontos de presença da AWS do Amazon CloudFront distribuídos globalmente. Conforme os dados chegam no ponto de presença da AWS, eles são direcionados para o seu bucket do Amazon S3 por um caminho de rede otimizado.

P: Como faço para começar a usar o S3 Transfer Acceleration?

Para começar a usar o S3 Transfer Acceleration, habilite o S3 Transfer Acceleration em um bucket do S3 usando o console do Amazon S3, a API do Amazon S3 ou a ILC da AWS. Após habilitar o S3 Transfer Acceleration, você poderá direcionar suas solicitações PUT e GET do Amazon S3 para o nome de domínio do endpoint s3-accelerate. Seu aplicativo de transferência de dados deve usar um destes dois tipos de endpoint para acessar o bucket para transferência de dados mais rápida: .s3-accelerate.amazonaws.com ou .s3-accelerate.dualstack.amazonaws.com para o endpoint “dual-stack”. Se você desejar usar a transferência de dados padrão, é possível continuar a usar os endpoints normais.

Há algumas restrições sobre quais buckets oferecem suporte ao S3 Transfer Acceleration. Para obter detalhes, consulte o Guia do desenvolvedor do Amazon S3.

P: Qual a velocidade do S3 Transfer Acceleration?

O S3 Transfer Acceleration ajuda você a usar integralmente a largura de banda e a minimizar o impacto da distância na taxa de transferência. O recurso foi projetado para garantir que a transferência de dados para o Amazon S3 seja sempre rápida, independentemente da localização do seu cliente. A quantidade de aceleração depende principalmente da largura de banda disponível, da distância entre a origem e o destino e das taxas de perda de pacotes no caminho da rede. De modo geral, você verá uma maior aceleração quando a origem for mais distante do destino, quando houver maior largura de banda disponível e/ou o tamanho do objeto for maior.

Um cliente mediu uma redução de 50% em sua média de tempo de ingestão de arquivos de 300 MB de uma base de usuários global distribuída nos EUA, na Europa e em partes da Ásia para um bucket na região Ásia-Pacífico (Sydney). Outro cliente observou casos em que o desempenho teve uma melhora de mais de 500% para os usuários no Sudeste da Ásia e na Austrália que carregavam arquivos de 250 MB (divididos em partes de 50 MB) para um bucket do S3 na região Leste dos EUA (Norte da Virgínia).

Experimente a ferramenta de comparação de velocidade para visualizar os benefícios de performance para a sua localização.

P: Quem deveria usar o S3 Transfer Acceleration?

O S3 Transfer Acceleration foi projetado para otimizar as velocidades de transferência de qualquer local do mundo para os buckets do S3. Se você estiver fazendo upload de locais geograficamente dispersos para um bucket centralizado, ou se você transferir frequentemente gigabytes ou terabytes de dados entre vários continentes, poderá economizar horas ou dias de tempo de transferência de dados com o S3 Transfer Acceleration.

P: Qual o nível de segurança do S3 Transfer Acceleration?

O S3 Transfer Acceleration oferece a mesma segurança das transferências normais para o Amazon S3. Todos os recursos de segurança do Amazon S3, como a restrição de acesso com base no endereço IP de um cliente, são também oferecidos. O S3 Transfer Acceleration comunica-se com os clientes por meio do TCP padrão e não exige alterações de firewall. Nenhum dado é salvo nos pontos de presença da AWS.

P: E se o S3 Transfer Acceleration não for mais rápido que uma transferência normal do Amazon S3?

Toda vez que você usar o S3 Transfer Acceleration para fazer upload de um objeto, verificaremos se é provável que o S3 Transfer Acceleration seja mais rápido que uma transferência normal do Amazon S3. Se determinarmos que não é provável que o S3 Transfer Acceleration seja mais rápido que uma transferência normal do Amazon S3 para o mesmo objeto e a mesma região de destino da AWS, não cobraremos o uso do S3 Transfer Acceleration para essa transferência e poderemos ignorar o sistema do S3 Transfer Acceleration para esse upload.

P: Posso usar o S3 Transfer Acceleration com multipart uploads?

Sim, o S3 Transfer Acceleration oferece suporte a todos os recursos de bucket, inclusive multipart uploads.

P: Como devo escolher entre o S3 Transfer Acceleration e os comandos PUT/POST do Amazon CloudFront?

O S3 Transfer Acceleration otimiza o protocolo TCP e adiciona inteligência entre o cliente e o bucket do S3, o que faz do S3 Transfer Acceleration uma escolha melhor quando uma taxa de transferência mais alta é desejada. Caso você tenha objetos menores do que um 1 GB ou se o conjunto de dados for menor do que um 1 GB, considere o uso dos comandos PUT/POST do Amazon CloudFront para obter uma performance excepcional.

P: Como devo escolher entre o S3 Transfer Acceleration e a família do AWS Snow (Snowball, Snowball Edge e Snowmobile)?

A família do AWS Snow é ideal para clientes que transferem grandes lotes de dados de uma só vez. O AWS Snowball tem um tempo de retorno normal de cinco a sete dias. Como regra prática, o S3 Transfer Acceleration em uma linha de 1 Gbps totalmente utilizada pode transferir até 75 TB no mesmo período. Em geral, se o tempo de transferência pela Internet for superior a uma semana, ou quando houver tarefas de transferência recorrentes e mais de 25 Mbps de largura de banda disponível, o S3 Transfer Acceleration será uma boa opção. Também é possível usar as duas opções: execute as transferências pesadas com um AWS Snowball (ou uma série de AWS Snowballs). Em seguida, transfira as alterações incrementais contínuas com o S3 Transfer Acceleration.

P: O S3 Transfer Acceleration pode complementar o AWS Direct Connect?

O AWS Direct Connect é uma boa opção para clientes que exigem redes privadas ou que têm acesso às trocas do AWS Direct Connect. O S3 Transfer Acceleration é melhor para o envio de dados de locais de clientes distribuídos pela Internet pública, ou quando condições de rede variáveis diminuem a qualidade da taxa de transferência. Alguns clientes do AWS Direct Connect usam o S3 Transfer Acceleration para ajudar nas transferências para escritórios remotos, que podem ser prejudicadas por uma performance fraca da Internet.

P: O S3 Transfer Acceleration pode complementar o AWS Storage Gateway ou um gateway de terceiros?

Se for possível configurar o destino do bucket no gateway de terceiros para usar um nome de domínio do endpoint do S3 Transfer Acceleration, você perceberá o benefício.

Acesse a seção sobre arquivos das perguntas frequentes sobre o Storage Gateway para saber mais sobre a implementação do AWS.

P: O S3 Transfer Acceleration pode complementar um software integrado de terceiros?

Sim. Os pacotes de software que se conectam diretamente ao Amazon S3 podem aproveitar o S3 Transfer Acceleration quando enviam tarefas para o Amazon S3.

Saiba mais sobre as soluções de parceiros de armazenamento »

P: O S3 Transfer Acceleration é qualificado para a HIPAA?

Sim. A AWS expandiu seu programa de conformidade com a HIPAA para incluir o Amazon S3 Transfer Acceleration como um serviço qualificado para a HIPAA. Se você assinou um Business Associate Agreement (BAA – Acordo de associado comercial) com a AWS, poderá usar o Amazon S3 Transfer Acceleration para viabilizar transferências de arquivos de forma rápida, fácil e segura, incluindo Protected Health Information (PHI – Informações protegidas de saúde), por longas distâncias entre clientes e buckets do Amazon S3.

Saiba mais sobre a conformidade com a HIPAA »

Segurança

P: Como é a segurança dos dados no Amazon S3?     

O Amazon S3 é seguro por padrão. Somente os proprietários dos recursos do Amazon S3 têm acesso a esses recursos após sua criação. O Amazon S3 oferece suporte à autenticação de usuário para controlar o acesso aos dados. Você pode usar mecanismos de controle de acesso, como políticas de bucket e Access Control Lists (ACLs) para conceder seletivamente permissões para usuários e grupos de usuários. O console do Amazon S3 destaca os buckets com acesso público, indica a origem da capacidade de acesso público e avisa se alterações em políticas e ACLs do bucket disponibilizarão esse bucket para acesso público. Você deve habilitar a opção Block Public Access (Bloquear acesso público) para todas as contas e buckets que não deseja tornar publicamente acessíveis. 

Você pode fazer download/upload de dados de/para o Amazon S3 com segurança por meio de endpoints SSL usando o protocolo HTTPS. Se você precisar de mais segurança, poderá usar a opção de Server Side Encryption (SSE, Criptografia do lado do servidor) para criptografar dados armazenados em repouso. Você pode configurar os buckets do Amazon S3 para criptografar objetos automaticamente antes de armazená-los, caso as solicitações de armazenamento recebidas não tenham informações sobre criptografia. Como alternativa, é possível usar suas próprias bibliotecas de criptografia para criptografar dados antes de armazená-los no Amazon S3.

Para obter mais informações sobre segurança na AWS, consulte a página de segurança da AWS, e, para obter informações sobre segurança do S3, visite a página de segurança do S3 ou o guia de práticas recomendadas de segurança do S3.

P: Como posso controlar o acesso aos dados armazenados no Amazon S3?

Os clientes podem usar quatro mecanismos para controlar o acesso aos recursos do Amazon S3: políticas do Identity and Access Management (IAM), políticas de bucket, listas de controle de acesso (ACLs) e autenticação por string de consulta. O IAM permite que organizações com vários funcionários criem e gerenciem vários usuários em uma única conta da AWS. Com políticas do IAM, os clientes podem conceder aos usuários do IAM controle detalhado para objetos ou buckets do Amazon S3, mantendo também o controle total sobre tudo o que os usuários fazem. Com as políticas de bucket, os clientes podem definir regras que se aplicam amplamente a todas as solicitações para recursos do Amazon S3, como a concessão de privilégios de gravação para um subconjunto dos recursos do Amazon S3. Os clientes também podem restringir o acesso com base em aspectos da solicitação, tais como indicador HTTP e endereço IP. Com as ACLs, os clientes podem conceder permissões específicas (ou seja, READ, WRITE, FULL_CONTROL) a usuários específicos para um objeto ou bucket individual. Com a autenticação por string de consulta, os clientes podem criar uma URL para um objeto do Amazon S3 que só é válida por tempo limitado. Para obter mais informações sobre as diversas políticas de controle de acesso disponíveis no Amazon S3, consulte o tópico sobre controle de acesso no Guia do desenvolvedor do Amazon S3.

P: O Amazon S3 oferece suporte à auditoria de acesso a dados?

Sim, os clientes podem, opcionalmente, configurar um bucket do Amazon S3 para criar registros de log de acesso de todas as solicitações enviadas a esse bucket. Como alternativa, os clientes que precisam capturar informações sobre o IAM e a identidade do usuário nos logs podem configurar eventos de dados do AWS CloudTrail.

Esses registros de log de acesso podem ser usados para fins de auditoria e contêm detalhes sobre a solicitação, tais como o tipo, os recursos especificados na solicitação e a data e hora em que foi processada.

P: Quais são as opções disponíveis para criptografar os dados armazenados no Amazon S3?

Você pode optar por criptografar dados usando SSE-S3, SSE-C, SSE-KMS ou uma biblioteca de cliente, como o Amazon S3 Encryption Client. As quatro opções permitem que você armazene dados confidenciais criptografados ociosos no Amazon S3.

O SSE-S3 oferece uma solução integrada onde a Amazon trata o gerenciamento e a proteção de chaves usando várias camadas de segurança. Você deve escolher o SSE-S3 se preferir que a Amazon gerencie suas chaves.

O SSE-C permite que você aproveite o Amazon S3 para criptografar e descriptografar objetos mantendo o controle das chaves usadas para criptografá-los. Com o SSE-C, você não precisa implementar nem usar uma biblioteca de cliente para criptografar e descriptografar objetos armazenados no Amazon S3, mas precisa gerenciar as chaves enviadas ao Amazon S3 para criptografar e descriptografar objetos. Use o SSE-C se quiser manter suas próprias chaves de criptografia, mas não quiser implementar ou usar uma biblioteca de criptografia de cliente.

O SSE-KMS permite usar o AWS Key Management Service (AWS KMS) para gerenciar as chaves de criptografia. O uso do AWS KMS para gerenciar suas chaves oferece vários benefícios adicionais. Com o AWS KMS, existem permissões separadas para o uso da chave do KMS, oferecendo uma camada de controle adicional e proteção contra acesso autorizado aos seus objetos armazenados no Amazon S3. O AWS KMS fornece uma trilha de auditoria, permitindo visualizar quem usou sua chave para acessar o objeto, qual objeto foi acessado e quando ocorreu esse acesso. Também é possível visualizar tentativas malsucedidas de acesso por usuários sem permissão para descriptografar os dados. Além disso, o AWS KMS oferece controles de segurança adicionais para apoiar os esforços dos clientes no cumprimento dos requisitos setoriais PCI-DSS, HIPAA/HITECH e FedRAMP.

Usando uma biblioteca cliente de criptografia, como o Amazon S3 Encryption Client, você pode manter o controle das chaves e concluir a criptografia e descriptografia dos objetos no cliente usando sua biblioteca de criptografia preferida. Alguns clientes preferem ter controle completo da criptografia e descriptografia de objetos; assim, apenas objetos criptografados são transmitidos para o Amazon S3 pela Internet. Use uma biblioteca de cliente se quiser manter o controle de suas chaves de criptografia, se puder implementar ou usar uma biblioteca de criptografia de cliente e se precisar ter seus objetos criptografados antes de enviá-los para armazenamento no Amazon S3.

Para obter mais informações sobre o uso de SSE-S3, do SSE-C ou SSE-KMS no Amazon S3, consulte o tópico Proteção de dados usando criptografia no Guia do desenvolvedor do Amazon S3.

P: Consigo cumprir os regulamentos de privacidade de dados da UE com o Amazon S3?

Os clientes podem optar por armazenar todos os dados na UE usando as regiões UE (Frankfurt), UE (Irlanda), UE (Londres) ou UE (Paris). Você também pode usar o S3 on Outposts para manter todos os seus dados no local no Outpost e pode escolher transferir dados entre Outposts ou para uma região da AWS. É sua responsabilidade garantir que você esteja em conformidade com a legislação de privacidade da UE. Consulte o Centro do Regulamento geral de proteção de dados (GDPR) da AWS para obter mais informações. Se você tiver requisitos de localização mais específicos ou outros regulamentos de privacidade de dados que exijam que você mantenha os dados em um local onde não haja uma região da AWS, você pode usar o S3 on Outposts.

P: O que é o Amazon VPC Endpoint for Amazon S3?

Um Amazon VPC Endpoint for Amazon S3 é uma entidade lógica em uma VPC que oferece conectividade ao S3 via rede global da Amazon. Há dois tipos de VPC endpoints para S3 – VPC endpoints de gateway e VPC endpoints de interface. Os endpoints de gateway são um gateway que você especifica em sua tabela de roteamento para acessar o S3 de sua VPC via rede da Amazon. Os endpoints de interface estendem a funcionalidade dos endpoints de gateway usando IPs privados para rotear solicitações do S3 de dentro de sua VPC, on-premises, ou de uma Região da AWS diferente. Veja mais informações na documentação.

P: Posso permitir que um Amazon VPC Endpoint específico acesse um bucket do Amazon S3?

Você pode usar políticas de bucket do Amazon S3 para limitar o acesso ao bucket de um endpoint ou de um conjunto de endpoints do Amazon VPC Endpoint. As políticas de bucket do S3 oferecem agora uma nova condição, aws:sourceVpce, que pode ser usada para restringir o acesso. Para obter mais detalhes e exemplos de políticas, leia Usar VPC endpoints.

P: O que é o AWS PrivateLink para Amazon S3?

O AWS PrivateLink para S3 oferece conectividade privada entre o Amazon S3 e o ambiente on-premies. Você pode provisionar VPC endpoints para S3 em sua VPC para conectar seus aplicativos on-premise diretamente ao S3 via AWS Direct Connect ou AWS VPN. Não é mais necessário usar IPs públicos, alterar regras de firewall ou configurar um gateway da Internet para acessar o S3 do ambiente on-premises. Para saber mais, consulte a documentação.

P: Como posso começar a usar endpoints da VPC de interface para o S3?

Você pode criar um VPC endpoint de interface no Console de gerenciamento de VPC da AWS, CLI da AWS, AWS SDK ou API. Para saber mais, consulte a documentação.

P: Quando devo escolher endpoints de VPC de gateway em vez de VPC endpoints de interface baseados no AWS PrivateLink?

Recomendamos usar VPC endpoints de interface para acessar o S3 de ambientes on-premise ou de uma VPC em outra Região da AWS. Para recursos que acessam o S3 de uma VPC na mesma Região da AWS que o S3, recomendamos usar VPC endpoints de gateway, já que eles não são cobrados. Para saber mais, consulte a documentação.

P: Posso usar endpoints de interface e endpoints de gateway para o S3 na mesma VPC?

Sim. Se você tem um VPC endpoint de gateway, crie um VPC endpoint de interface em sua VPC e atualize seus aplicativos clientes com os nomes de endpoints específicos do VPC endpoint. Por exemplo, se o ID do seu VPC endpoint do endpoint de interface for vpce-0fe5b17a0707d6abc-29p5708s na Região us-east-1, então o nome de DNS específico do seu endpoint será vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com. Nesse caso, somente as solicitações aos nomes específicos do VPC endpoint serão roteadas por meio dos VPC endpoints de interface para o S3. Todas as demais solicitações continuarão a ser roteadas pelo VPC endpoint de gateway. Para saber mais, consulte a documentação.

P: O que é Amazon Macie e como posso usá-lo para proteger meus dados?

O Amazon Macie é um serviço de segurança baseado em IA que ajuda a evitar a perda de dados descobrindo, classificando e protegendo automaticamente dados confidenciais armazenados no Amazon S3. O Amazon Macie usa Machine Learning para reconhecer dados confidenciais, como informações de identificação pessoal (PII) ou propriedade intelectual, atribui um valor comercial e proporciona visibilidade do local de armazenamento dos dados e de como são usados na organização. O Amazon Macie monitora continuamente atividades de acesso a dados para detectar anomalias e envia alertas quando detecta risco de acesso não autorizado ou vazamento acidental de dados.

Você pode usar o Amazon Macie para proteção contra ameaças à segurança mediante o monitoramento contínuo dos dados e das credenciais de conta. O Amazon Macie oferece um meio automatizado e com pouca intervenção humana para descobrir e classificar dados de negócios. O serviço fornece controles por meio de funções Lambda em modelos para revogar acesso ou acionar políticas de redefinição de senha quando são detectados comportamentos suspeitos ou acessos não autorizados a dados em entidades ou aplicativos de terceiros. Quando alertas são gerados, o Amazon Macie pode ser usado para responder a incidentes, usando o Amazon CloudWatch Events para agir rapidamente e proteger seus dados. Para obter mais informações, consulte o Guia do usuário do Amazon Macie.

P. O que é o Access Analyzer for S3 e como funciona?

O Access Analyzer for S3 é um recurso que monitora políticas de acesso, garantindo que as políticas forneçam apenas o acesso pretendido aos recursos do S3. O Access Analyzer for S3 avalia suas políticas de acesso ao bucket e permite que você descubra e corrija rapidamente os buckets com acesso potencialmente não intencional.

O Access Analyzer for S3 alerta quando um bucket está configurado para permitir acesso a qualquer pessoa na Internet ou é compartilhado com outras contas da AWS. Você recebe informações ou "descobertas" sobre a origem e o nível de acesso público ou compartilhado. Por exemplo, o Access Analyzer for S3 informará proativamente se o acesso de leitura ou gravação foi fornecido de forma não intencional por meio de uma lista de controle de acesso (ACL) ou política de bucket. Com essas informações, você pode definir ou restaurar imediatamente a política de acesso pretendida.

Ao analisar resultados que mostram acesso potencialmente compartilhado a um bucket, você pode Bloquear todo o acesso público ao bucket com um único clique no Console de Gerenciamento do S3. Você também pode detalhar as configurações de permissão no nível do bucket para definir níveis granulares de acesso. Para fins de auditoria, é possível fazer download das descobertas do Access Analyzer for S3 com um relatório CSV. Para obter mais informações, acesse o IAM Access Analyzer.

Pontos de acesso S3

O que são os Amazon S3 Access Points

Hoje, os clientes gerenciam o acesso a seus S3 buckets usando uma única política de bucket que controla o acesso de centenas de aplicativos com diferentes níveis de permissão.

Os pontos de acesso do Amazon S3 simplifica o gerenciamento do acesso de dados em grande escala para aplicativos que usam conjuntos de dados compartilhados no S3. Com os pontos de acesso do S3, agora você pode criar centenas de pontos de acesso por bucket, representando uma nova maneira de fornecer acesso a conjuntos de dados compartilhados. Os pontos de acesso fornecem um caminho personalizado em um bucket, com um nome de host e uma política e acesso únicos, que aplica as permissões e os controles de rede específicos para qualquer solicitação feita por meio do ponto de acesso. Saiba mais na página do S3 Access Points e no guia do usuário.

P: Por que eu deveria usar um ponto de acesso?

O S3 Access Points simplifica como você gerencia o acesso a dados para o seu conjunto de aplicativos nos conjuntos de dados compartilhados no S3. Você não precisa mais gerenciar uma política de bucket única e complexa com centenas de regras de permissão diferentes que precisam ser gravadas, lidas, rastreadas e auditadas. Com o S3 Access Points, agora você pode criar pontos de acesso específicos ao aplicativo, permitindo o acesso a conjuntos de dados compartilhados com políticas personalizadas para o aplicativo específico.

Usando Pontos de acesso, é possível decompor uma política de bucket grande em políticas de ponto de acesso discretas e separadas para cada aplicativo que precise acessar o conjunto de dados compartilhados. Isso simplifica o foco na criação da política de acesso correta para um aplicativo, sem precisar se preocupar em interromper o que qualquer outro aplicativo está fazendo no conjunto de dados compartilhados. Você também pode criar uma Política de controle de serviço (SCP) e exigir que todos os pontos de acesso sejam restritos a uma Virtual Private Cloud (VPC), protegendo seus dados com firewall em suas redes privadas. 

P: Como funciona o S3 Access Points?

Cada S3 Access Point é configurado com uma política de acesso específica para um caso de uso ou aplicativo e um bucket pode ter centenas de pontos de acesso. Por exemplo, você pode criar um ponto de acesso para seu bucket S3 que conceda acesso para grupos de usuários ou aplicativos para seu data lake. Um Ponto de Acesso pode suportar um único usuário ou aplicativo, ou grupos de usuários ou aplicativos dentro de e entre contas, permitindo o gerenciamento separado de cada ponto de acesso. 

Cada ponto de acesso está associado a um único bucket e contém um controle de origem de rede e um controle de Bloquear Acesso Público. Você pode criar um ponto de acesso com um controle de origem de rede que permite apenas o acesso ao armazenamento de sua Virtual Private Cloud, uma seção logicamente isolada da AWS Cloud. Você também pode criar um ponto de acesso com a política de ponto de acesso configurada para permitir acesso apenas a objetos com prefixos definidos ou a objetos com tags específicas.

Você pode acessar dados em buckets compartilhados por meio de um ponto de acesso de uma das duas maneiras. Para operações de objeto S3, você pode usar o ponto de acesso ARN no lugar de um nome de bucket. Para solicitações que exigem um nome de bucket no formato de nome de bucket S3 padrão, você pode usar um pseudônimo de ponto de acesso. Pseudônimos para Pontos de Acesso S3 são gerados automaticamente e são intercambiáveis com nomes de bucket S3 em qualquer lugar que você use um nome de bucket para acesso a dados. Cada vez que você cria um ponto de acesso para um bucket, o S3 gera automaticamente um novo Pseudônimo de Ponto de Acesso. Para o conjunto completo de operações compatíveis e serviços AWS, visite a Documentação S3.

P: Há uma cota de quantos pontos de acesso posso criar?

Por padrão, você pode criar 1.000 pontos de acesso por região por conta. Ao contrário dos buckets do S3, não há limite máximo no número de pontos de acesso por conta da AWS. Visite o AWS Service Quotas para solicitar aumento nessa cota.

P: Quando estiver usando um ponto de acesso, como as solicitações são autorizadas?

Os pontos de acesso S3 possuem suas próprias políticas de ponto de acesso IAM. Você pode escrever políticas de ponto de acesso como você faria uma política de bucket, usando o ponto de acesso ARN como recurso. As políticas de ponto de acesso podem oferecer ou restringir acesso aos dados S3 solicitados por meio dos pontos de acesso. O Amazon S3 avalia todas as políticas relevantes, incluindo as de usuário, bucket, ponto de acesso, VPC endpoint e políticas de controle de serviço, bem como a lista de controle de acesso para decidir se autoriza a solicitação.

P: Como faço para escrever politicas de ponto de acesso?

Você pode escrever uma política de ponto de acesso como uma política de bucket, usando regras do IAM para controlar permissões e os pontos de acesso ARN no documento de política.

P: Qual a diferença entre restringir o acesso a VPCs específicas usando controles de origem de rede em pontos de acesso e restringir o acesso a VPCs usando a política de bucket?

Você pode continuar usando as políticas de bucket para limitar o acesso do bucket a VPCs específicos. Pontos de acesso fornecem uma forma mais fácil e auditável para bloquear todos os dados ou um subconjunto deles em um conjunto de dados compartilhados para o tráfego apenas para o VPC para todos os aplicativos em sua organização usando os controles de API. Você pode usar uma política de controle de serviço das AWS Organizations (SCP) para obrigar que qualquer ponto de acesso criado em sua organização configure o parâmetro da API “controle de origem de rede” para “vpc”. Então, qualquer novo ponto de acesso criado automaticamente restringe acesso de dados para o tráfego apenas para o VPC. Nenhuma política de acesso adicional é necessária para garantir que as solicitações de dados serão processadas apenas por VPCs específicas.

P: Posso aplicar uma política de “acesso de dados sem internet” para todos os pontos de acesso de minha organização?

Sim. Para aplicar uma política de “acesso de dados sem internet” em sua organização, você precisa garantir que todos os pontos de acesso aplicam acesso apenas ao VPC. Para isso, você escreverá uma SCP da AWS que suporte apenas o valor “vpc” para o parâmetro “controle de origem de rede” na API create_access_point(). Se você tiver algum ponto de acesso a Internet criado anteriormente, ele poderá ser removido. Você também precisará modificar a política de bucket em cada um de seus buckets para posteriormente restringir o acesso a internet diretamente de seu bucket por meio de seu hostname. Uma vez que outros serviços da AWS poderão ser acessados diretamente de seu bucket, assegure-se de que você configurou o acesso para permitir os serviços do AWS que você quer modificando a política para permitir esses serviços da AWS. Consulte a documentação do S3 para obter exemplos de como fazer isso.

P: Eu posso desabilitar totalmente o acesso direto a um bucket usando apenas seu hostname?

Atualmente não, mas você pode vincular uma política de bucket que rejeite solicitações que não sejam feitas usando um ponto de acesso. Consulte a documentação do S3 para obter mais detalhes.

P: Eu posso substituir ou remover um ponto de acesso de um bucket?

Sim. Quando você remove um ponto de acesso, qualquer acesso ao bucket associado por meio de outros pontos de acesso e por meio do nome do host do bucket não será interrompido.

P: Qual é o custo dos pontos de acesso do Amazon S3

Não há cobrança adicional por pontos de acesso ou bucket que usam pontos de acesso. São aplicadas taxas de solicitação comuns do Amazon S3.

P: Como faço para começar a usar o S3 Access Points?

Você pode começar a criar pontos de acesso do S3 em novos buckets e em buckets existentes por meio do Console de Gerenciamento da AWS, da Interface de linha de comando (CLI) da AWS, da API (Interface de programação de aplicações) e do cliente AWS Software Development Kit (SDK). Para saber mais sobre o S3 Access Points, acesse o guia do usuário.

Durabilidade e proteção de dados

P: Qual a resiliência do Amazon S3?

As classes Amazon S3 Standard, S3 Standard – IA, S3 Intelligent-Tiering, S3 One Zone – IA, S3 Glacier e S3 Glacier Deep Archive foram todas projetadas para fornecer 99,999999999% (onze noves) de resiliência de dados de objetos em um determinado ano. Esse nível de resiliência corresponde a uma média de perda anual esperada de 0,000000001% de objetos. Por exemplo, se você armazenar 10.000.000 de objetos no Amazon S3, poderá esperar a perda de um único objeto uma vez a cada 10.000 anos. O S3 on Outposts foi projetado para armazenar dados de maneira duradoura e redundante em vários dispositivos e servidores em seu Outpost. Além disso, Amazon S3 Standard, S3 Standard-IA, S3 Glacier e S3 Glacier Deep Archive foram todos projetados para manter os dados no caso da perda de uma zona de disponibilidade inteira do S3.

Da mesma forma que em qualquer ambiente, a melhor prática é ter um backup e implantar proteções contra exclusões mal-intencionadas ou acidentais. Para dados do S3, as melhores práticas incluem permissões de acesso seguras, replicação entre regiões, versionamento e um backup operacional e testado regularmente. 

P: Como o Amazon S3 e o Amazon S3 Glacier foram projetados para alcançar uma resiliência de 99,999999999%?

As categorias de armazenamento Amazon S3 Standard, S3 Standard-IA e S3 Glacier armazenam os objetos de forma redundante em vários dispositivos em no mínimo três zonas de disponibilidade de uma região do Amazon S3 antes de confirmar o êxito da operação. A categoria de armazenamento S3 One Zone-IA armazena dados de forma redundante em vários dispositivos em uma única zona de disponibilidade. Esses serviços são projetados para resistir a falhas simultâneas de dispositivos, detectando e reparando rapidamente qualquer perda de redundância, além de verificar regularmente a integridade dos dados usando somas de verificação.

P: Que somas de verificação o Amazon S3 utiliza para detectar corrupção de dados?

O Amazon S3 usa uma combinação de soma de verificação de conteúdo-MD5 e verificações de redundância cíclica (CRCs) para detectar a corrupção de dados. O Amazon S3 executa essas somas de verificação nos dados em repouso e repara qualquer corrupção usando dados redundantes. Além disso, o serviço calcula as somas de verificação em todo o tráfego de rede para detectar corrupção de pacotes de dados ao armazenar ou recuperar dados.

P: O que é versionamento?

O controle de versão permite preservar, recuperar e restaurar todas as versões de cada objeto armazenado em um bucket do Amazon S3. Depois de habilitar o controle de versão para um bucket, o Amazon S3 preserva objetos existentes sempre que você realiza uma operação PUT, POST, COPY ou DELETE. Por padrão, solicitações GET irão recuperar a versão mais recentemente gravada. Versões mais antigas de um objeto substituído ou excluído podem ser recuperadas ao se especificar a versão na solicitação.

P: Por que devo utilizar o versionamento?

O Amazon S3 oferece aos clientes uma infraestrutura de armazenamento resiliente. O controle de versão oferece um nível adicional de proteção, fornecendo um meio de recuperação caso os clientes substituam ou excluam objetos acidentalmente. Isso permite que você se recupere facilmente de ações não intencionais de usuário e de falhas do aplicativo. Você também pode usar o versionamento para arquivamento e retenção de dados.

P: Como faço para começar a utilizar o versionamento?

Para começar a utilizar o versionamento, basta ativar uma configuração no bucket do Amazon S3. Para obter mais informações sobre como habilitar o versionamento, consulte a documentação técnica do Amazon S3.

P: Como o versionamento protege contra a exclusão acidental de objetos?

Quando um usuário executar uma operação DELETE em um objeto, as solicitações simples (não versionadas) subsequentes não poderão mais recuperar o objeto. No entanto, todas as versões do objeto continuarão a ser preservadas em seu bucket do Amazon S3 e poderão ser recuperadas ou restauradas. Somente o proprietário de um bucket do Amazon S3 pode excluir uma versão permanentemente. Você pode definir regras de ciclo de vida para gerenciar o tempo de vida e o custo de armazenamento de várias versões dos objetos.

P: Posso configurar uma lixeira ou janela de reversão nos objetos do Amazon S3 para recuperar exclusões e substituições?

Você pode usar as regras de ciclo de vida do Amazon S3 juntamente com o Versionamento do S3 para implementar uma janela de reversão para objetos do S3. Por exemplo, em um bucket com versionamento habilitado, você pode configurar uma regra que arquiva todas as versões anteriores para a classe de armazenamento S3 Glacier, mais econômica, e as exclui depois de 100 dias, proporcionando uma janela de 100 dias para reverter qualquer alteração nos dados e reduzindo os custos de armazenamento. Além disso, você pode reduzir custos excluindo versões antigas (não atuais) de um objeto depois de cinco dias e quando houver pelo menos duas versões mais recentes do objeto. Você pode alterar o número de dias ou o número de versões mais recentes com base nas suas necessidades de otimização de custos. Isso permite que você retenha versões adicionais dos objetos conforme necessário, mas reduz custos ao fazer a transição ou a remoção deles após um período.

P: Como posso garantir a máxima proteção das versões preservadas?

O recurso de exclusão usando Multi-Factor Authentication (MFA) do versionamento pode ser usado para oferecer uma camada adicional de segurança. Por padrão, todas as solicitações para seu bucket do Amazon S3 exigem suas credenciais de conta da AWS. Se você habilitar o controle de versão com o MFA Delete em seu bucket do Amazon S3, duas formas de autenticação serão necessárias para excluir permanentemente uma versão de um objeto: suas credencias de conta da AWS e um código de seis dígitos válido e o número de série de um dispositivo físico de autenticação em sua posse. Para saber mais sobre como habilitar o versionamento com o MFA Delete, incluindo como comprar e ativar um dispositivo de autenticação, consulte a documentação técnica do Amazon S3.

P: Como sou cobrado pelo uso do versionamento?

Taxas normais do Amazon S3 se aplicam a todas as versões de um objeto armazenado ou solicitado. Por exemplo, observemos o cenário a seguir para ilustrar os custos de armazenamento ao usar o versionamento (vamos supor que o mês atual tenha 31 dias):

1) Dia 1º do mês: você realiza uma operação PUT de 4 GB (4.294.967.296 bytes) em seu bucket.
2) Dia 16 do mês: você realiza uma operação PUT de 5 GB (5.368.709.120 bytes) dentro do mesmo bucket usando a mesma chave que a da operação PUT original no Dia 1º.

Ao analisar os custos de armazenamento das operações acima, observe que o objeto de 4 GB do Dia 1º não foi excluído do bucket quando o objeto de 5 GB foi gravado no Dia 15. Em vez disso, o objeto de 4 GB é preservado como uma versão mais antiga e o objeto de 5 GB se torna a versão mais recentemente gravada do objeto dentro de seu bucket. Ao final do mês:

Utilização total de byte-horas
[4.294.967.296 bytes x 31 dias x (24 horas/dia)] + [5.368.709.120 bytes x 16 dias x (24 horas/dia)] = 5.257.039.970.304 byte-horas.

Conversão para total de GB-meses
5.257.039.970.304 byte-horas x (1 GB/1.073.741.824 bytes) x (1 mês/744 horas) = 6,581 GB-mês

O custo é calculado com base nas taxas atuais da região na página de preços do Amazon S3.

Classes de armazenamento

S3 Intelligent Tiering

P: O que é S3 Intelligent-Tiering?

Amazon S3 Intelligent-Tiering (S3 Intelligent-Tiering) é uma classe de armazenamento do S3 projetada para otimizar os custos de armazenamento ao mover automaticamente os dados para o nível de acesso mais econômico, sem sobrecarga operacional. É o único armazenamento na nuvem que oferece economia de custo automática ao mover dados em um nível granular de objeto entre níveis de acesso quando há alteração nos padrões de acesso. Essa classe de armazenamento é perfeita quando você quer otimizar os custos de armazenamento dos dados com padrões de acesso desconhecidos ou variáveis. Por uma pequena taxa mensal de automação e monitoramento de objetos, a S3 Intelligent-Tiering monitora os padrões de acesso e move automaticamente os objetos de um nível para outro. Não há taxas de recuperação na S3 Intelligent-Tiering Se um objeto da camada de acesso infrequente for acessado posteriormente, ele é automaticamente movido de volta para a camada de acesso frequente. Nenhuma taxa adicional de camada se aplica quando objetos são movidos entre as camadas de acesso na categoria de armazenamento S3 Intelligent-Tiering.

P: Como a S3 Intelligent-Tiering funciona?

A classe de armazenamento Amazon S3 Intelligent-Tiering foi projetada para otimizar os custos movendo automaticamente os dados para o nível de acesso mais econômico, sem sobrecarga operacional. Para garantir uma pequena taxa mensal de automação e monitoramento de objetos, o S3 Intelligent-Tiering monitora os padrões de acesso e move automaticamente os objetos que não foram acessados ​​para níveis de acesso de custo inferior. A S3 Intelligent-Tiering oferece economia automática de custos de armazenamento em dois níveis de acesso de baixa latência e alta taxa de transferência. Para dados que podem ser acessados de forma assíncrona, os clientes podem escolher ativar os recursos de arquivamento automático dentro da classe de armazenamento S3 Intelligent-Tiering. Não há taxas de recuperação na S3 Intelligent-Tiering Se um objeto da camada de acesso infrequente for acessado posteriormente, ele é automaticamente movido de volta para a camada de acesso frequente. Nenhuma taxa adicional de camada ou ciclo de vida se aplica quando objetos são movidos entre as camadas de acesso na categoria de armazenamento da S3 Intelligent-Tiering.

A classe S3 Intelligent-Tiering funciona armazenando objetos em quatro níveis de acesso: dois níveis de acesso de baixa latência otimizados para acesso frequente e infrequente e dois níveis de acesso de arquivamento opcionais projetados para acesso assíncrono, otimizados para acesso raro. Os objetos que foram carregados ou transferidos para a S3 Intelligent-Tiering são automaticamente armazenados no nível Acesso frequente. A S3 Intelligent-Tiering move os objetos que não foram acessados durante 30 dias consecutivos para o nível Infrequent Access. Depois que você ativar um ou ambos os níveis de acesso para arquivamento, a classe S3 Intelligent-Tiering moverá os objetos que não foram acessados por 90 dias consecutivos para o nível Archive Access (Acesso de arquivamento) e, depois de 180 dias consecutivos sem acesso, para o nível Deep Archive Access (Acesso para arquivamento profundo). Se o objeto que você está recuperando estiver armazenado nos níveis Archive Access (Acesso de arquivamento) ou Deep Archive Access (Acesso para arquivamento profundo), você deverá restaurar uma cópia usando a opção RestoreObject antes de recuperar o objeto. Para obter informações sobre como restaurar objetos arquivados, consulte Restaurar um objeto arquivado. Se os objetos forem acessados posteriormente, eles serão devolvidos para o nível Frequent Access (Acesso frequente). Não há taxas de recuperação, portanto, não haverá aumentos inesperados nas faturas de armazenamento quando os padrões de acesso mudarem.

P: Por que optar pelo uso da S3 Intelligent-Tiering?

A S3 Intelligent-Tiering é a única classe de armazenamento no mundo com dois níveis em que você pode obter alta taxa de transferência e baixa latência quando precisa de seus dados imediatamente com o nível de acesso frequente e dois níveis opcionais de acesso de arquivo em que você paga apenas 1 USD por terabyte por mês quando os dados ficam inativos. A S3 Intelligent Tiering é ideal para dados com padrões de acesso desconhecidos ou variáveis. Para conjuntos de dados com padrões de acesso variáveis, em que subconjuntos de objetos podem ser raramente acessados durante muito tempo, os níveis de acesso de arquivamento reduzem ainda mais o custo de armazenamento em até 95%.

P: Qual é a performance oferecida pela S3 Intelligent-Tiering?

Os níveis de acesso frequente e infrequente do S3 Intelligent-Tiering oferecem baixa latência e alta performance de taxa de transferência. O nível Archive Access (Acesso de arquivamento) tem a mesma performance que o S3 Glacier e o nível Deep Archive Access (Acesso para arquivamento profundo) tem a mesma performance da classe de armazenamento S3 Glacier Deep Archive. Você só deve ativar os níveis de acesso de arquivamento se os objetos puderem ser acessados de maneira assíncrona pela aplicação. Se o objeto que você está recuperando estiver armazenado nos níveis Archive Access (Acesso de arquivamento) ou Deep Archive Access (Acesso para arquivamento profundo), você deverá restaurar uma cópia usando a opção RestoreObject antes de recuperar o objeto. Para obter informações sobre como restaurar objetos arquivados, consulte Restaurar um objeto arquivado. Os objetos no nível Archive Access (Acesso de arquivamento) são movidos para o nível Frequent Access (Acesso frequente) em 3 a 5 horas e em até 12 horas quando estão no nível Deep Archive Access (Acesso para arquivamento profundo). Se precisar acessar mais rapidamente um objeto no nível Archive Access (Acesso de arquivamento), você poderá pagar por uma recuperação mais rápida usando o console para selecionar a opção de velocidade de recuperação expressa.

P: Qual a durabilidade e a disponibilidade da classe S3 Intelligent-Tiering?

A S3 Intelligent-Tiering foi projetada para obter a mesma durabilidade de 99,999999999% da classe de armazenamento S3 Standard. A S3 Intelligent-Tiering foi projetada para fornecer uma disponibilidade de 99,9% e apresenta um acordo de nível de serviço que fornece créditos de serviço caso a disponibilidade seja inferior ao nosso compromisso de serviço em qualquer ciclo de faturamento.

P: Como faço para transferir dados para o S3 Intelligent-Tiering?

Há duas maneiras de transferir dados para o S3 Intelligent-Tiering. Você pode definir PUT diretamente na S3 Intelligent-Tiering especificando INTELLIGENT_TIERING no cabeçalho x-amz-storage-class ou definir políticas de ciclo de vida para migrar objetos de S3 Standard ou S3 Standard-IA para S3 INTELLIGENT_TIERING.

P: Como é a cobrança pela S3 Intelligent-Tiering?

A S3 Intelligent-Tiering é cobrada por armazenamento, solicitações e transferências de dados do mês, além de uma pequena taxa mensal referente a monitoramento e automação por objeto. A classe de armazenamento S3 Intelligent-Tiering armazena objetos em duas camadas de acesso de armazenamento: uma camada de acesso frequente com taxas de armazenamento S3 Standard e uma camada de acesso infrequente com taxas de armazenamento S3 Standard-Infrequent Access. Ela também tem duas camadas opcionais de arquivamento, uma de acesso a arquivamento com taxas de armazenamento S3 Glacier e uma de acesso de arquivamento profundo com taxas de armazenamento S3 Glacier Deep Archive.

Não há taxas de recuperação para a S3 Intelligent-Tiering. Por uma pequena taxa de automação e monitoramento, a S3 Intelligent-Tiering monitora os padrões de acesso e move automaticamente os objetos entre quatro níveis de acesso para otimizar o custo e a performance do armazenamento, com duas camadas de acesso opcionais para arquivamento assíncrono.

A S3 Intelligent-Tiering não tem tamanho mínimo de objeto faturável, porém, os objetos menores que 128 KB não se qualificam para níveis automáticos. Esses objetos pequenos não serão monitorados e sempre serão cobrados pelas taxas de camadas de acesso frequente, sem cobrança de monitoramento e automação. Para cada objeto arquivado no nível de acesso de arquivamento ou arquivamento profundo na S3 Intelligent-Tiering, o Amazon S3 usa 8 KB de armazenamento para o nome do objeto e outros metadados (faturados pelas taxas de armazenamento S3 Standard) e 32 KB de armazenamento para índice e medatados relacionados (faturados pelas taxas de armazenamento S3 Glacier e S3 Glacier Deep Archive).

P: Como ativar os níveis de acesso de arquivamento da S3 Intelligent-Tiering?

Você pode ativar o nível de acesso de arquivamento e o nível de acesso de arquivamento profundo criando uma configuração de nível de bucket, prefixo ou tag de objeto usando a API ou a CLI do Amazon S3 ou o console de gerenciamento do S3. A ativação de um ou ambos os níveis de acesso de arquivamento só é recomendada se a aplicação consegue acessar os objetos de forma assíncrona.

P: É possível estender o tempo antes do arquivamento dos objetos na classe de armazenamento S3 Intelligent-Tiering?

Sim. Na configuração de nível de bucket, prefixo ou tag de objeto, você pode estender o tempo do último acesso para arquivar objetos na S3 Intelligent-Tiering. Quando habilitada, o padrão é mover automaticamente os objetos que não foram acessados por 90 dias consecutivos ou mais para o nível de acesso de arquivamento. Os objetos que não foram acessados por 180 dias consecutivos ou mais são movidos automaticamente para o nível de acesso de arquivamento profundo. A configuração padrão de dias consecutivos desde o último acesso antes do arquivamento automático na S3 Intelligent-Tiering pode ser estendida para até 2 anos.

P: Como acessar um objeto dos níveis de acesso de arquivamento e arquivamento profundo na classe de armazenamento S3 Intelligent-Tiering?

Para acessar um objeto nos níveis de acesso de arquivamento e arquivamento profundo, você precisa emitir uma solicitação de restauração para o objeto começar a voltar para o nível de acesso frequente, todos da classe de armazenamento S3 Intelligent-Tiering. Os objetos no nível de acesso de arquivamento são movidos para o nível de acesso frequente em 3 a 5 horas. Os objetos no nível de acesso de arquivamento profundo são movidos para o nível de acesso frequente em até 12 horas. Com o objeto no nível de acesso frequente, você pode emitir uma solicitação GET para recuperá-lo.

P: Como saber em qual nível de acesso da S3 Intelligent-Tiering meus objetos estão armazenados?

Você pode usar o Amazon S3 Inventory para informar o nível de acesso de objetos armazenados na classe de armazenamento S3 Intelligent-Tiering. O Amazon S3 Inventory fornece arquivos de saída CSV, ORC ou Parquet, que listam seus objetos e os metadados correspondentes, em regime diário ou semanal, referentes a um bucket do S3 ou um prefixo compartilhado. Também é possível fazer uma solicitação HEAD em seus objetos para informar os níveis de acesso de arquivamento da S3 Intelligent-Tiering.

P: Há uma duração mínima para a S3 Intelligent-Tiering?

Não. A classe de armazenamento S3 Intelligent-Tiering não tem duração mínima de armazenamento.

P: Há um tamanho mínimo de objeto faturável para a S3 Intelligent-Tiering?

Não. A classe de armazenamento S3 Intelligent-Tiering não tem tamanho mínimo de objeto faturável, mas os objetos menores de 128 KB não se qualificam para níveis automáticos. Esses objetos menores sempre serão cobrados pelas taxas de camadas de acesso frequente, sem cobrança de monitoramento e automação. Para cada objeto arquivado no nível de acesso de arquivamento ou arquivamento profundo na S3 Intelligent-Tiering, o Amazon S3 usa 8 KB de armazenamento para o nome do objeto e outros metadados (faturados pelas taxas de armazenamento S3 Standard) e 32 KB de armazenamento para índice e medatados relacionados (faturados pelas taxas de armazenamento S3 Glacier e S3 Glacier Deep Archive). Para obter mais detalhes, visite a página de preços do Amazon S3

S3 Standard-Infrequent Access (S3 Standard-IA)

P: O que é S3 Standard-Infrequent Access?

Amazon S3 Standard-Infrequent Access (S3 Standard-IA) é uma classe de armazenamento do Amazon S3 para dados acessados com menos frequência, mas que exigem rapidez quando necessários. O S3 Standard-IA oferece os altos níveis de resiliência e taxa de transferência e a baixa latência da classe de armazenamento Amazon S3 Standard com taxas reduzidas por GB de armazenamento e GB de recuperação. A combinação de baixo custo e alta performance tornam a classe S3 Standard-IA ideal para armazenamento de longa duração, backups e datastores para recuperação de desastres. A classe de armazenamento S3 Standard – IA é definida no nível de objeto e pode existir no mesmo bucket que as classes de armazenamento S3 Standard ou S3 One Zone – IA, o que permite usar políticas de ciclo de vida do S3 para migrar automaticamente objetos entre classes de armazenamento sem nenhuma alteração nos aplicativos.

P: Por que devo optar pelo uso do S3 Standard – IA?

O S3 Standard-IA é ideal para dados acessados com menos frequência, mas que exigem acesso rápido quando necessários. O S3 Standard – IA também é ideal para armazenamento de arquivos de longo prazo, armazenamento de sincronização e compartilhamento mais antigos e outros dados antigos.

P: Qual é a performance oferecida pelo S3 Standard – IA?

O S3 Standard – IA oferece a mesma latência e performance de taxa de transferência que a classe de armazenamento S3 Standard. 

 

P: Como faço para colocar dados no S3 Standard – IA?

Há duas maneiras de inserir dados no S3 Standard-IA. Você pode executar PUT diretamente no S3 Standard-IA especificando STANDARD_IA no cabeçalho x-amz-storage-class. Também é possível definir políticas de ciclo de vida para migrar objetos do S3 Standard para a classe de armazenamento S3 Standard – IA.

P: Quais taxas serão cobradas pela alteração da classe de armazenamento de um objeto de S3 Standard – IA para S3 Standard com uma solicitação COPY?

Você será cobrado por uma solicitação COPY do S3 Standard – IA e uma recuperação de dados do S3 Standard – IA.

P: Há uma cobrança mínima de duração de armazenamento para o S3 Standard – IA?

O S3 Standard-IA foi projetado para dados de longa duração, acessados com pouca frequência, que são retidos durante meses ou anos. Os dados que forem excluídos do S3 Standard-IA dentro de 30 dias serão cobrados pelos 30 dias completos. Consulte a página de definição de preços do Amazon S3 para obter informações sobre a definição de preço do S3 Standard – IA.

P: Há uma cobrança mínima de armazenamento de objetos para o S3 Standard – IA?

O S3 Standard-IA foi projetado para objetos maiores e tem uma cobrança mínima de armazenamento de objetos de 128 KB. Objetos menores que 128 KB incorrerão em cobranças de armazenamento equivalentes às de um objeto de 128 KB. Por exemplo, um objeto de 6 KB no S3 Standard-IA incorrerá em cobranças de armazenamento do S3 Standard-IA para 6 KB e uma taxa adicional de tamanho mínimo de objeto equivalente a 122 KB com o preço de armazenamento do S3 Standard-IA. Consulte a página de preços do Amazon S3 para obter informações sobre a definição de preço do S3 Standard – IA.

P: Posso estratificar os objetos do S3 Standard – IA para o S3 One Zone – IA ou S3 Glacier?

Sim. Além de usar políticas de ciclo de vida para migrar objetos do S3 Standard para o S3 Standard – IA, você também pode definir políticas de ciclo de vida para estratificar objetos do S3 Standard – IA para o S3 One Zone – IA ou S3 Glacier.

S3 One Zone-Infrequent Access (S3 One Zone-IA)

P: O que é a classe de armazenamento S3 One Zone-IA?

A classe de armazenamento S3 One Zone-IA é uma classe de armazenamento do Amazon S3 que os clientes podem escolher para armazenar objetos em uma única zona de disponibilidade. O armazenamento S3 One Zone-IA armazena dados de forma redundante nessa única zona de disponibilidade para oferecer armazenamento a um custo 20% inferior que o armazenamento geograficamente redundante S3 Standard-IA, que armazena dados de forma redundante em várias zonas de disponibilidade separadas geograficamente.

O S3 One Zone – IA oferece um SLA com disponibilidade de 99%, além de ter sido projetado para proporcionar 11 noves de resiliência na zona de disponibilidade. Entretanto, os dados na classe de armazenamento S3 One Zone – IA não são resilientes à perda física de uma zona de disponibilidade inteira.

O armazenamento S3 One Zone – IA oferece os mesmos recursos do Amazon S3 que os armazenamentos S3 Standard e S3 Standard – IA e é usado por meio da API, da CLI e do console do Amazon S3. A classe de armazenamento S3 One Zone-IA é definida no nível de objeto e pode existir no mesmo bucket que as classes de armazenamento S3 Standard e S3 Standard-IA. Você pode usar as políticas de ciclo de vida do S3 para migrar automaticamente objetos entre classes de armazenamento sem nenhuma alteração nos aplicativos.

P: Quais casos de uso são mais adequados à classe de armazenamento S3 One Zone – IA?

Os clientes podem usar o S3 One Zone – IA para armazenamento acessado com pouca frequência, como cópias de backup, cópias de recuperação de desastres ou outros dados facilmente recriáveis.

P: Qual o nível de performance oferecido pelo armazenamento S3 One Zone – IA?

A classe de armazenamento S3 One Zone – IA oferece a mesma latência e performance de taxa de transferência que as classes de armazenamento S3 Standard e S3 Standard – Infrequent Access.

P: Qual a resiliência da classe de armazenamento S3 One Zone – IA?

A classe de armazenamento S3 One Zone – IA foi projetada para oferecer 99,999999999% de resiliência em uma zona de disponibilidade. Entretanto, os dados na classe de armazenamento S3 One Zone – IA não são resilientes à perda de disponibilidade ou perda física de uma zona de disponibilidade. Por outro lado, os armazenamentos nas classes S3 Standard, S3 Intelligent-Tiering, S3 Standard – Infrequent Access e S3 Glacier foram projetados para suportar a perda de disponibilidade ou a destruição de uma zona de disponibilidade. A classe S3 One Zone – IA pode oferecer resiliência e disponibilidade iguais ou superiores à maioria dos datacenters físicos modernos, além do benefício adicional de elasticidade de armazenamento e do conjunto de recursos do Amazon S3.

P: Uma “zona” da S3 One Zone – IA é a mesma coisa que uma zona de disponibilidade da AWS?

Sim. Cada região da AWS é uma área geográfica separada. Cada região contém vários locais isolados conhecidos como “zonas de disponibilidade”. A classe de armazenamento Amazon S3 One Zone – IA usa uma zona de disponibilidade da AWS individual dentro da região.

P: Há alguma perda de proteção de recuperação de desastres com o uso da S3 One Zone – IA?

Cada zona de disponibilidade usa energia e redes redundantes. Em uma região da AWS, as zonas de disponibilidade estão em áreas de inundação, zonas de falhas sujeitas a terremotos e áreas geográficas separadas para proteção contra incêndios. As classes de armazenamento S3 Standard e S3 Standard – IA oferecem proteção contra esses tipos de desastres armazenando dados de forma redundante em várias zonas de disponibilidade. A classe S3 One Zone – IA oferece proteção contra falha de equipamento em uma zona de disponibilidade, mas os dados não são resilientes à perda física da zona de disponibilidade resultante de desastres, como terremotos e inundações. Ao usar as opções S3 One Zone – IA, S3 Standard e S3 Standard – IA, você pode escolher a classe de armazenamento mais adequada às necessidades de resiliência e disponibilidade do armazenamento.

S3 no Outposts

P:  O que é Amazon S3 on Outposts?

O Amazon S3 on Outposts oferece armazenamento de objetos em seu ambiente local, usando as APIs S3 e os recursos que você usa na AWS atualmente. O AWS Outposts é um serviço gerenciado que estende a infraestrutura, os serviços, as APIs e as ferramentas da AWS a praticamente qualquer datacenter, espaço de colocalização ou instalação no local. Usando o S3 on Outposts, você pode processar e armazenar com segurança os dados do cliente gerados no local antes de movê-los para uma região AWS, acessar dados localmente para aplicativos executados no local ou armazenar dados em seu Outpost para empresas em locais com requisitos de residência de dados, e/ou aqueles em setores regulamentados. Para saber mais sobre S3 on Outposts, visite a página de visão geral.
 

Amazon S3 Glacier

P: O que é o Amazon S3 Glacier?

O Amazon S3 Glacier é uma classe de armazenamento segura, durável e de baixo custo para arquivamento de dados. Você pode armazenar com confiabilidade qualquer volume de dados a um custo competitivo ou inferior ao custo de soluções on-premises. Para manter os custos baixos, mas com condições de suprir necessidades variáveis, o Amazon S3 Glacier disponibiliza três opções de recuperação, que podem levar de alguns minutos a muitas horas. Você pode carregar objetos diretamente no Amazon S3 Glacier ou usar as políticas de ciclo de vida do Amazon S3 para transferir dados entre qualquer uma classe de armazenamento do S3 para dados ativos (S3 Standard, S3 Intelligent-Tiering, S3 Standard – IA e S3 One Zone – IA) para o S3 Glacier.

P: Por que devo optar pelo uso do Amazon S3 Glacier?

O Amazon S3 Glacier é ideal para necessidades de arquivamento de dados, backup de longo prazo e armazenamento de dados externo. O Amazon S3 Glacier é uma opção de baixo custo para conjuntos de dados de arquivo de longa duração, que poderão ser acessados uma ou duas vezes por ano e oferecem suporte à recuperação, com duração de alguns minutos até 12 horas. Alguns exemplos de casos de uso de arquivo incluem: arquivos de mídia digital, registros financeiros e de saúde, dados brutos de sequência genômica, backups de banco de dados de longo prazo e dados que devem ser retidos para manter a conformidade regulatória.

P: Como faço para inserir dados no Amazon S3 Glacier?

Há duas maneiras de inserir dados no Amazon S3 Glacier. Você pode executar PUT diretamente no Amazon S3 Glacier especificando GLACIER no cabeçalho do x-amz-storage-class. Você também pode usar as regras do S3 Lifecycle para transicionar objetos entre qualquer classe de armazenamento do Amazon S3 para dados ativos (S3 Standard, S3 Intelligent-Tiering, S3 Standard – IA e S3 One Zone – IA) para o Amazon S3 Glacier com base na idade do objeto. Use o Console de Gerenciamento do Amazon S3, os AWS SDKs ou as APIs do Amazon S3 para executar PUT diretamente no Amazon S3 Glacier ou definir as regras de arquivamento.

Observação: o Amazon S3 Glacier também está disponível pelas APIs originais diretas do Glacier e pelo Console de Gerenciamento do Amazon S3 Glacier. Para ter uma experiência aprimorada abrangente com acesso ao conjunto completo de recursos S3, incluindo gerenciamento de ciclo de vida, S3 Replication, S3 Storage Lens, entre outros, recomendamos usar as APIs do S3 e o Console de Gerenciamento do S3 para utilizar os recursos do S3 Glacier.

P: Como faço para recuperar meus objetos arquivados no Amazon S3 Glacier? Receberei uma notificação quando o objeto for restaurado?

Os objetos que estão arquivados no Amazon S3 Glacier são acessados de maneira assíncrona. Para recuperar dados armazenados na classe de armazenamento do Amazon S3 Glacier, inicie uma solicitação de recuperação usando as APIs do Amazon S3 ou o Console de Gerenciamento do Amazon S3. A solicitação de recuperação cria uma cópia temporária dos seus dados na classe de armazenamento S3 Standard – IA e deixa os dados arquivados intactos no Amazon S3 Glacier. O período durante o qual uma cópia temporária é armazenada no Amazon S3 pode ser especificado em dias. Você poderá então acessar a cópia temporária do S3 por meio de uma solicitação GET do Amazon S3 para o objeto arquivado.

Com as notificações de restauração, agora é possível receber uma notificação de evento do S3 quando um objeto for restaurado com êxito do S3 Glacier e a cópia temporária for disponibilizada para você. O proprietário do bucket (ou outra pessoa, conforme permissão de uma política do IAM) pode fazer com que as notificações sejam enviadas para o Amazon Simple Queue Service (SQS) ou o Amazon Simple Notification Service (SNS). As notificações também podem ser enviadas para o AWS Lambda para serem processadas por uma função do Lambda.

P: Quanto tempo é necessário para restaurar objetos arquivados no Amazon S3 Glacier?

Ao processar um trabalho de recuperação, o Amazon S3 primeiro recupera os dados solicitados do Amazon S3 Glacier e depois cria uma cópia temporária dos dados solicitados no Amazon S3. Isso costuma levar poucos minutos. O tempo de acesso da sua solicitação depende da opção de recuperação que você escolher: expressa, padrão ou em massa. Para todos os arquivos, exceto os maiores (acima de 250 MB), os dados acessados usando as recuperações expressas serão disponibilizados em um a cinco minutos. Geralmente, os objetos recuperados usando as recuperações padrão são concluídos entre três e cinco horas. Geralmente, as recuperações em massa são concluídas entre cinco e 12 horas. Para obter mais informações sobre as opções de recuperação do Amazon S3 Glacier, consulte como restaurar um objeto arquivado no manual do usuário do S3.

Com as unidades de capacidade provisionadas do Amazon S3 Glacier, você pode pagar uma taxa fixa antecipada por um determinado mês para garantir a disponibilidade da capacidade de recuperação para recuperações expressas do Amazon S3 Glacier. É possível comprar duas unidades de capacidade provisionadas por mês para aumentar a quantidade de dados que você pode recuperar. Cada unidade de capacidade garante que pelo menos três recuperações expressas poderão ser executadas a cada cinco minutos e disponibiliza até 150 MB/s de taxa de transferência de recuperação. Caso sua workload necessite de acesso altamente confiável e previsível a um subconjunto de dados em minutos, convém adquirir capacidade de recuperação provisionada. Sem capacidade provisionada, as recuperações expressas podem não ser aceitas durante períodos de alta demanda. Caso precise de acesso a recuperações expressas em qualquer circunstância, recomendamos que você adquira capacidade de recuperação provisionada.

É possível adquirir capacidade provisionada usando o console do Amazon S3, a API REST de capacidade provisionada de compra, os AWS SDKs ou a AWS CLI. Uma unidade de capacidade provisionada dura um mês a partir da data e hora da compra, que é a data de início. A unidade expira na data de validade, que é exatamente um mês após a data de início com precisão de segundo. Para obter informações sobre preços de capacidade provisionada, consulte os preços do Amazon S3.

P: Como é calculada a cobrança do armazenamento de objetos do Amazon S3 arquivados no Amazon S3 Glacier?

O volume de armazenamento faturado em um mês baseia-se no armazenamento médio usado durante todo o mês, medido em gigabites por mês (GB-mês). O Amazon S3 calcula o tamanho do objeto como a quantidade de dados armazenados, mais 32 KB de dados do Amazon S3 Glacier e 8 KB de dados da classe de armazenamento Amazon S3 Standard. O Amazon S3 Glacier necessita de 32 KB de dados adicionais por objeto para o índice e os metadados do S3 Glacier para possibilitar a identificação e a recuperação de seus dados. O Amazon S3 necessita de 8 KB para armazenar e manter os metadados e o nome definido pelo usuário para objetos arquivados no Amazon S3 Glacier. Dessa forma, você obtém uma lista em tempo real de todos os seus objetos do Amazon S3, incluindo aqueles armazenados usando a classe de armazenamento Amazon S3 Glacier, a API LIST do Amazon S3 ou o relatório de inventário do S3. 

Por exemplo, se você arquivou 100 mil objetos com 1 GB cada, seu armazenamento faturável seria:
1,000032 gigabyte para cada objeto x 100.000 objetos = 100.003,2 gigabytes de armazenamento do Amazon S3 Glacier.
0,000008 gigabytes para cada objeto x 100.000 objetos = 0,8 gigabytes de armazenamento do Amazon S3 Standard.

A taxa é calculada com base nas taxas atuais de sua região da AWS na página de preços do Amazon S3. Para obter mais exemplos de preço do Amazon S3, acesse as perguntas frequentes sobre o faturamento do S3 ou use a calculadora de preços da AWS.

P: Há uma duração mínima de armazenamento e taxas mínimas de armazenamento de objetos para o Amazon S3 Glacier?

O Amazon S3 Glacier foi criado para dados de longa duração, acessados raramente, que são retidos durante meses ou anos. Os objetos arquivados no S3 têm um período mínimo de armazenamento de 90 dias. Os objetos excluídos, substituídos ou transicionados antes de 90 dias gerarão uma cobrança pro rata igual à cobrança do armazenamento pelos dias restantes. Consulte a página de preço do Amazon S3 para obter informações sobre os preços do Amazon S3 Glacier.

O Amazon S3 Glacier conta com um tamanho mínimo de armazenamento de objetos faturáveis de 40 KB. Objetos com menos de 40 KB podem ser armazenados, mas serão cobrados por 40 KB de armazenamento. 

P: Quanto custa a recuperação de dados do Amazon S3 Glacier?

Há três maneiras de recuperar dados do Amazon S3 Glacier: expressa, padrão e em massa. Cada uma tem uma taxa diferente de recuperação por GB e por solicitação (ou seja, você paga por solicitações feitas mediante seus objetos do Amazon S3). Para obter o preço detalhado do S3 Glacier por região da AWS, acesse a página de preços do Amazon S3.

P: O Amazon S3 fornece recursos para arquivar objetos em classes de armazenamento mais econômicas?

Sim, o Amazon S3 permite utilizar o Amazon S3 Glacier e o Amazon S3 Glacier Deep Archive para armazenamento e arquivamento de dados raramente acessados. O Amazon S3 Glacier armazena dados por preços a partir de USD 0,004 mensais por gigabyte. Para manter os custos baixos, mas com condições de atender a necessidades de recuperação variáveis, o Amazon S3 Glacier fornece três opções de acesso a arquivos, com duração que vão de alguns minutos a várias horas. A S3 Glacier Deep Archive é a classe de armazenamento mais acessível do Amazon S3 e oferece suporte à retenção e preservação digital de longo prazo para dados que podem ser acessados uma ou duas vezes por ano. Alguns exemplos de casos de uso de arquivo incluem arquivos de mídia digital, registros financeiros e de saúde, dados brutos de sequência genômica, backups de banco de dados de longo prazo e dados que devem ser retidos para manter a conformidade regulatória.

P: Qual é a infraestrutura de backend compatível com a classe de armazenamento S3 Glacier e S3 Glacier Deep Archive?

Preferimos nos concentrar nos resultados de performance, durabilidade, disponibilidade e segurança do cliente. No entanto, nossos clientes frequentemente nos fazem essa pergunta. Usamos várias tecnologias diferentes que nos permitem oferecer os nossos preços que aos clientes. Nossos serviços são construídos usando tecnologias de armazenamento de dados comuns, montadas especificamente em sistemas de uso específico e de custo otimizado usando software desenvolvido pela AWS. O S3 Glacier usa a nossa capacidade de otimizar a sequência de entradas e saídas para maximizar a eficiência do acesso ao armazenamento subjacente.

Amazon S3 Glacier Deep Archive

P: O que é o Amazon S3 Glacier Deep Archive?

O S3 Glacier Deep Archive é uma classe de armazenamento do Amazon S3 que oferece armazenamento de objetos seguro e durável para retenção de longo prazo de dados acessados uma ou duas vezes por ano. Por apenas 0,00099 USD por gigabyte por mês (menos de um décimo de um centavo, ou cerca de 1 USD por terabyte por mês), o S3 Glacier Deep Archive oferece armazenamento de custo mais baixo na nuvem, a preços significativamente mais baixos do que armazenar e manter dados em bibliotecas de fitas magnéticas on-premises ou arquivar dados externamente.

P: Quais casos de uso são mais adequados à classe de armazenamento S3 Glacier Deep Archive?

O S3 Glacier Deep Archive é uma classe de armazenamento ideal para fornecer proteção offline dos ativos de dados mais importantes da sua empresa ou quando a retenção de dados no longo prazo é necessária para requisitos de política corporativa, contratuais ou de conformidade regulamentar. Os clientes consideram o S3 Glacier Deep Archive uma opção interessante para proteger a propriedade intelectual central, registros médicos e financeiros, resultados de pesquisas, documentos legais, estudos de exploração sísmica e backups de longo prazo, especialmente em setores altamente regulamentados, como serviços financeiros e de saúde, indústria de petróleo e gás natural e setores públicos. Além disso, algumas organizações, como empresas de mídia e entretenimento, que precisam manter uma cópia de segurança da propriedade intelectual central. Frequentemente, os clientes que usam o S3 Glacier Deep Archive podem reduzir ou descontinuar o uso de bibliotecas de fitas magnéticas no local e serviços de arquivamento de fitas externas.

P: Como o S3 Glacier Deep Archive difere do S3 Glacier?

O S3 Glacier Deep Archive expande nossas ofertas de arquivamento de dados, permitindo a seleção da classe de armazenamento ideal com base nos custos de armazenamento e recuperação e nos tempos de recuperação. Escolha o S3 Glacier quando você precisar recuperar dados arquivados, normalmente em 1 a 5 minutos, usando recuperações expressas. Por outro lado, o S3 Glacier Deep Archive foi projetado para armazenamento de dados “mais frios”, com pouca probabilidade de serem acessados, mas que ainda requerem armazenamento durável e de longo prazo. O S3 Glacier Deep Archive é até 75% mais barato que o S3 Glacier e fornece recuperação em um prazo de 12 horas na velocidade de recuperação padrão. Você também pode reduzir os custos de recuperação selecionando a opção Bulk retrieval (Recuperação em massa), que retornará os dados em 48 horas.

P: Como faço para começar a usar o S3 Glacier Deep Archive?

A maneira mais fácil de armazenar dados no S3 Glacier Deep Archive é com a API do S3 para carregar dados diretamente. Basta especificar “S3 Glacier Deep Archive” como a classe de armazenamento. Você pode fazer isso usando o Console de Gerenciamento da AWS, a API REST do S3, os AWS SDKs ou a Interface da linha de comando da AWS.

Você também pode começar a usar o S3 Glacier Deep Archive criando políticas para migrar dados usando o ciclo de vida do S3, que permite definir o ciclo de vida de seu objeto e reduzir seu custo de armazenamento. Essas políticas podem ser definidas para migrar objetos para o S3 Glacier Deep Archive com base na idade do objeto. Você pode especificar a política para um bucket S3 ou para prefixos específicos. As transições do ciclo de vida são cobradas pelo preço de upload do S3 Glacier Deep Archive.

O Gateway de fitas, um recurso de biblioteca de fitas virtual baseado em nuvem do AWS Storage Gateway, agora está integrado ao S3 Glacier Deep Archive, permitindo que você armazene seus backups e arquivos de longo prazo baseados em fita no S3 Glacier Deep Archive, fornecendo o menor custo de armazenamento para esses dados na nuvem. Para começar, crie uma nova fita virtual usando o Console ou a API do AWS Storage Gateway e defina o destino de armazenamento de arquivos como S3 Glacier ou S3 Glacier Deep Archive. Quando o aplicativo de backup ejetar a fita, ela será arquivada no destino de armazenamento selecionado.

P: Quais são as recomendações de migração de dados dos meus arquivos de fitas existentes para o S3 Glacier Deep Archive?

Existem várias maneiras de migrar dados de arquivos de fita existentes para o S3 Glacier Deep Archive. Você pode usar o Gateway de fitas da AWS para integrar-se a aplicativos de backup existentes usando uma interface VTL (biblioteca de fitas virtuais). Essa interface apresenta fitas virtuais para o aplicativo de backup. Estes podem ser usados imediatamente para armazenar dados no Amazon S3, S3 Glacier e S3 Glacier Deep Archive.

Você também pode usar o AWS Snowball ou o Snowmobile para migrar dados. O Snowball e o Snowmobile aceleram a transferência de terabytes para petabytes de dados dentro e fora da AWS usando dispositivos de armazenamento físico projetados para transporte seguro. O uso do Snowball e do Snowmobile ajuda a eliminar desafios comuns nas transferências de dados em grande escala, como altos custos de rede, transferências demoradas e problemas de segurança.

Por fim, você pode usar o AWS Direct Connect para estabelecer conexões de rede dedicadas das suas instalações para a AWS. Em muitos casos, o Direct Connect pode reduzir seus custos de rede, aumentar o throughput da largura de banda e fornecer uma experiência de rede mais consistente que a de conexões baseadas na Internet.

P: Como faço para recuperar meus objetos armazenados no S3 Glacier Deep Archive?

Para recuperar dados armazenados no S3 Glacier Deep Archive, inicie uma solicitação de “Restauração” usando as APIs do Amazon S3 ou o Console de Gerenciamento do Amazon S3. A Restauração cria uma cópia temporária dos seus dados na classe de armazenamento S3 One Zone – IA, deixando os dados arquivados intactos no S3 Glacier Deep Archive. O período durante o qual uma cópia temporária é armazenada no S3 pode ser especificado em dias. Você poderá então acessar a cópia temporária do S3 por meio de uma solicitação GET do Amazon S3 para o objeto arquivado.

Ao restaurar um objeto arquivado, você pode especificar uma das seguintes opções no elemento Camada do corpo da solicitação: Padrão é a camada que permite acessar qualquer um dos objetos arquivados em até 12 horas, e Em massa permite recuperar grandes quantidades, mesmo petabytes de dados, de forma barata e normalmente concluída em 48 horas.

P: Como sou cobrado pelo uso do S3 Glacier Deep Archive?

O armazenamento do S3 Glacier Deep Archive é precificado com base na quantidade de dados armazenados em GBs, no número de solicitações de transição PUT/ciclo de vida, recuperações em GBs e número de solicitações de restauração. Este modelo de definição de preço é semelhante ao do S3 Glacier. Consulte a página Definição de preço do Amazon S3 para obter informações sobre os preços do S3 Glacier Deep Archive.

P: Como o uso do S3 Glacier Deep Archive será exibido na minha fatura da AWS e na ferramenta de gerenciamento de custos da AWS?

O uso e o custo do S3 Glacier Deep Archive aparecerão como um item de linha de serviço independente em sua fatura mensal da AWS, separado do uso e dos custos do Amazon S3. No entanto, se você estiver usando a ferramenta de gerenciamento de custos da AWS, o uso e o custo do S3 Glacier Deep Archive serão incluídos no uso e no custo do Amazon S3 em seus relatórios detalhados de gastos mensais, e não divididos como um item de linha de serviço separado.

P: Há uma duração mínima de armazenamento e taxas mínimas de armazenamento de objetos para o S3 Glacier Deep Archive?

O S3 Glacier Deep Archive foi projetado para armazenar dados de vida longa, mantidos por sete a dez anos ou mais, que raramente são acessados. Os objetos arquivados no S3 Glacier Deep Archive têm um período mínimo de armazenamento de 180 dias. Os objetos excluídos antes de 180 dias gerarão uma cobrança pro rata igual à cobrança do armazenamento pelos dias restantes. Consulte a página Definição de preço do Amazon S3 para obter informações sobre os preços do S3 Glacier Deep Archive.

O S3 Glacier Deep Archive possui um tamanho mínimo de armazenamento de 40 KB. Objetos menores que 40 KB podem ser armazenados, mas serão cobrados por 40 KB de armazenamento. Consulte a página Definição de preço do Amazon S3 para obter informações sobre os preços do S3 Glacier Deep Archive.

 

P: Como o S3 Glacier Deep Archive se integra a outros produtos da AWS?

O S3 Glacier Deep Archive é integrado aos recursos do Amazon S3, incluindo marcação de objetos do S3, políticas de ciclo de vida do S3, bloqueio de objetos do S3 e replicação do S3. Com os recursos de gerenciamento de armazenamento do S3, você pode usar um único bucket do Amazon S3 para armazenar uma combinação de dados do S3 Glacier Deep Archive, S3 Standard, S3 Standard – IA, S3 One Zone – IA e S3 Glacier. Isso permite que os administradores de armazenamento tomem decisões com base na natureza dos dados e padrões de acesso a dados. Os clientes podem usar as políticas do ciclo de vida do Amazon S3 para migrar automaticamente os dados para classes de armazenamento de custo mais baixo à medida que os dados envelhecem ou políticas de replicação entre regiões, ou da mesma região, do S3 para replicar dados para a mesma ou uma região diferente.

O serviço de AWS Storage Gateway integra o Gateway de fita com a classe de armazenamento do S3 Glacier Deep Archive, permitindo que você armazene fitas virtuais na classe de armazenamento do Amazon S3 de custo mais baixo, reduzindo o custo mensal de armazenamento de dados de longo prazo na nuvem em 75%. Com esse recurso, o Gateway de fita é compatível com o arquivamento de suas novas fitas virtuais diretamente no S3 Glacier e no S3 Glacier Deep Archive, ajudando você a atender aos seus requisitos de backup, arquivamento e recuperação. O Gateway de fita ajuda você a mover backups baseados em fita para a AWS sem fazer alterações nos fluxos de trabalho de backup existentes. O Gateway de fitas é compatível com a maioria das principais aplicações de backup, como o Veritas, o Veeam, o Commvault, o Dell EMC NetWorker, o IBM Spectrum Protect (no sistema operacional Windows) e o Microsoft Data Protection Manager.

Gerenciamento de armazenamento

Tags de objeto do S3

P: O que são as tags de objeto do S3?

As tags de objeto do S3 são pares de chave-valor aplicados aos objetos do S3, que podem ser criados, atualizados ou excluídos a qualquer momento durante o tempo de vida do objeto. Com elas, é possível criar políticas do Identity and Access Management (IAM), configurar políticas de ciclo de vida do S3 e personalizar métricas de armazenamento. Essas tags no nível de objeto podem gerenciar migrações entre classes de armazenamento e expirar objetos em segundo plano. É possível adicionar tags a novos objetos ao fazer o upload deles ou adicioná-las aos objetos existentes. É possível adicionar até dez tags a cada objeto do S3 e usar o Console de Gerenciamento da AWS, a API REST, a CLI da AWS ou os AWS SDKs para adicionar tags a objetos. 

Para saber mais, acesse o Guia do usuário de tags de objeto do S3.

P: Por que devo usar tags de objeto?

As tags de objeto são uma ferramenta que pode ser usada para habilitar o gerenciamento simples do armazenamento do S3. Com a capacidade de criar, atualizar e excluir tags a qualquer momento durante o tempo de vida do objeto, o armazenamento pode adaptar-se às necessidades da sua empresa. Essas tags permitem controlar o acesso a objetos marcados com pares de chave-valor específicos, o que permite a proteção ainda maior de dados confidenciais de apenas um grupo ou usuário específico. Tags de objeto também podem ser usadas para identificar objetos pertencentes a uma unidade de negócios ou a um projeto específico, em conjunto com políticas de ciclo de vida do S3 para gerenciar as transições para outras classes de armazenamento (S3 Standard – IA, S3 One Zone – IA e S3 Glacier) ou com o S3 Replication para replicar dados de forma seletiva entre as regiões da AWS.

P: Como posso atualizar as tags de objeto nos meus objetos?

As tags de objeto podem ser alteradas a qualquer momento durante o tempo de vida do objeto do S3. É possível usar o Console de Gerenciamento da AWS, a API REST, a ILC da AWS ou os SDKs da AWS para alterar tags de objeto. Todas as alterações feitas nas tags fora do Console de Gerenciamento da AWS serão feitas no conjunto de tags completo. Se você tiver cinco tags vinculadas a um objeto específico e desejar adicionar a sexta, será necessário incluir as cinco tags originais à solicitação.

P: Quanto custam as tags de objeto?

O preço das tags de objetos é determinado de acordo com a quantidade de tags e o custo de solicitação para adição de tags. As solicitações associadas à adição e à atualização de tags de objeto têm o mesmo preço das solicitações atuais. Para obter mais informações, acesse a página de preços do Amazon S3.

P: Como faço para começar a usar a Análise de classe de armazenamento?

Você pode usar o Console de Gerenciamento da AWS ou a API PUT Bucket Inventory do S3 para configurar uma política da Análise de classe de armazenamento para identificar armazenamentos acessados com pouca frequência que podem ser migrados para a classe de armazenamento S3 Standard-IA ou S3 One Zone-IA, ou arquivados na classe de armazenamento S3 Glacier. É possível navegar até a guia “Management” (Gerenciamento) no console do S3 para gerenciar métricas da Análise de classe de armazenamento do S3 Inventory e do CloudWatch para o S3.

S3 Inventory

P: O que é o S3 Inventory?

O relatório do S3 Inventory oferece uma alternativa programada à API List síncrona do Amazon S3. Você pode configurar o S3 Inventory para fornecer uma saída de arquivo CSV ORC ou Parquet dos objetos e seus metadados correspondentes com frequência diária ou semanal para um bucket ou prefixo do S3. É possível simplificar e acelerar fluxos de trabalho empresariais e tarefas de big data com o S3 Inventory. Você também pode usar o S3 Inventory para verificar o status de criptografia e replicação de objetos para atender a necessidades empresariais, de conformidade ou normativas. Saiba mais no guia do usuário do Amazon S3 Inventory.

P: Como faço para começar a usar o S3 Inventory?

É possível usar o Console de Gerenciamento da AWS ou a API PUT Bucket Inventory Configuration para configurar um relatório de inventário diário ou semanal de todos os objetos no bucket do S3 ou um subconjunto de objetos que compartilham o mesmo prefixo. Como parte da configuração, é possível especificar um bucket do S3 de destino para o relatório do S3 Inventory, o formato do arquivo de saída (CSV, ORC ou Parquet) e metadados de objeto específicos necessários para a aplicação empresarial, como: nome do objeto, tamanho, data da última modificação, classe de armazenamento, ID da versão, marcador de exclusão, sinalizador de versão não atual, sinalizador de multipart upload, status de replicação ou status de criptografia. Você pode usar o S3 Inventory como entrada direta para fluxos de trabalho de aplicações ou trabalhos de big data. Você também pode consultar o S3 Inventory usando linguagem SQL padrão com os serviços Amazon Athena e Amazon Redshift Spectrum, bem como com outras ferramentas como Presto, Hive e Spark.

Saiba mais no Guia do usuário do Amazon S3 Inventory.

P: Como sou cobrado pelo uso do S3 Inventory?

Consulte a página Definição de preço do Amazon S3 para obter a definição de preço do S3 Inventory. Depois de configurar a criptografia usando SSE-KMS, você incorrerá em cobranças do KMS pela criptografia. Consulte a página de definição de preços do KMS para obter detalhes.

Operações em lote do S3

P: O que são Operações em lote do S3?

As operações em lote do S3 é um recurso que você pode usar para automatizar a execução de uma única operação (como copiar um objeto ou executar uma função AWS lambda) em vários objetos. Com Operações em lote do S3, com alguns cliques no console do S3 ou uma única solicitação de API, é possível fazer alterações em bilhões de objetos sem precisar escrever um código de aplicação personalizada ou executar clusters de computação para aplicações de gerenciamento de armazenamento. As Operações em lote do S3 não apenas administram suas operações de armazenamento em vários objetos, como também gerenciam novas tentativas de operações em lote do S3, exibem o progresso, enviam notificações, fornecem um relatório de conclusão e enviam eventos para o AWS CloudTrail para todas as operações realizadas nos objetos de destino. As Operações em lote do S3 podem ser usadas no console do S3 ou por meio da CLI e do SDK da AWS. 

Para saber mais, acesse a página de operações em lote do S3 ou o guia do usuário.

P: Como faço para começar a usar as Operações em lote do S3?

Você pode começar a usar as Operações em lote do S3 acessando o console do Amazon S3 ou usando a CLI ou o SDK da AWS para criar seu primeiro trabalho de Operações em lote do S3. Um trabalho de Operações em lote do S3 consiste na lista de objetos para atuação e no tipo de operação a ser realizada (consulte a lista completa de operações disponíveis). Comece selecionando um relatório do S3 Inventory ou fornecendo sua própria lista personalizada de objetos nos quais as Operações em lote do S3 devem atuar. Um relatório do S3 Inventory é um arquivo que lista todos os objetos armazenados em um bucket ou prefixo do S3. Em seguida, você deve escolher entre um conjunto de operações do S3 compatíveis com as Operações em lote do S3, como substituição de conjuntos de tags, alteração de ACLs, cópia do armazenamento de um bucket para outro ou início de uma restauração do Glacier para o S3. Então, você pode personalizar suas tarefas das Operações em lote do S3 com parâmetros específicos, como valores de tag, concessões de ACL e duração de restauração. Para personalizar ainda mais suas ações de armazenamento, você pode escrever sua própria função Lambda e invocar esse código com as operações em lote do S3.

Depois de criar seu trabalho de Operações em lote do S3, estas processarão sua lista de objetos e enviarão o trabalho ao estado "aguardando confirmação", se necessário. Depois que você confirmar os detalhes do trabalho, as Operações em lote do S3 começarão a executar a operação especificada. É possível visualizar o progresso da tarefa programaticamente ou por meio do console do S3, receber notificações após a conclusão e examinar um relatório de conclusão que discrimina as alterações realizadas no armazenamento.

Se quiser saber mais sobre Operações em lote do S3, assista aos vídeos de tutoriais e consulte a documentação.

Bloqueio de objetos do S3

P: O que é o bloqueio de objetos do Amazon S3?

O bloqueio de objetos do Amazon S3 é um recurso do Amazon S3 que evita que uma versão do objeto seja excluída ou substituída por um determinado período ou indefinidamente, para que você possa aplicar políticas de retenção como uma camada adicional de proteção de dados ou para conformidade regulamentar. Você pode migrar cargas de trabalho de sistemas do tipo Write-Once-Read-Many (WORM, gravação única e várias leituras) para um Amazon S3 e configurar o bloqueio de objetos do S3 no nível do objeto e do bucket para evitar exclusões de versões de objetos antes das datas de retenção predefinidas ou indefinidamente (Datas de bloqueio legal). A proteção do Bloqueio de objetos do S3 é mantida independentemente da classe de armazenamento em que a versão do objeto reside e durante as transições do ciclo de vida do S3 entre as classes de armazenamento. 

Você deve usar o bloqueio de objetos do S3 se tiver requisitos regulatórios que especifiquem que os dados devem estar protegidos contra WORM ou se quiser adicionar mais uma camada de proteção aos dados no Amazon S3. O bloqueio de objetos do S3 pode ajudar a cumprir os requisitos normativos que especificam que os dados devem ser armazenados em um formato imutável, e também pode proteger você contra a exclusão acidental ou mal-intencionada de dados no Amazon S3.

Para saber mais, acesse o Guia do usuário de bloqueio de objetos do S3.

P: Como funciona o bloqueio de objetos do Amazon S3?

O bloqueio de objetos do Amazon S3 evita a exclusão de uma versão do objeto pela duração de um período de retenção especificado ou indefinidamente até que uma retenção legal seja removida. Com o bloqueio de objetos do S3, você pode garantir que uma versão do objeto permaneça imutável enquanto a proteção WORM for aplicada. Você pode aplicar a proteção contra WORM atribuindo uma data de retenção ou uma retenção legal a uma versão de objeto usando o SDK, a CLI ou a API REST da AWS ou o Console de Gerenciamento do S3. Você pode aplicar configurações de retenção com uma solicitação PUT ou aplicá-las a um objeto existente depois de ele ser criado.

A data de retenção define por quanto tempo uma versão de objeto permanecerá imutável. Após a atribuição de uma data de retenção a um objeto, a versão desse objeto só poderá ser modificada ou excluída depois que a data de retenção passar. Se um usuário tentar excluir um objeto antes da data de retenção, a operação será negada.

Como alternativa, você pode tornar um objeto imutável aplicando uma retenção legal a ele. Uma retenção legal evita que uma versão do objeto seja modificada ou excluída indefinidamente até que seja explicitamente removida. Para aplicar e remover retenções legais, sua conta da AWS deve ter permissão de gravação para a ação PutObjectLegalHold. A retenção legal pode ser aplicada a qualquer objeto em um bucket habilitado para o bloqueio de objetos do S3, independentemente de, no momento, esse objeto estar ou não protegido contra WORM por um período de retenção.

O bloqueio de objetos do S3 tem dois modos de configuração. Quando implantado no Governance Mode (Modo de governança), contas da AWS com permissões do IAM específicas podem remover a proteção contra WORM de uma versão do objeto. Se você precisar de uma imutabilidade mais forte para conformidade com regulamentos, é possível usar o Compliance Mode (Modo de conformidade). No modo de conformidade, a proteção contra WORM não pode ser removida por nenhum usuário, incluindo a conta raiz.

P: Quais serviços de armazenamento eletrônico da AWS foram avaliados com base nos regulamentos de serviços financeiros?

Para clientes no setor de serviços financeiros, o bloqueio de objetos do S3 fornece suporte adicional para corretoras que precisam manter registros em um formato não apagável e não regravável para cumprir os requisitos regulatórios da regra 17a-4(f) da SEC, regra 4511 da FINRA ou norma 1.31 da CFTC. Designe com facilidade o período de retenção de registros para manter arquivamentos regulamentares no formato original durante o prazo necessário, além de definir retenções legais para manter dados indefinidamente até que a retenção seja removida.

P: Qual documentação da AWS apoia os requisitos 17a-4(f)(2)(i) da SEC e 1.31(c) da CFTC para notificação do meu órgão normativo?

Envie uma notificação ao órgão normativo ou à “Designated Examining Authority (DEA – Autoridade Examinadora Designada)” de sua escolha para utilização do Amazon S3 para armazenamento eletrônico, juntamente com uma cópia da avaliação da Cohasset. Para os fins desses requisitos, a AWS não age como uma terceira parte designada (D3P). Garanta que você selecionou uma D3P e incluiu essas informações na notificação para a sua DEA.

S3 CloudWatch Metrics

P: Como faço para começar a usar as métricas do CloudWatch para o S3? 

É possível usar o Console de Gerenciamento da AWS para habilitar a geração de métricas de solicitação de um minuto do CloudWatch para o bucket do S3 ou configurar filtros para as métricas usando um prefixo, uma etiqueta de objeto ou um ponto de acesso. Como opção, é possível chamar a API PUT Bucket Metrics do S3 para habilitar e configurar a publicação de métricas de armazenamento do S3. As métricas de solicitação do CloudWatch serão disponibilizadas no CloudWatch 15 minutos após sua habilitação. As métricas de armazenamento do CloudWatch estão habilitadas por padrão para todos os buckets e são relatadas uma vez por dia. Saiba mais sobre as métricas do CloudWatch para o Amazon S3.

P: Quais alarmes posso definir nas métricas de armazenamento?

É possível usar o CloudWatch para definir limites sobre qualquer contagem, temporizador ou taxa de métricas de armazenamento, como também disparar uma ação quando o limite for ultrapassado. Por exemplo, é possível definir um limite para a porcentagem de respostas de erro 4xx e acionar um alarme do CloudWatch para alertar um engenheiro de DevOps quando pelo menos 3 pontos de dados ultrapassarem o limite.

P: Como sou cobrado pelo uso das métricas do CloudWatch para o S3? 

As métricas de armazenamento do CloudWatch são fornecidas gratuitamente. As métricas de solicitação do CloudWatch são cobradas como métricas personalizadas do Amazon CloudWatch. Consulte a página de definição de preços do Amazon CloudWatch para obter informações gerais sobre a definição de preço das métricas do CloudWatch para o S3.

Gerenciamento de ciclo de vida do S3

P: O que é gerenciamento de ciclo de vida do S3?

O gerenciamento de ciclo de vida do S3 oferece a capacidade de definir o ciclo de vida do seu objeto com uma política predefinida e reduzir seu custo de armazenamento. Você pode definir uma política de transição de ciclo de vida para migrar automaticamente os objetos armazenados na categoria de armazenamento S3 Standard para as categorias S3 Standard-IA, S3 One Zone-IA e/ou S3 Glacier com base no tempo de vida dos dados. Você também pode definir políticas de expiração de ciclo de vida para remover automaticamente objetos baseados na idade do objeto. Você pode definir uma política para a expiração de multipart upload, que expira multipart uploads incompletos com base em seus respectivos tempos de vida.

Para saber mais, acesse o Guia do usuário do ciclo de vida do S3.

P: Como faço para configurar uma política de gerenciamento de ciclo de vida do S3?

Você pode configurar e gerenciar políticas de ciclo de vida usando o Console de Gerenciamento da AWS, a API REST do S3, os SDKs da AWS ou a Interface da Linha de Comando (ILC) da AWS. Você pode especificar a política no prefixo ou no nível do bucket.

P: Como faço para usar o gerenciamento de ciclo de vida do Amazon S3 para ajudar a reduzir os custos de armazenamento do Amazon S3?

Com as políticas de ciclo de vida do Amazon S3, você pode configurar objetos para migração da categoria de armazenamento S3 Standard para as categorias S3 Standard-IA ou S3 One Zone-IA e/ou arquivamento no S3 Glacier. Você também pode especificar uma política de ciclo de vida do S3 para excluir objetos após um período específico. Você poderá usar essa automação orientada por políticas para reduzir, de forma rápida e fácil, custos de armazenamento e poupar tempo. Em cada regra, você pode especificar um prefixo, um período, uma transição para as categorias S3 Standard-IA, S3 One Zone-IA ou S3 Glacier, e/ou uma expiração. Por exemplo, você pode criar uma regra que arquive no S3 Glacier todos os objetos com o prefixo comum “logs/” 30 dias a partir da criação e expire esses objetos 365 dias após a criação. Você também pode criar uma regra separada que expira apenas os objetos com o prefixo “backups/” 90 dias a partir da criação. As políticas de ciclo de vida do S3 se aplicam a objetos novos e existentes do S3 e ajudam a otimizar o armazenamento e maximizar as reduções de custos para todos os dados atuais e novos residentes no S3, sem necessidade de migrações e revisões de dados manuais demoradas. Em uma regra de ciclo de vida, o campo de prefixo identifica os objetos sujeitos à regra. Para aplicar a regra a um objeto individual, especifique o nome da chave. Para aplicar a regra a um conjunto de objetos, especifique o prefixo em comum (por exemplo, "logs/"). Você pode especificar uma ação de transição para ter seus objetos arquivados e uma ação de expiração para que seus objetos sejam removidos. Para o período, informe a data de criação (ex.: 31 de janeiro de 2015) ou o número de dias a partir da data de criação (ex.: 30 dias) depois do qual você deseja que seus objetos sejam arquivados ou removidos. É possível criar várias regras para diferentes prefixos.

P: Qual o custo do uso do gerenciamento de ciclo de vida do S3?

Não há custo adicional para configurar e aplicar políticas de ciclo de vida. Uma solicitação de transição é cobrada por objeto quando um objeto se torna qualificado para transição de acordo com a regra do ciclo de vida. Consulte a página de preços do S3 para obter informações sobre preços.

P: Por que devo usar uma política de ciclo de vida do S3 que expira multipart uploads incompletos?

A política de ciclo de vida do S3 que expira multipart uploads incompletos permite que você economize custos por meio da limitação do período de armazenamento de multipart uploads não concluídos. Por exemplo, se o seu aplicativo fizer o upload de várias partes de objetos multipart, mas nunca confirmá-las, você ainda será cobrado por esse armazenamento. Essa política reduz a fatura de armazenamento do S3, removendo automaticamente multipart uploads incompletos e o armazenamento associado após um número predefinido de dias.

Saiba mais sobre o uso do ciclo de vida do S3 para realizar a expiração de multipart uploads incompletos »

Análise e informações de armazenamento

P: Quais recursos estão disponíveis para analisar meu uso do armazenamento no Amazon S3?

O S3 Storage Lens oferece uma visibilidade de toda a empresa quanto ao uso do armazenamento de objetos, às tendências da atividade e faz recomendações práticas para melhorar os custos e aplicar melhores práticas de proteção de dados. A S3 Storage Class Analysis permite monitorar os padrões de acesso a objetos para ajudar a decidir quando fazer a transição dos dados para a classe de armazenamento certa e otimizar os custos. Você pode usar essas informações para configurar uma política do ciclo de vida do S3 que faz a transferência dos dados. O Amazon S3 Inventory fornece um relatório de seus objetos e metadados correspondentes por dia ou semana para um bucket ou prefixo do S3. Esse relatório pode ser usado para ajudar a atender as necessidades de seu negócio, conformidade e regulações verificando a criptografia e o status de replicação dos seus objetos.

P: O que é Amazon S3 Storage Lens?

O Amazon S3 Storage Lens fornece a visibilidade de toda a empresa quanto às tendências de uso e atividade do armazenamento de objetos, e faz recomendações práticas para melhorar os custos e aplicar melhores práticas de proteção dos dados. O Storage Lens oferece um painel interativo contendo uma única visão do seu uso de armazenamento de objetos e atividade em dezenas ou centenas de contas em sua empresa, além de oferecer detalhamentos que permitem gerar insights no nível da conta, do bucket ou mesmo do prefixo. Isso inclui métricas como bytes, contas de objetos e solicitações, além de métricas detalhando a utilização do recurso S3, como contas de objetos criptografadas e contas do marcador de exclusão. O S3 Storage Lens também faz recomendações contextuais para encontrar formas de reduzir os custos de armazenamento e aplicar as práticas recomendadas quanto à proteção de dados em dezenas ou centenas de contas e buckets.

Para saber mais, acesse o Guia do usuário do S3 Storage Lens.

P: Como o S3 Storage Lens funciona?

O S3 Storage Lens agrega o uso do armazenamento e a métrica das atividades diariamente para a visualização no painel interativo do S3 Storage Lens ou ficam disponíveis como uma exportação de métrica no formato de arquivo CVS ou Parquet. Um painel padrão é criado automaticamente no nível da conta e você tem a opção de criar painéis personalizados adicionais no escopo na empresa AWS ou em contas específicas, regiões ou buckets. Ao configurar seu painel, é possível usar a seleção de métricas padrão ou receber métricas avançadas e recomendações por um custo adicional. O S3 Storage Lens faz recomendações contextualmente com métricas do armazenamento no painel para que você tome medidas para otimizar o armazenamento com base nas métricas.

P: Quais são as principais dúvidas que podem ser respondidas usando as métricas do S3 Storage Lens?

O painel do S3 Storage Lens é organizado em torno de três tipos principais de dúvidas que podem ser respondidas sobre o armazenamento. Na exibição Resumo, podem ser explicaras as perguntas de alto nível relacionados ao uso geral do armazenamento e às tendências da atividade. Por exemplo: “Com que rapidez minha contagem de bytes geral e contagem de solicitações aumentam com o tempo?” Na exibição Eficiência do custo, é possível explorar perguntas relacionadas à redução do custo de armazenamento, por exemplo: “É possível economizar dinheiro retendo menos versões não atuais?” E na exibição Proteção dos dados, você pode responder perguntas sobre a segurança dos dados, por exemplo: “Meu armazenamento tem proteção contra a exclusão acidental ou intencional?” Cada uma dessas perguntas representa uma primeira camada de consulta que provavelmente levaria a uma análise detalhada.

P: Quais métricas estão disponíveis no S3 Storage Lens?

O S3 Storage Lens tem mais de 30 métricas, agrupadas por métrica de uso (resultando em um snapshot diário dos objetos na conta) e métrica de atividade (que controla as solicitações e os bytes recuperados). As métricas são organizadas em três categorias principais: resumo, eficiência do custo e proteção dos dados. A mais, métricas derivadas são também fornecidas combinando qualquer métrica básica. Por exemplo, “Taxa de recuperação" é uma métrica calculada dividindo a "Contagem de bytes baixados" pela "Contagem total de bytes”. Para exibir a lista completa de métricas, visite a documentação do S3 Storage Lens.

P: Quais são as opções de configuração do painel?

Um painel padrão é configurado automaticamente para a conta inteira e você tem a opção de criar painéis personalizados adicionais no escopo na empresa AWS, em regiões específicas ou buckets em uma conta. Você pode configurar vários painéis personalizados, que podem ser úteis se precisar de uma separação lógica na análise do armazenamento, como segmentar os buckets para representar várias equipes internas. Por padrão, seu painel receberá as métricas gratuitas do S3 Storage Lens, mas você tem a opção de fazer upgrade para receber métricas avançadas do S3 Storage Lens e recomendações. E mais, para cada painel é possível habilitar a exportação de métrica, com mais opções para especificar o bucket de destino e o tipo de criptografia.

P: Quantos dados históricos estão disponíveis no S3 Storage Lens?

Para a métrica exibida no painel interativo, a métrica gratuita do Storage Lens retém dados históricos de 14 dias e as métricas avançadas e as recomendações retêm dados históricos de 15 meses. Para a exportação de métrica opcional, é possível configurar qualquer período de retenção desejado e serão aplicadas cobranças de armazenamento do S3 padrão.

P: Como será feita a cobrança do S3 Storage Lens?

O S3 Storage Lens está disponível em dois níveis de métricas. As métricas gratuitas estão disponíveis sem uma cobrança extra para todos os clientes. Os detalhes das métricas avançadas e das recomendações de preço do S3 Storage Lens estão disponíveis na página de preço do S3. Com as métricas gratuitas do S3 Storage Lens você recebe métricas de uso no nível do bucket fornece dados históricos de 14 dias no painel. Com as métricas avançadas e as recomendações do S3 Storage Lens, você recebe métricas de uso no nível do prefixo, métricas de atividade, recomendações e fornece dados históricos de 15 meses no painel.

P: Qual é a diferença entre S3 Storage Lens e S3 Inventory?

O S3 Inventory fornece uma lista de objetos e metadados correspondentes para um bucket S3 ou prefixo compartilhado, que pode ser usado para fazer uma análise de seu armazenamento no nível do objeto. O S3 Storage Lens fornece métricas agregadas por organização, conta, região, classe de armazenamento, bucket e prefixo, o que permite uma visibilidade melhor de seu armazenamento em toda a empresa.

P: Qual é a diferença entre S3 Storage Lens e S3 Storage Class Analysis (SCA)?

A S3 Storage Class Analysis faz recomendações para uma classe de armazenamento ideal criando grupos de idade do objeto com base nos padrões de acesso no nível do objeto em um bucket/prefixo/tag individual para 30-90 dias anteriores. O S3 Storage Lens faz recomendações diárias no nível da organização sobre modos de melhorar os custos e aplicar práticas recomendadas de proteção dos dados, com recomendações granulares adicionais por conta, região, classe de armazenamento, bucket ou prefixo.  

Análise de classe de armazenamento

P: O que é a Análise de classe de armazenamento?

Com a Análise de classe de armazenamento, você pode analisar os padrões de acesso ao armazenamento para determinar a classe de armazenamento ideal para o seu armazenamento. Esse recurso do S3 identifica automaticamente padrões de acesso pouco frequente para ajudar a migrar o armazenamento para o S3 Standard – IA. É possível configurar uma política de Análise de classe de armazenamento para monitorar um bucket completo, um prefixo ou uma tag de objeto. Quando for observado um padrão de acesso pouco frequente, será possível criar facilmente uma nova política de tempo de ciclo de vida do S3 com base nos resultados. A Análise de classe de armazenamento também disponibiliza visualizações diárias sobre o uso do armazenamento no Console de Gerenciamento da AWS. Você também pode habilitar um relatório de exportação para um bucket do S3 para análise usando ferramentas de business intelligence de sua escolha, como Amazon QuickSight.

Saiba mais e comece a usar visitando o Guia do usuário da Análise de classe de armazenamento do S3.

P: Com que frequência a Análise de classe de armazenamento é atualizada?

A Análise de classe de armazenamento é atualizada diariamente no Console de Gerenciamento do S3, mas as recomendações iniciais para transições de classe de armazenamento são fornecidas após 30 dias.

Consulta no local

P: O que é a funcionalidade “Consulta local”?

O Amazon S3 permite que os clientes executem consultas sofisticadas nos dados armazenados, sem necessidade de movê-los para uma plataforma de análise separada. A capacidade de consultar esses dados vigentes no Amazon S3 pode aumentar o desempenho e reduzir o custo das soluções de análise de forma significativa, aproveitando o S3 como um data lake. O S3 oferece várias opções de consulta vigente, entre elas S3 Select, Amazon Athena e Amazon Redshift Spectrum, para que você escolha a opção que se adapte melhor ao seu uso. Você pode até mesmo usar o Amazon S3 Select com o AWS Lambda para criar aplicativos sem servidor que podem aproveitar os recursos de processamento no local fornecidos pelo S3 Select.

P: O que é o S3 Select?

O S3 Select é um recurso do Amazon S3 que facilita a recuperação de dados específicos do conteúdo de um objeto usando expressões SQL simples, sem necessidade de recuperar o objeto inteiro. Com o S3 Select, a performance das tarefas de verificação e filtragem de conteúdo de objetos é simplificada e melhorada em até 400% com sua transformação em um conjunto de dados menor, segmentado. O S3 Select também permite executar investigações operacionais em arquivos de log no Amazon S3 sem a necessidade de operar ou gerenciar um cluster de computação. 

Você pode usar o S3 Select para recuperar subconjuntos de dados usando as cláusulas do SQL, como SELECT e WHERE, de objetos armazenados nos formatos CSV, JSON ou Apache Parquet. Ele também funciona com objetos compactados com GZIP ou BZIP2 (somente para objetos CSV e JSON) e objetos criptografados no lado do servidor.

Você pode usar o S3 Select com o AWS Lambda para criar aplicações sem servidor que usam o S3 Select para recuperar dados do Amazon S3 de maneira fácil e eficiente em vez de recuperar e processar o objeto inteiro. Use também o S3 Select com estruturas de big data como Presto, Apache Hive e Apache Spark para examinar e filtrar os dados no Amazon S3.

Para saber mais, acesse o Guia do usuário do S3 Select.

P: O que é o Amazon Athena?

O Amazon Athena é um serviço de consultas interativas que facilita a análise de dados no Amazon S3 usando consultas SQL padrão. O Athena não usa servidor, de forma que não existe uma infraestrutura para configurar ou gerenciar; é possível começar a analisar os dados imediatamente. Não é necessário nem mesmo carregar dados no Athena. Ele trabalha diretamente com dados armazenados em qualquer classe de armazenamento do S3. Para começar, basta fazer login no Athena Management Console, definir seu schema e dar início às consultas. O Amazon Athena usa Presto, com suporte completo a SQL padrão, e funciona com diversos formatos de dados padrão, como CSV, JSON, ORC, Apache Parquet e Avro. Apesar de o Athena ser ideal para consultas ad hoc rápidas e se integrar ao Amazon QuickSight para facilitar a visualização, ele também consegue processar análises complexas, inclusive grandes associações, funções de janela e matrizes.

P: O que é o Amazon Redshift Spectrum?

O Amazon Redshift Spectrum é um recurso do Amazon Redshift que permite executar consultas em exabytes de dados não estruturados no Amazon S3, sem necessidade de carregamento ou ETL. Quando você emite uma consulta, ela é enviada para o endpoint SQL do Amazon Redshift, que cria e otimiza um plano de consulta. O Amazon Redshift determina quais dados são locais e o que consta no Amazon S3, cria um plano para minimizar a quantidade de dados do Amazon S3 que precisam ser lidos, como também solicita que operadores do Redshift Spectrum de um grupo de recursos compartilhados leiam e processem os dados do Amazon S3.

O Redshift Spectrum aumenta a escala para milhares de instâncias se for necessário; por isso, as consultas são executadas mais rapidamente, não importa o tamanho dos dados. Além disso, você pode usar para os dados do Amazon S3 exatamente o mesmo SQL usado em consultas atuais do Amazon Redshift, bem como conectar-se ao mesmo endpoint do Amazon Redshift usando as mesmas ferramentas de inteligência de negócios. O Redshift Spectrum permite separar armazenamento e computação, o que possibilita ajustar a escala de cada um de modo independente. Você pode configurar quantos clusters do Amazon Redshift precisar para consultar seu data lake do Amazon S3, o que proporciona alta disponibilidade e simultaneidade ilimitada. O Redshift Spectrum oferece a liberdade de armazenar dados onde quiser, no formato que quiser e disponibilizá-los para processamento quando forem necessários.

Replicação

P: O que é o Amazon S3 Replication?

O Amazon S3 Replication permite a cópia automática e assíncrona de objetos nos buckets do Amazon S3. Os buckets que são configurados para a replicação de objetos podem pertencer à mesma conta da AWS ou a diferentes contas. Você pode copiar objetos para um ou mais buckets de destino entre diferentes regiões da AWS (replicação entre regiões do S3) ou na mesma região da AWS (replicação na mesma região do S3). Para saber mais, acesse o Guia do usuário do S3 Replication.

P: O que é a replicação entre regiões (CRR) do Amazon S3?

A CRR é um recurso do Amazon S3 que replica automaticamente dados entre buckets em diferentes regiões da AWS. Com a CRR, você pode definir a replicação no nível do bucket, de um prefixo compartilhado ou de um objeto usando tags de objeto do S3. Você pode usar a CRR para oferecer acesso a dados com latência reduzida em regiões geográficas diferentes. A CRR também pode ajudar se você tem requisitos de conformidade para armazenar cópias de dados a centenas de quilômetros de distância. Você pode usar a CRR para alterar a propriedade da conta dos objetos replicados para proteger os dados de exclusões acidentais. Para saber mais, acesse o Guia do usuário de CRR do S3.

P: O que é a replicação na mesma região (SRR) do Amazon S3?

A SRR é um recurso do Amazon S3 que replica automaticamente dados entre buckets na mesma região da AWS. Com a SRR, você pode configurar a replicação no nível do bucket, em um nível de prefixo compartilhado ou um nível de objeto usando tags de objeto do S3. Você pode usar a SRR para fazer uma ou mais cópias dos seus dados na mesma região da AWS. A SRR ajuda a cumprir os requisitos de soberania e conformidade de dados ao manter uma cópia dos seus dados em uma conta da AWS separada na mesma região do original. Você pode usar a SRR para alterar a propriedade da conta dos objetos replicados para proteger os dados de exclusões acidentais. Também é possível usar a SRR para agregar facilmente logs de buckets distintos do S3 para o processamento na região ou para configurar a replicação em tempo real entre os ambientes de teste e desenvolvimento. Para saber mais, acesse o Guia do usuário de SRR do S3.

P: Como faço para habilitar o Amazon S3 Replication (replicação entre regiões e na mesma região)?

O Amazon S3 Replication (CRR e SRR) é configurado no nível do bucket do S3, um nível de prefixo compartilhado ou um nível de objeto usando as tags de objeto do S3. Você adiciona uma configuração de replicação em seu bucket de origem especificando um bucket de destino na mesma região ou em uma região diferente da AWS para a replicação.

Você pode usar o console de gerenciamento do S3, a API, a CLI da AWS, SDKs da AWS, ou o AWS CloudFormation para habilitar a replicação. O versionamento deve ser habilitado nos buckets de origem e destino para que a replicação seja habilitada. Para saber mais, consulte a visão geral da configuração de Replicação no Guia do Desenvolvedor do Amazon S3.

P: Posso usar o S3 Replication (CRR e SRR) com as regras do S3 Lifecycle?

Com o S3 Replication (CRR e SRR), você pode estabelecer as regras de replicação para fazer cópias de seus objetos em outra classe de armazenamento, na mesma ou em uma região diferente. Ações de ciclo de vida não são replicadas e, se você desejar a mesma configuração de ciclo de vida aplicada aos buckets de origem e destino, você deverá habilitar a mesma configuração de ciclo de vida nos dois. 

Por exemplo, você pode configurar uma regra de ciclo de vida para migrar dados da categoria de armazenamento S3 Standard para a categoria S3 Standard – IA ou S3 One Zone – IA, ou arquivar dados no S3 Glacier, no bucket de destino.

Encontre mais informações sobre a configuração e a replicação de ciclo de vida no Guia do desenvolvedor do S3 Replication. 

P: Posso usar o S3 Replication para replicar em mais de um bucket de destino?

Sim. O S3 Replication permite que os clientes repliquem seus dados em vários buckets de destino nas mesmas regiões da AWS ou diferentes. Ao configurar, basta especificar o novo bucket de destino em sua configuração de replicação existente ou criar uma nova configuração de replicação com vários buckets de destino. Para cada novo destino especificado, há a flexibilidade de escolher a classe de armazenamento do bucket de destino, tipo de criptografia, métricas e notificações da replicação, RTC (Replication Time Control ) e outras propriedades.

P: Posso usar o S3 Replication para configurar uma replicação bidirecional entre os buckets do S3?

Sim. Para configurar a replicação bidirecional, você cria uma regra de replicação do bucket A para o bucket B e configura outra regra de replicação do bucket B para o bucket A. Certifique-se de habilitar a sincronização de modificação de réplica em ambos os intervalos A e B para replicar alterações de metadados de réplica como listas de controle de acesso a objetos(ACLs), tags de objeto ou bloqueios de objeto nos objetos replicados.

P: Posso usar a replicação em várias contas da AWS para proteção contra exclusão acidental ou mal-intencionada?

Sim, para CRR e SRR, você pode configurar a replicação entre contas AWS para armazenar seus dados replicados em uma conta diferente na região de destino. Você pode usar a sobrescrita de propriedade na configuração de replicação para manter uma pilha de propriedade diferente entre origem e destino, e conceder a propriedade da conta de destino ao armazenamento replicado.

P: As tags de objeto serão replicadas se a replicação entre regiões for usada?

As tags de objeto podem ser replicadas entre regiões da AWS usando a replicação entre regiões. Para clientes que já tiverem habilitado a replicação entre regiões, novas permissões serão necessárias para que as tags sejam replicadas. Para mais informações sobre a configuração da replicação entre regiões, consulte Configurar a replicação entre regiões no Guia do Desenvolvedor do Amazon S3.

P: Posso replicar marcadores de exclusão de um bucket em outro?

Sim, você poderá replicar marcadores de exclusão da origem para o destino se a replicação de marcador de exclusão estiver habilitada na sua configuração de replicação. Quando você replica marcadores de exclusão, o Amazon S3 se comporta como se o objeto fosse excluído em ambos os buckets. Você pode habilitar a replicação de marcadores de exclusão para uma regra de replicação nova ou existente. Você pode aplicar a replicação de marcadores de exclusão ao bucket inteiro ou a objetos do Amazon S3 que tenham um prefixo específico, com regras de replicação basadas em prefixo. O Amazon S3 Replication não aceita a replicação de marcadores de exclusão para regras de replicação baseadas em tag de objeto. Para saber mais sobre como habilitar a replicação de marcadores de exclusão, consulte Replicating delete markers from one bucket to another (Replicar marcadores de exclusão de um bucket em outro).

P: Posso replicar dados de outras regiões da AWS na China? Um cliente pode replicar de um bucket de região da China fora das regiões da China?

Não, o Amazon S3 Replication não está disponível entre regiões da AWS da China e regiões da AWS fora da China. Só é possível replicar nas regiões da China.

P: Qual é a definição de preço da replicação de dados entre contas?

Com o S3 Replication, é possível configurar a replicação entre contas em que os buckets de origem e de destino pertençam a contas da AWS diferentes. Com exceção do armazenamento do S3 e das taxas de recuperação aplicáveis, os clientes pagam por solicitações PUT de replicação e SAÍDA de transferência de dados entre regiões do S3 para a região de destino ao usar o S3 Replication. Se o S3 Replication Time Control (S3 RTC) estiver ativado em suas regras de replicação, você verá cobranças diferentes por SAÍDA de transferência de dados e solicitação PUT de replicação específicas para o S3 RTC. Para replicação entre contas, a conta de origem paga pro toda a transferência de dados (S3 RTC e S3 CRR) e a conta de destino paga por solicitações PUT de replicação. As cobranças por transferência de dados se aplicam somente ao S3 Cross Region Replication (S3 CRR) e ao S3 Replication Time Control (S3 RTC). Não há taxas por transferência de dados para o S3 Same Region Replication (S3 SRR). Visite a página de preços do S3 para obter mais detalhes sobre os preços da replicação do S3.

Controle de tempo do S3 Replication

P: O que é o Controle de tempo do Amazon S3 Replication?

O Amazon S3 Replication Time Control fornece uma performance de replicação previsível e ajuda a cumprir a conformidade ou os requisitos comerciais. O S3 Replication Time Control foi projetado para replicar a maioria dos objetos em segundos, 99% dos objetos em 5 minutos e 99,99% dos objetos em 15 minutos. O S3 Replication Time Control está amparado por um compromisso de Acordo de Nível de Serviço (SLA) em que 99,9% dos objetos serão replicados em 15 minutos para cada par de regiões de replicação durante qualquer mês de faturamento. O Replication Time funciona com todos os recursos do S3 Replication. Para saber mais, consulte o guia do desenvolvedor de replicação.

P: Como eu habilito o Amazon S3 Replication Time Control?

O Amazon S3 Replication Time Control é habilitado como uma opção para cada regra de replicação. Você pode criar uma nova política do S3 Replication com o S3 Replication Time Control ou habilitar o recurso em uma política existente.

É possível usar o console de gerenciamento do S3, a API, a CLI da AWS, SDKs da AWS ou o AWS CloudFormation para configurar a replicação. Para saber mais, consulte a visão geral da configuração de replicação no Guia do desenvolvedor do Amazon S3.

P: O que são métricas e eventos do Amazon S3 Replication?

As métricas e os eventos do Amazon S3 Replication fornecem visibilidade sobre a atividade do Amazon S3 Replication. Com as métricas do S3 Replication, você pode monitorar o número total de operações e o tamanho dos objetos pendentes de replicação, bem como a latência de replicação entre buckets de origem e destino para cada regra do S3 Replication. As métricas de replicação estão disponíveis no console de gerenciamento do Amazon S3 e no Amazon CloudWatch. Os eventos do S3 Replication o notificarão sobre falhas de replicação para que você possa diagnosticar e corrigir os problemas rapidamente. Se o S3 Replication Time Control (S3 RTC) estiver habilitado, você também será notificado quando a replicação de um objeto levar mais de 15 minutos e quando esse objeto for replicado com êxito no destino. Como outros eventos do Amazon S3, os eventos do S3 Replication estão disponíveis no Amazon Simple Queue Service (Amazon SQS), no Amazon Simple Notification Service (Amazon SNS) ou no AWS Lambda.

P: Como habilito as métricas e os eventos do Amazon S3 Replication?

É possível habilitar as métricas e os eventos do Amazon S3 Replication para cada regra de replicação nova ou existente, habilitando por padrão para as regras habilitadas do S3 Replication Time Control. Você pode acessar as métricas do S3 Replication pelo console de gerenciamento do Amazon S3 e pelo Amazon CloudWatch. Como outros eventos do Amazon S3, os eventos do S3 Replication estão disponíveis no Amazon Simple Queue Service (Amazon SQS), no Amazon Simple Notification Service (Amazon SNS) ou no AWS Lambda. Para saber mais, acesse Monitoring progress with replication metrics and Amazon S3 event notifications (Monitorar o progresso com métricas de replicação e notificações de eventos do Amazon S3) no Guia do Desenvolvedor do Amazon S3.

P: O que é o acordo de nível de serviço (SLA) do Amazon S3 Replication Time Control?

O Amazon S3 Replication Time Control é projetado para replicar 99,99% de seus objetos em 15 minutos e é apoiado por um acordo de nível de serviço. Se menos de 99,9% dos seus objetos forem replicados em 15 minutos para cada par de regiões de replicação durante um ciclo de cobrança mensal, o SLA do S3 RTC fornecerá um crédito de serviço para qualquer objeto que demore mais de 15 minutos para se replicar. O crédito de serviço cobre uma porcentagem de todas as cobranças relacionadas à replicação associadas aos objetos que não atenderam ao SLA, incluindo a taxa de RTC, a largura de banda de replicação, as cobranças de solicitação e o custo associado ao armazenamento de sua réplica na região de destino no ciclo de faturamento mensal afetado. Para saber mais, leia o SLA do S3 Replication Time Control.

P: O que é o preço do S3 Replication e do S3 Replication Time Control?

Para o S3 Replication (Replicação entre regiões (CRR) e Replicação na mesma região (SRR)), você paga as cobranças de armazenamento do S3 nas classes de armazenamento do S3 de destino selecionadas, as cobranças de armazenamento da cópia primária, as solicitações PUT de replicação e as taxas de recuperação de armazenamento de acesso infrequente. Para a CRR, você também paga pela exportação de dados entre regiões, saindo do S3 para sua região de destino. As S3 Replication Metrics são cobradas usando a mesma taxa das métricas personalizadas do Amazon CloudWatch. além disso, ao usar o S3 Replication Time Control, você também paga uma cobrança de transferência de dados do Replication Time Control. Para obter mais informações, visite a página de preços do S3.

Se o objeto de origem for carregado usando o recurso de multipart upload, ele será replicado usando o mesmo número de partes e o mesmo tamanho das partes. Por exemplo, um objeto de 100 GB carregado usando o recurso de multipart upload (800 partes de 128 MB cada) terá um custo associado a 802 solicitações (800 solicitações de partes de upload + 1 solicitação inicial de multipart upload + 1 solicitação completa de multipart upload) quando ele for replicado. Será cobrada uma taxa de solicitação de 0,00401 USD (802 solicitações x 0,005 USD por cada 1.000 solicitações) e (se a replicação se der entre diferentes regiões da AWS) uma taxa de 2 USD (0,020 USD por cada GB transferido x 100 GB) para a transferência de dados entre regiões. Após a replicação, os 100 GB terão um custo de armazenamento com base na região de destino.

S3 Multi-Region Access Points

P: O que são os S3 Multi-Region Access Points?

Os Amazon S3 Multi-Region Access Points aceleram a performance em até 60% ao acessar conjuntos de dados que são replicados em várias regiões da AWS. Com base no AWS Global Accelerator, os S3 Multi-Region Access Points consideram fatores como congestionamento da rede e a localização da aplicação solicitante para rotear dinamicamente as solicitações pela rede AWS para a cópia de menor latência de seus dados. O roteamento automático permite aproveitar a infraestrutura global da AWS enquanto mantém uma arquitetura de aplicação simples.

P: Por que usar os S3 Multi-Region Access Points?

Os S3 Multi-Region Access Points aceleram e simplificam o armazenamento para aplicações de várias regiões. Ao rotear dinamicamente as solicitações do S3 feitas para um conjunto de dados replicado, os S3 Multi-Region Access Points reduzem a latência da solicitação, para que as aplicações sejam executadas até 60% mais rápido. Além disso, é possível aproveitar a infraestrutura global da AWS enquanto mantém uma arquitetura de aplicação simples independente da região para suas aplicações.

P: Como funcionam os S3 Multi-Region Access Points?

Os Multi-Region Access Points roteiam solicitações de clientes dinamicamente para um ou mais buckets do S3 subjacentes. É possível configurar seu ponto de acesso de várias regiões para rotear em um bucket por região da AWS, em até 20 regiões da AWS. Quando você cria um ponto de acesso de várias regiões, o S3 gera automaticamente um nome compatível com DNS. Este nome é usado como um endpoint global que pode ser usado por seus clientes. Quando seus clientes fizerem solicitações a esse endpoint, o S3 roteará dinamicamente essas solicitações para um dos buckets subjacentes especificados na configuração do seu ponto de acesso de várias regiões.

Por padrão, os S3 Multi-Region Access Points roteiam as solicitações para o bucket subjacente mais próximo do cliente com base na latência da rede. Por exemplo, você pode configurar um ponto de acesso de várias regiões com buckets subjacentes em US-EAST-1 e em AP-SOUTH-1. Com essa configuração, seus clientes na América do Norte serão roteados para US-EAST-1 e seus clientes na para AP-SOUTH-1. Isso diminui a latência das solicitações feitas ao S3, melhorando a performance da aplicação.

Se sua aplicação acessa o S3 pela Internet,a performance será melhorada ainda mais pelos S3 Multi-Region Access Points, porque o S3 encaminhará as solicitações por meio do local da AWS mais próximo do cliente e, em seguida, pela rede privada global da AWS para o S3. As solicitações evitarão segmentos de rede congestionados na Internet, o que reduzirá a latência e o jitter da rede, melhorando a performance.

P: Como faço para começar a usar os S3 Multi-Region Access Points?

O Console de gerenciamento do S3 oferce um fluxo de trabalho orientado simples, que permite configurar rapidamente tudo o que você precisa para executar o armazenamento de várias regiões no S3 em apenas três etapas. Primeiro, um nome de host global exclusivo para seu ponto de acesso de várias regiões será gerado automaticamente para você. Você pode conectar seus clientes e aplicações sem precisar especificar uma região da AWS. Em segundo lugar, você selecionará um ou mais buckets no S3 que gostaria de rotear por trás desse novo nome de host. Você pode escolher intervalos existentes ou decidir ter novos intervalos criados para você. Em terceiro, você especificará as regras de replicação entre regiões do S3.

Como alternativa, você pode usar CloudFormation para automatizar sua configuração de armazenamento de várias regiões. Todos os blocos de construção necessários para configurar o armazenamento de várias regiões no S3, incluindo os S3 Multi-Region Access Points, são compatíveis com o CloudFormation, permitindo que você automatize facilmente um processo de configuração repetível fora do Console de gerenciamento do S3.

P: Qual é a diferença entre S3 Cross-Region Replication (S3 CRR) e os S3 Multi-Region Access Points?

O S3 CRR e os S3 Multi-Region Access Points são recursos complementares que funcionam juntos para replicar dados nas regiões da AWS e, em seguida, rotear automaticamente as solicitações para a cópia replicada com a latência mais baixa. Os S3 Multi-Region Access Points ajudam a gerenciar solicitações nas regiões da AWS, enquanto o CRR permite mover dados entre as regiões da AWS para criar réplicas isoladas. Você usa os S3 Multi-Region Access Points e o CRR juntos para criar um conjunto de dados multirregional replicado que possa ser endereçado por um único endpoint global.

P: Qual o custo dos S3 Multi-Region Access Points?

Quando você usa o S3 Multi-Region Access Points para encaminhar requisições dentro da AWS, você paga uma pequena taxa de roteamento para cada gigabyte (GB) processado, bem como taxas-padrão de requisição, armazenamento, transferência de dados e replicação do S3. Se sua aplicação roda fora da AWS e acessa o S3 pela Internet, o S3 Multi-Region Access Points aumenta a performance encaminhando automaticamente suas requisições por um local da borda da AWS, pela rede AWS privada global, para a cópia de seus dados mais próxima com base na latência de acesso. Ao acelerar as requisições feitas pela Internet, você paga a taxa de roteamento de dados e uma taxa de aceleração da Internet. Os preços da aceleração de Internet do S3 Multi-Region Access Points variam dependendo se o cliente da fonte está ou não na mesma localização da região AWS de destino, adicionado à definição de preço da transferência de dados padrão do S3. Consulte a página de preços do S3 e a aba de transferência de dados para obter mais informações sobre preços.

P: Qual a diferença entre o S3 Transfer Acelleration e S3 Multi-Regio Access Points?

Você pode usar o S3 Transfer Acceleration para acelerar as transferências de conteúdo de e para um único bucket do S3 centralizado usando a rede global AWS. Isso é particularmente útil para a transformação de longa distância de objetos maiores ou para remover aplicações da Web ou móveis. Com os S3 Multi-Region Access Points, é possível realizar transferências aceleradas semelhantes usando a rede global da AWS, exceto em muitos buckets do S3 em várias regiões da AWS para solicitações baseadas na Internet, baseadas em VPC e on-premises de e para o S3. Ao combinar S3 Multi-Region Access Points com o S3 Cross Replication, você fornece aos S3 Multi-Region access Points a capacidade de rotear dinamicamente suas solicitações da cópia de latência mais baixa de seus dados para aplicações de clientes em vários locais.

Processamento de dados

Object Lambda

P: O que é o S3 Object Lambda?

O S3 Object Lambda permite que você adicione seu próprio código a solicitações S3 GET para modificar e processar dados conforme eles são retornados a uma aplicação. Pela primeira vez, você pode usar o código personalizado para modificar os dados retornados por solicitações S3 GET padrão para filtrar linhas, redimensionar imagens dinamicamente, editar dados confidenciais e muito mais. O S3 Object Lambda ajuda você a atender facilmente aos requisitos de formato de dados exclusivos de qualquer aplicação, sem ter que criar e operar infraestrutura adicional, como uma camada de proxy ou ter que criar e manter várias cópias derivadas dos seus dados. O S3 Object Lambda usa as funções do AWS Lambda para processar automaticamente a saída de uma solicitação S3 GET padrão. O AWS Lambda é um serviço de computação sem servidor que executa um código definido pelo cliente, sem exigir o gerenciamento de recursos de computação subjacentes. 

Com apenas alguns cliques no Console de Gerenciamento da AWS, você pode configurar uma função Lambda e anexá-la a um endpoint de serviço do S3 Object Lambda. Desse ponto em diante, o S3 chamará automaticamente sua função do Lambda para processar quaisquer dados recuperados por meio do endpoint do S3 Object Lambda, retornando à aplicação um resultado transformado. Você pode criar e executar suas próprias funções do Lambda personalizadas, adaptando a transformação de dados do S3 Object Lambda ao seu caso de uso específico.

Para começar a usar o S3 Object Lambda, você pode usar o Console de Gerenciamento do S3, o SDK ou a API. Saiba mais na página do S3 Object Lambda ou no guia do usuário do S3 Object Lambda.

P: Por que devo usar o S3 Object Lambda?

Você deve usar o S3 Object Lambda para compartilhar uma única cópia dos seus dados em várias aplicações, evitando a necessidade de criar e operar uma infraestrutura de processamento personalizada ou de armazenar cópias derivadas dos seus dados. Por exemplo, ao usar o S3 Object Lambda para processar solicitações GET normais do S3, você pode mascarar dados confidenciais para fins de conformidade, reestruturar dados brutos com a finalidade de torná-los compatíveis com aplicações de machine learning, filtrar dados para restringir o acesso a conteúdo específico dentro de um objeto do S3 ou lidar como um ampla variedade de casos de uso adicionais. O S3 Object Lambda pode ser configurado com apenas alguns cliques no Console de Gerenciamento do Amazon S3. Leia o guia do usuário para saber mais.

P: Como o S3 Object Lambda funciona?

O S3 Object Lambda usa as funções do Lambda que você especifica para processar a saída de uma solicitação GET padrão. Depois de definir uma função do Lambda para processar os dados solicitados, você pode anexar essa função a um ponto de acesso do S3 Object Lambda. As solicitações GET feitas por meio de um ponto de acesso do S3 Object Lambda agora invocarão a função do Lambda especificada. Em seguida, o Lambda buscará o objeto do S3 solicitado pelo cliente e processará esse objeto. Concluído o processamento, o Lambda fará streaming do objeto processado de volta ao cliente autor da chamada. Leia o guia do usuário do S3 Object Lambda para saber mais.

P: Como começar a usar o S3 Object Lambda?

O S3 Object Lambda pode ser configurado de diversas maneiras. Configure o S3 Object Lambda no console do S3 navegando para a guia Object Lambda Access Point (Ponto de acesso do Object Lambda). Em seguida, crie um ponto de acesso do S3 Object Lambda, a função do lambda que você gostaria que o S3 executasse em comparação com suas solicitações GET e um ponto de acesso do S3 de suporte. Conceda permissões a todos os recursos para interagir com o Object Lambda. Por último, atualize o SDK e a aplicação para usar o novo ponto de acesso do S3 Object Lambda para recuperar os dados do S3 usando o SDK de linguagem de sua escolha. O S3 Object Lambda começará a processar suas solicitações GET. Existem exemplos de implantações da função do Lambda, na documentação da AWS para ajudar você a começar a usar o serviço.

Você também pode usar o AWS CloudFormation para automatizar a configuração do S3 Object Lambda. Quando você usar o modelo do AWS CloudFormation, a função do Lambda implementada na sua conta transmitirá objetos do S3 de volta para o cliente ou aplicação solicitante sem qualquer alteração. Adicione um código personalizado para modificar e processar dados à medida que eles são retornados a uma aplicação. Para saber mais, acesse o Guia do usuário do S3 Object Lambda.

P: Que tipos de operações posso realizar com o S3 Object Lambda?

Qualquer operação com suporte em uma função do Lambda é compatível com o S3 Object Lambda. Isso oferece uma ampla variedade de opções disponíveis para processar suas solicitações. Você fornece sua própria função do Lambda para executar cálculos personalizados em solicitações GET, obtendo a flexibilidade de processar dados de acordo com as necessidades da sua aplicação. O tempo de processamento do Lambda é limitado a no máximo 60 segundos. Para obter mais detalhes, consulte a documentação do S3 Object Lambda aqui.

P: Para quais tipos de solicitação do S3 o S3 Object Lambda oferece suporte?

O S3 Object Lambda oferece suporte a solicitações GET. Qualquer outra chamada de API do S3 feita a um ponto de acesso do S3 Object Lambda retornará a resposta de API padrão do S3. Saiba mais sobre o S3 Object Lambda no guia do usuário.

P: O que acontecerá quando uma função do S3 Object Lambda falhar?

Quando uma função do S3 Object Lambda falhar, você receberá uma resposta da solicitação com detalhes sobre a falha. Como outras invocações de funções do Lambda, a AWS também monitora automaticamente funções em seu nome, relatando métricas por meio do Amazon CloudWatch. Para ajudar você a solucionar falhas, o Lambda registra todas as solicitações processadas pela sua função e armazena automaticamente os logs gerados pelo seu código com o Amazon CloudWatch Logs. Para obter mais informações sobre como acessar os logs do CloudWatch para o AWS Lambda, acesse a Documentação do CloudWatch.

P: O S3 Object Lambda afeta o SLA de disponibilidade do S3 ou a durabilidade do S3?

O S3 Object Lambda conecta o Amazon S3, o AWS Lambda e, opcionalmente, outros serviços da AWS de sua escolha para fornecer objetos relevantes às aplicações solicitantes. Todos os serviços da AWS usados em conexão com o S3 Object Lambda continuarão a ser regidos por seus respectivos Acordos de Nível de Serviço (SLAs). Por exemplo, no caso de qualquer Serviço da AWS não atender seu Compromisso de serviço, você estará qualificado para receber um Crédito de serviço, conforme documentado no SLA desse serviço. A criação de um ponto de acesso do S3 Object Lambda não afeta a durabilidade dos seus objetos. No entanto, o S3 Object Lambda invoca sua função do AWS Lambda especificada, e você deve garantir que esta seja intencional e correta. Consulte o mais novo SLA do Amazon S3 aqui.

P: Quanto custa o S3 Object Lambda?

Ao usar o S3 Object Lambda, você paga uma taxa por gigabyte para cada gigabyte de dados retornado por meio do S3 Object Lambda. Você também paga pela solicitação GET do S3 e pelas cobranças de computação do AWS Lambda pelo tempo em que sua função especificada estiver em execução para processar os dados solicitados. Para ver os detalhes de preços e um exemplo, acesse a Página de preços do S3.

Pronto para começar?

Standard Product Icons (Features) Squid Ink
Confira os recursos do produto

Saiba mais sobre os recursos para gerenciamento de dados, segurança, gerenciamento de acesso, análise e muito mais.

Saiba mais 
Sign up for a free account
Cadastre-se para obter uma conta gratuita

Obtenha acesso instantâneo ao nível gratuito da AWS e comece a experimentar o Amazon S3. 

Cadastrar-se 
Standard Product Icons (Start Building) Squid Ink
Comece a criar no console

Noções básicas de como criar com o Amazon S3 no Console AWS.

Conceitos básicos