Questions fréquentes d’ordre général sur S3

Q : Qu'est-ce qu'Amazon S3 ?

Amazon S3 est un stockage d'objets conçu pour stocker et récupérer n'importe quelle quantité de données, depuis n'importe quel emplacement sur Internet. Il s'agit d'un service de stockage simple qui offre une durabilité, une disponibilité, des performances, une sécurité, et une scalabilité virtuellement illimitée à la pointe de l'industrie pour un tarif très bas.

Q : Que puis-je faire avec Amazon S3 ?

Amazon S3 offre une interface simple de services Web à utiliser pour stocker et récupérer n'importe quelle quantité de données, à tout moment, depuis n'importe quel emplacement sur le Web. Grâce à ce service Web, vous pouvez facilement créer des applications utilisant le stockage sur Internet. Étant donné qu'Amazon S3 est hautement évolutif et que vous payez uniquement pour ce que vous utilisez, vous pouvez démarrer modestement et développer votre application comme vous le souhaitez, sans compromettre ses performance ou sa fiabilité.

Amazon S3 est également conçu pour être extrêmement flexible. Stockez tous les types et quantités de données ; lisez les mêmes données un million de fois ou uniquement pour une reprise après sinistre ; créez une application FTP simple ou une application Web sophistiquée, comme le site marchand d'Amazon.com. Amazon S3 permet aux développeurs de se concentrer sur l'innovation, plutôt que de se casser la tête sur le stockage de données.

Q : Comment démarrer avec Amazon S3 ?

Pour vous inscrire à Amazon S3, cliquez sur ce lien. Pour accéder à ce service, vous devez disposer d’un compte Amazon Web Services . Si vous n'en avez pas, vous serez invité à en créer un au début du processus d'inscription à Amazon S3. Après vous être inscrit, consultez la documentation et les exemples de codes Amazon S3 dans le Centre de ressources pour démarrer avec Amazon S3.

Q : Qu'est-ce que les développeurs peuvent faire avec Amazon S3 qu'ils ne pourraient pas faire avec une solution sur site ?

Amazon S3 permet à tous les développeurs de profiter des avantages de la grande échelle d’Amazon sans recourir à des investissements massifs, ou compromettre les performances. Désormais, les développeurs sont libres d'innover tout en sachant qu'indépendamment des performances futures de leur société, il sera peu coûteux et simple d'assurer l'accessibilité, la disponibilité et la sécurité de leurs données.

Q : Quel genre de données est-ce que je peux stocker dans Amazon S3 ?

Vous pouvez stocker pratiquement n'importe quel type de données dans n'importe quel format. Consultez le Contrat de licence Amazon Web Services pour plus de détails.

Q : Quelle quantité de données puis-je stocker dans Amazon S3 ?

Le volume total de données et le nombre d'objets que vous pouvez stocker sont illimités. La taille des objets Amazon S3 individuels va de 0 octet minimum à 5 téraoctets maximum. L'objet le plus grand que vous pouvez télécharger avec un seul PUT est de 5 gigaoctets. Pour les objets dont la taille est supérieure à 100 mégaoctets, les clients doivent envisager d'utiliser la fonctionnalité de téléchargement en plusieurs parties.

Q : Quelles classes de stockage sont proposées par Amazon S3 ?

Amazon S3 offre un large éventail de classes de stockage conçues pour différents cas d'utilisation. Celles-ci comprennent S3 Standard pour le stockage à usage général des données à consultation fréquente ; S3 Intelligent-Tiering pour les données avec des modèles d'accès changeants ou inconnus ; S3 standard – Accès peu fréquent et S3 unizone – Accès peu fréquent pour les données à longue vie mais peu consultées ; Amazon S3 Glacier (S3 Glacier) et Amazon S3 Glacier Deep Archive (S3 Glacier Deep Archive) pour les archives à long-terme et la conservation de données ; et S3 Outposts pour le stockage d'objets sur site afin de répondre aux besoins de résidence des données. Vous pouvez en savoir plus sur ces classes de stockage en consultant la page Classes de stockage Amazon S3

Q : Que fait Amazon avec mes données dans Amazon S3 ?

Amazon stocke vos données et vérifie l'utilisation qui en est faite à des fins de facturation. Amazon n'accédera pas à vos données à des fins autres que celles de l'offre Amazon S3, sauf si la loi l'exige. Consultez le Contrat de licence Amazon Web Services pour plus de détails.

Q : Est-ce qu'Amazon stocke ses propres données dans Amazon S3 ?

Oui. Les développeurs dans Amazon utilisent Amazon S3 pour une grande variété de projets. Un grand nombre de ces projets utilisent Amazon S3 en tant que magasin de données faisant autorité et comptent dessus pour les opérations critiques.

Q : Comment sont organisées les données Amazon S3 ?

Amazon S3 est un magasin d'objets sur clé simple. Lorsque vous stockez des données, vous leur attribuez une clé d'objet unique qui peut ensuite être utilisée pour les récupérer. Les clés peuvent être une chaîne quelconque et structurées pour imiter les attributs hiérarchiques. Vous pouvez également utiliser S3 Object Tagging pour organiser vos données sur l'ensemble de vos compartiments et préfixes S3.

Q : Comment interagir avec Amazon S3 ?

Amazon S3 fournit une interface simple de services web de type REST reposant sur des normes, conçue pour fonctionner avec n'importe quelle boîte à outils de développement Internet. Les opérations sont volontairement simplifiées pour faciliter l'ajout de nouveaux protocoles de distribution et de couches fonctionnelles.

Q : Quel est le niveau de fiabilité d'Amazon S3 ?

Amazon S3 permet aux développeurs d'accéder à la même infrastructure de stockage de données hautement évolutive, hautement disponible, rapide, peu coûteuse qu'Amazon utilise pour faire fonctionner son propre réseau mondial de sites web. Les classes de stockage S3 Standard, S3 Standard – IA et S3 One Zone – IA sont conçues pour offrir 99,99 % de disponibilité, 99,9 % de disponibilité et 99,5 % de disponibilité respectivement ; les classes S3 Glacier et S3 Glacier Deep Archive sont conçues pour une disponibilité de 99,99 % et un SLA de 99,9 %. Toutes ces classes de stockage sont accompagnées de l'accord de niveau de service (SLA) Amazon S3.

Q : Quelles sont les performances d'Amazon S3 si le trafic venant de mon application augmente soudainement ?

Amazon S3 a été conçu dès le départ pour traiter le trafic de toute application Internet. Grâce au paiement à l'utilisation et à une capacité illimitée, vos coûts incrémentiels ne changent pas et votre service n'est pas interrompu. La grande échelle d'Amazon S3 nous permet de répartir la charge uniformément, afin qu'aucune application individuelle ne soit affectée par les pics de trafic.

Q : Un accord de niveau de service (SLA) est-il proposé par Amazon S3 ?

Oui. Le contrat de niveau de service Amazon S3 donne droit à un crédit de service si le pourcentage de disponibilité mensuelle d'un client est inférieur à notre engagement de service au cours de n'importe quel cycle de facturation.

Q: Qu’est-ce qu’une unité PCU (Provisioned Capacity Unit) et quand doit-elle être utilisée ?

La capacité préconfigurée garantit que votre capacité d’extraction pour les extractions rapides sera disponible quand vous en avez besoin. Chaque unité de capacité veille à ce qu’au moins 3 extractions rapides soient exécutées toutes les 5 minutes et produit un débit de données d’extraction atteignant 150 Mo/s. Vous pouvez préconfigurer votre capacité d’extraction si vous devez respecter des exigences de débit d’extraction rapide. Sans la préconfiguration de capacité, les requêtes d’extraction rapide seront acceptées si la capacité est disponible au moment de la requête. Vous pouvez acheter une capacité préconfigurée à l’aide de la console, du kit SDK ou de la CLI. Chaque unité de capacité préconfigurée coûte 100 USD par mois à compter de la date d’achat.

Q :  Que sont les classes de stockage Amazon S3 ?

Amazon S3 offre un large éventail de classes de stockage conçues pour différents cas d'utilisation. Celles-ci comprennent S3 Standard pour le stockage à usage général ou les données à consultation fréquente ; S3 Intelligent-Tiering pour les données avec des modèles d'accès changeants ou inconnus ; S3 Standard-Infrequent Access (S3 standard – Accès peu fréquent) et S3 One Zone-Infrequent Access (S3 unizone – Accès peu fréquent) pour les données à longue vie mais peu consultées ; et Amazon S3 Glacier (S3 Glacier) et Amazon S3 Glacier Deep Archive (S3 Glacier Deep Archive) pour les archives à long terme et la conservation de données. Si vous avez des exigences de résidence de données ne pouvant pas être respectées par une région AWS existante, vous pouvez utiliser la classe de stockage S3 Outposts pour stocker vos données S3 sur site. Amazon S3 propose également des fonctionnalités pour gérer vos données tout au long de leur cycle de vie. Une fois qu'une stratégie de Cycle de vie S3 est définie, vos données se transféreront automatiquement vers une classe de stockage différente sans qu'aucun changement ne soit apporté à votre application. En savoir plus sur la page dédiée aux classes de stockage S3

Q : Est-il possible d'avoir un compartiment hébergeant différents objets, dans différentes classes de stockage ?

Oui, il est possible d'avoir un compartiment hébergeant différents objets dans des classes de stockage S3 Standard, S3 Intelligent-Tiering, S3 Standard – Accès peu fréquent et S3 Unizone – Accès peu fréquent.

Régions AWS

Q : Où mes données sont-elles stockées ?

Lorsque vous créez votre compartiment Amazon S3, vous spécifiez une région AWS . Concernant les classes de stockage S3 Standard, S3 Standard – Accès peu fréquent et S3 Glacier, vos objets sont automatiquement stockés sur plusieurs appareils répartis sur un minimum de trois zones de disponibilité, distantes de plusieurs kilomètres dans une région AWS. Les objets stockés dans une classe de stockage S3 unizone – Accès peu fréquent sont stockés de façon redondante dans une seule zone de disponibilité dans la région AWS de votre choix. Pour S3 sur Outposts, vos données sont stockées dans votre environnement Outpost sur site, à moins que vous ne choisissiez manuellement de les transférer vers une région AWS. Pour plus d'informations sur la disponibilité du service Amazon S3 par région AWS, reportez-vous à la section relative aux produits et services régionaux.

Q : Qu'est-ce qu'une région AWS ?

Une région AWS est un emplacement géographique dans lequel AWS offre plusieurs zones de disponibilités isolées et physiquement séparées connectées par une mise en réseau hautement redondante, à faible latence et à haut débit.

Q : Qu'est-ce qu'une zone de disponibilité AWS ?

Une zone de disponibilité AWS est un emplacement isolé physiquement dans une région AWS. Dans chaque région AWS, S3 utilise au minimum trois zones de disponibilité distantes de plusieurs kilomètres pour assurer une protection en cas d'événements locaux comme des incendies, des inondations, etc.

Les classes de stockage Amazon S3 Standard, S3 Standard – Accès peu fréquent et S3 Glacier répliquent les données sur un minimum de trois zones de disponibilité afin de les protéger en cas de perte de la totalité d’une zone de disponibilité. Cela est également valable pour les Régions où moins de trois zones de disponibilité sont publiquement disponibles. Il est possible d'accéder aux objets stockés dans ces classes de stockage depuis toutes les zones de disponibilité dans une région AWS.

La classe de stockage Amazon S3 One Zone – IA réplique les données dans une seule zone de disponibilité. Les données stockées dans cette classe de stockage sont susceptibles d'être perdues en cas de destruction de la zone de disponibilité.

Q : Comment décider dans quelle région AWS stocker mes données ?

Plusieurs facteurs axés sur votre application particulière sont à prendre en compte. Vous voudrez peut-être stocker vos données dans une région…

  • ...proche de vos clients, vos centres de données ou vos autres ressources AWS afin de réduire les latences aux accès des données.
  • ...est éloignée de vos autres opérations pour une redondance géographique et à des fins de reprise après sinistre.
  • ...vous permet de répondre à des exigences légales et réglementaires spécifiques.
  • ...vous permet de réduire les coûts de stockage. Vous pouvez choisir une région avec des tarifs moins élevés pour économiser de l'argent. Pour en savoir plus sur les tarifs S3, consultez la page relative à la tarification de S3.

Q : Dans quelles parties du monde Amazon S3 est-il disponible ?

Amazon S3 est disponible dans les régions AWS sur l'ensemble du globe, et vous pouvez utiliser Amazon S3 où que vous vous trouviez. Vous avez seulement à choisir dans quelle(s) région(s) AWS vous souhaitez stocker vos données Amazon S3. Consultez le Tableau de disponibilité AWS par région pour une liste des régions AWS où S3 est actuellement disponible.

Facturation

Q : Combien coûte Amazon S3 ?

Avec Amazon S3, vous ne payez que les services que vous utilisez. Il n'existe pas de frais minimums. Vous pouvez estimer votre facture mensuelle à l'aide du Calculateur de tarification AWS.

Lorsque nos coûts sont moindres, nous facturons moins. Certains prix peuvent varier en fonction des régions Amazon S3. Les montants facturés sont basés sur l'emplacement de votre compartiment. Il n'y a pas de frais de transfert de données à l'intérieur d'une région Amazon S3 via une requête COPY. Les données transférées entre différentes régions AWS via une requête COPY sont facturées en fonction des tarifs indiqués dans la section Tarification de la page de présentation d'Amazon S3. Il n'y a pas de frais pour les données transférées entre Amazon EC2 et Amazon S3 au sein de la même région. Par exemple : des données transférées dans la région USA Est (Virginie du Nord). Cela dit, les données transférées entre Amazon EC2 et Amazon S3 dans toutes les autres régions sont facturées conformément aux tarifs indiqués sur la page Tarification d'Amazon S3. Par exemple, des données transférées entre les régions Amazon EC2 USA Est (Virginie du Nord) et Amazon S3 USA Ouest (Californie du Nord). Pour connaître la tarification S3 sur Outposts, veuillez consulter la page de tarification Outposts.

Q : Comment mon utilisation d'Amazon S3 me sera-t-elle facturée ?

Il n'y a pas de frais d'installation, ni aucun engagement à prendre pour commencer à utiliser le service. À la fin du mois, votre carte de crédit est automatiquement débitée en fonction de votre utilisation au cours du mois. Vous pouvez voir vos frais pour la période de facturation actuelle à tout moment sur le site d'Amazon Web Services en vous connectant à votre compte Amazon Web Services et en cliquant sur « Console Billing and Cost Management » sous « Votre compte de services Web ».

Avec le niveau d'offre gratuite AWS*, vous pouvez débuter avec Amazon S3 gratuitement dans toutes les régions, sauf la Région AWS GovCloud. Après s'être inscrits, les nouveaux clients AWS reçoivent 5 Go de stockage Amazon S3 Standard, 20 000 demandes Get, 2 000 demandes Put, 15 Go de transfert de données entrantes et 15 Go de transfert de données sortantes chaque mois pendant un an.

Amazon S3 vous facture les types d'utilisation suivants. Notez que les calculs ci-dessous partent du principe qu'aucun niveau gratuit d'AWS n'est en place.

Stockage utilisé :

Les tarifs de stockage Amazon S3 figurent sur la page Tarification d'Amazon S3.

Le volume de stockage facturé en un mois est basé sur le stockage moyen utilisé pendant le mois. Ceci inclut toutes les données et métadonnées d'objet stockées dans des compartiments que vous avez créés dans votre compte AWS. Nous mesurons votre utilisation en « TimedStorage-ByteHrs », qui sont additionnées à la fin du mois pour générer vos factures mensuelles.

Exemple de stockage :

Supposons que vous stockiez 100 Go (107 374 182 400 octets) de données dans Amazon S3 Standard dans votre compartiment pendant 15 jours en mars, et 100 To (109 951 162 777 600 octets) de données dans Amazon S3 Standard pendant les 16 derniers jours de mars.

À la fin du mois de mars, vous obtiendrez l'utilisation suivante en octet-heures : utilisation octet-heure totale = [107 374 182 400 octets x 15 jours x (24 heures/jour)] + [109 951 162 777 600 octets x 16 jours x (24 heures/jour)] = 42 259 901 212 262 400 octet-heures.

Convertissons ce résultat en Go/mois : 42 259 901 212 262 400 octets/heure / 1 073 741 824 octets par Go / 744 heures par mois = 52 900 Go/mois

Ce volume d'utilisation traverse deux niveaux de volume différents. Si l’on suppose que les données sont stocké dans la région USA- Est (Virginie du Nord), le coût de stockage mensuel est stocké dans la région USA Est (Virginie du Nord) : niveau 50 To : 51 200 Go x 0,023 USD = 1 177,60 USD, niveau 50 To à 450 To : 1 700 Go x 0,022 USD = 37,40 USD

Total des frais de stockage = 1 177,60 USD + 37,40 USD = 1 215,00 USD

Données réseau en transfert entrant :

Les tarifs des transferts de données entrantes dans Amazon S3 figurent sur la page Tarification d'Amazon S3. Ceci représente la quantité de données envoyées vers vos compartiments Amazon S3. 

Données réseau en transfert sortant :

Les tarifs des transferts de données sortantes d'Amazon S3 sont récapitulés dans la page Tarification d'Amazon S3. Pour Amazon S3, ces frais s'appliquent dès lors que les données figurant dans l'un de vos compartiments sont lues à partir d'un emplacement situé hors de la région Amazon S3 donnée.

Les niveaux de tarification des transferts sortants prennent en compte votre utilisation totale des transferts sortants depuis une région donnée vers Internet, pour Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS et Amazon VPC. Ces niveaux ne s'appliquent pas aux transferts de données Amazon S3 d'une région AWS et à destination d'une autre région AWS.

Exemple de transfert de données sortantes :
Supposons que vous transfériez 1 To de données hors d'Amazon S3, depuis la région USA Est (Virginie du Nord)vers Internet, et ce, tous les jours au cours d'un mois de 31 jours. Supposons que vous transfériez aussi 1 To de données hors d'une instance Amazon EC2, depuis cette même région vers Internet, et ce, au cours du même mois de 31 jours.

Votre transfert de données regroupé serait de 62 To (31 To depuis Amazon S3 et 31 To depuis Amazon EC2). Ceci équivaut à 63 488 Go (62 To x 1024 Go/To).

Ce volume d'utilisation traverse trois niveaux de volume différents. Si l’on suppose que les données sont stockées dans la région USA Est (Virginie du Nord), le prix de stockage mensuel est calculé ci-dessous en supposant :
Jusqu'à 10 To : 10 239 Go (10 × 1 024 Go/To – 1 (gratuit)) x 0,09 USD = 921,51 USD
De 10 To à 50 To : 40 960 Go (40 × 1 024) x 0,085 USD = 3 481,60 USD
De 50 To à 150 To : 12 288 Go (capacité restante) x 0,070 USD = 860,16 USD

Frais de transfert de données totaux = 921,51 USD + 3 481,60 USD + 860,16 USD = 5 263,27 USD

Demandes de données :

Les tarifs des demandes dans Amazon S3 sont récapitulés dans la grille tarifaire d'Amazon S3.

Exemple de demande :
Supposons que vous transfériez 10 000 fichiers vers Amazon S3 et transfériez 20 000 fichiers hors d'Amazon S3 tous les jours pendant le mois de mars. Ensuite, vous supprimez 5 000 fichiers le 31 mars.
Total de demandes PUT = 10 000 demandes x 31 jours = 310 000 demandes
Total de demandes GET = 20 000 demandes x 31 jours = 620 000 demandes
Total de demandes DELETE = 5 000 x 1 jour = 5 000 demandes

Si l’on suppose que votre compartiment se trouve dans la région USA Est (Virginie du Nord), les frais de demandes sont calculés ci-dessous :
310 000 demandes PUT : 310 000 demandes x 0,005 USD /1 000 = 1,55 USD
620 000 demandes GET : 620 000 demandes x 0,004 USD /10 000 = 0,25 USD
5 000 demandes DELETE = 5 000 demandes x 0,00 USD (gratuit) = 0,00 USD

Extraction de données :

La tarification pour l'extraction de données d'Amazon S3 s'applique pour les classes de stockage S3 Standard – Infrequent Access (S3 Standard – IA) et S3 One Zone – IA et est reprise sur la page Tarification Amazon S3.

Exemple d'extraction de données :
Imaginons que vous extrayez 300 Go en un mois de S3 Standard – IA, avec 100 Go sortant vers Internet, 100 Go destinés à EC2 dans la même région AWS, et 100 Go allant vers CloudFront dans la même région AWS.

Les frais d’extraction de données pour le mois doivent être calculées de la manière suivante 300 Go x 0,01/Go = 3,00 USD Notez que vous devez également régler les frais de transfert de données de réseau pour la partie qui a circulé sur Internet.

Consultez cette section pour en savoir plus sur la facturation des objets archivés dans Amazon S3 Glacier.

* * Votre utilisation de l'offre gratuite est calculée chaque mois dans toutes les régions excepté la région AWS GovCloud et appliquée automatiquement à votre facture – l'utilisation mensuelle non utilisée ne sera pas reportée. Certaines restrictions s'appliquent. Consultez les conditions de l'offre pour plus de détails.

Q : Pourquoi les prix varient-ils selon la région I Amazon S3 que je choisis ?

Lorsque nos coûts sont moindres, nous facturons moins. Par exemple, nos coûts sont plus bas dans la région USA Est (Virginie du Nord) que dans la région USA Ouest (Californie du Nord).

Q : Comment mon utilisation de la gestion des versions m'est-elle facturée ?

Les tarifs Amazon S3 standard sont appliqués à chaque version d'un objet stocké ou demandé. Par exemple, examinons le scénario suivant pour illustrer les coûts de stockage lors de l'utilisation du contrôle de version (supposons que le mois en cours fasse 31 jours) :

1) Jour 1 du mois : vous effectuez un PUT de 4 Go (4 294 967 296 octets) sur votre compartiment.
2) Jour 16 du mois : vous effectuez une opération PUT de 5 Go (5 368 709 120 octets) dans le même compartiment en utilisant la même clé que l'opération PUT d'origine du Jour 1.

Lorsque les coûts de stockage des opérations ci-dessus sont analysés, notez que l'objet de 4 Go du Jour 1 n'est pas supprimé du compartiment lorsque l'objet de 5 Go est écrit le Jour 15. À la place, l'objet de 4 Go est préservé en tant qu'ancienne version et l'objet de 5 Go devient la version la plus récemment écrite de l'objet au sein de votre compartiment. A la fin du mois :

Utilisation totale (en octet-heure)
[4 294 967 296 octets x 31 jours x (24 heures / jour)] + [5 368 709 120 octets x 16 jours x (24 heures / jour)] = 5 257 039 970 304 octet-heures.

Conversion en Go total-mois
5 257 039 970 304 octets/heure x (1 Go / 1 073 741 824 octets) x (1 mois / 744 heures) = 6 581 Go/mois

Le tarif est calculé sur la base des tarifs en vigueur pour votre région, qui sont indiqués sur la page de tarification Amazon S3.

Q : Combien dois-je payer pour accéder à Amazon S3 via AWS Management Console ?

Les prix Amazon S3 normaux sont appliqués lorsque vous accédez au service via AWS Management Console. Pour une expérience optimisée, AWS Management Console peut exécuter les demandes de manière proactive. En outre, certaines opérations interactives génèrent plusieurs demandes vers le service.

Q : Dans le cas où un autre compte AWS accède à mes compartiments Amazon S3, comment suis-je facturé ?

L'accès à votre stockage via un autre compte AWS est facturé en fonction de la tarification normale d'Amazon S3. Vous pouvez également choisir de configurer votre compartiment avec un paiement par le demandeur. Dans ce cas, le demandeur assume le coût des demandes et des téléchargements pour vos données Amazon S3.

Pour en savoir plus sur la configuration de compartiments avec paiement par le demandeur, consultez la documentation d'Amazon S3.

Q : Vos prix s’entendent-ils tous toutes taxes comprises ?

Sauf indication contraire, nos prix n'incluent pas les taxes et redevances applicables, y compris la TVA et les taxes sur les ventes applicables. Pour les clients dont l'adresse de facturation est située au Japon, l'utilisation de services AWS est soumise à la taxe sur la consommation applicable dans ce pays.

En savoir plus sur les taxes sur les services AWS »

Sécurité

Q : Quelle est le degré de sécurité de mes données dans Amazon S3 ?    

Amazon S3 est sécurisé par défaut. Lorsque des ressources Amazon S3 sont créées, seuls les propriétaires de ces ressources y ont accès. Amazon S3 prend en charge l'authentification d'utilisateur pour contrôler l'accès aux données. Vous pouvez utiliser les mécanismes de contrôle tels que les stratégies de compartiment et listes de contrôle d'accès (ACL) pour accorder sélectivement des permissions aux utilisateurs et groupes d'utilisateurs. La console Amazon S3 met en évidence vos compartiments accessibles au public, indique la source d’accès publique et vous avertit également si des modifications apportées à vos stratégies ou listes ACL de compartiment rendent votre compartiment accessible au public. Vous pouvez activer Block Public Access pour tous les comptes et compartiments que vous ne souhaitez pas rendre accessibles publiquement.

Vous pouvez charger/télécharger de manière sécurisée vos données sur ou depuis Amazon S3 par le biais des points de terminaison SSL utilisant le protocole HTTPS. Si vous avez besoin d'une sécurité supplémentaire, vous pouvez utiliser l'option Server Side Encryption (SSE) pour chiffrer les données au repos. Vous pouvez configurer vos compartiments Amazon S3 de manière à chiffrer automatiquement les objets avant de les stocker si les demandes de stockage entrantes ne contiennent pas les informations de chiffrement. Vous pouvez également utiliser vos propres bibliothèques de chiffrement pour chiffrer des données avant de les stocker dans Amazon S3.

Q : Comment puis-je contrôler l'accès à mes données stockées sur Amazon S3 ?

Les clients peuvent utiliser quatre mécanismes pour contrôler l'accès aux ressources Amazon S3 : Stratégies Identity and Access Management (IAM), stratégies de compartiments, Access Control Lists (ACL) et authentification par recherche de chaîne (Query String Authentication). IAM permet aux organisations comptant plusieurs employés de créer et gérer des utilisateurs multiples sous un seul compte AWS. Grâce aux politiques IAM, les clients peuvent accorder aux utilisateurs IAM un niveau précis de contrôle sur leur compartiment Amazon S3 ou sur les objets, tout en gardant un contrôle total sur tout ce que font les utilisateurs. Avec les stratégies relatives aux compartiments, les clients peuvent définir les règles largement appliquées sur leurs demandes auprès de leurs ressources Amazon S3, comme accorder des privilèges d'écriture à un sous-ensemble de ressources Amazon S3. Les clients peuvent également restreindre l'accès sur la base d'un aspect de la demande, comme le référent HTTP et l'adresse IP. Avec les ACL, les clients peuvent accorder des permissions spécifiques (c.-à-d. READ, WRITE, FULL_CONTROL) à des utilisateurs spécifiques pour un compartiment ou un objet individuel. Avec l'authentification par chaîne d'interrogation, les clients peuvent créer une URL vers un objet Amazon S3 uniquement valide pendant une période limitée. Pour plus d'informations sur les diverses stratégies de contrôle d'accès disponibles dans Amazon S3, veuillez vous référer à la rubrique Contrôle d’accès dans le Guide du développeur Amazon S3.

Q : Amazon S3 prend-il en charge l'audit des accès aux données ?

Oui, les clients peuvent configurer les compartiments Amazon S3 pour créer des enregistrements de journal d'accès pour toutes les demandes qui leur sont adressées. Les clients qui ont besoin de récupérer les informations IAM/d'identité utilisateur dans leurs fichiers journaux peuvent configurer les événements de données AWS CloudTrail.

Ces enregistrements de journal des accès peuvent être utilisés à des fins d'audit et contiennent des détails relatifs à la demande, tels que le type de requête, ainsi que l'heure et la date auxquelles la demande a été effectuée.

Q : De quelles options est-ce que je dispose pour chiffrer mes données stockées sur Amazon S3 ?

Vous pouvez choisir de chiffrer vos données à l'aide de SSE-S3, SSE-C, SSE-KMS, ou d'une bibliothèque client telle que Amazon S3 Encryption Client. Ces quatre solutions vous permettent de stocker des données sensibles chiffrées au repos sur Amazon S3.

SSE-S3 vous fournit une solution intégrée dans laquelle Amazon prend en charge la gestion et la protection de vos clés en utilisant plusieurs couches de sécurité. Vous devriez choisir SSE-S3 si vous préférez que ce soit Amazon qui gère vos clés.

SSE-C vous permet d'exploiter les fonctionnalités d'Amazon S3 pour réaliser le cryptage et le décryptage de vos objets tout en gardant le contrôle des clés utilisées pour crypter vos objets. Grâce à SSE-C, vous n'avez pas à mettre en place ou à utiliser une bibliothèque de cryptage cliente pour réaliser le cryptage et le décryptage de vos objets stockés dans Amazon S3, mais vous devez gérer les clés que vous avez transmises à Amazon S3 pour crypter et décrypter les objets. Utilisez SSE-C si vous souhaitez gérer vos propres clés de chiffrement, mais ne souhaitez pas mettre en place ou utiliser une bibliothèque de cryptage cliente.

SSE-KMS vous permet d'utiliser AWS Key Management Service (AWS KMS) pour gérer vos clés de chiffrement. Utiliser AWS KMS pour la gestion de vos clés présente plusieurs avantages supplémentaires. Avec AWS KMS, il existe plusieurs autorisations distinctes pour l'utilisation de la clé maître, vous permettant de bénéficier d'un niveau de contrôle supplémentaire ainsi que d'une protection contre les accès non autorisés à vos objets stockés dans Amazon S3. AWS KMS fournit une piste d’audit des accès, de sorte que vous puissiez voir qui a utilisé votre clé pour accéder à un objet et à quel moment, et consulter les tentatives d'accès non autorisées aux données des utilisateurs en vue de les déchiffrer. AWS KMS offre également des contrôles de sécurité supplémentaires afin de soutenir les efforts des clients pour se conformer aux exigences du secteur PCI-DSS, HIPAA/HITECH et FedRAMP.

En utilisant une bibliothèque de cryptage cliente, telle qu’Amazon S3 Encryption Client, vous gardez le contrôle des clés et procédez au cryptage et décryptage des objets côté client à l'aide de la bibliothèque de cryptage de votre choix. Certains clients préfèrent garder le contrôle total du cryptage et du décryptage de leurs objets. De cette manière, seuls les objets cryptés sont transférés via Internet vers Amazon S3. Utilisez une bibliothèque de cryptage cliente si vous souhaitez garder le contrôle de vos clés de cryptage, si vous êtes capable de mettre en place et d'utiliser une bibliothèque de cryptage cliente, et que vous avez besoin de crypter vos objets avant qu'ils ne soient transférés vers Amazon S3 pour être stockés.

Pour plus d'informations sur l'utilisation des options SSE-S3, SSE-C ou SSE-KMS d'Amazon S3, reportez-vous à la rubrique Utiliser le chiffrement du Guide du développeur Amazon S3.

Q : Puis-je respecter les règles de confidentialité des données de l'UE si j’utilise Amazon S3 ?

Les clients peuvent choisir de stocker toutes leurs données dans la région UE en optant pour la région UE (Francfort), UE (Irlande), UE (Londres) ou UE (Paris). Vous pouvez également utiliser S3 sur Outposts afin de conserver toutes vos données sur site dans l'Outpost. Vous pouvez transférer les données entre les Outposts ou vers une région AWS. Toutefois, vous êtes tenu de respecter les lois européennes relatives au respect de la vie privée. Veuillez consulter le Centre RGPD AWS pour plus d'informations. Si vous avez des exigences de localisation plus spécifiques, ou que d'autres réglementations des données à caractère personnel exigent que vous conserviez les données à un emplacement ne comportant pas de région AWS, vous pouvez utiliser S3 sur Outposts.

Q : Où puis-je trouver plus d'informations concernant la sécurité sur AWS ?

Pour en savoir plus sur la sécurité au sein d'AWS, consultez la page relative à la sécurité d’AWS.

Q : Qu'est-ce qu'un point de terminaison Amazon VPC pour Amazon S3 ?

Un point de terminaison Amazon VPC pour Amazon S3 est une entité logique au sein d'un VPC qui permet une connectivité uniquement à S3. Le point de terminaison VPC achemine les demandes vers S3 et renvoie les réponses vers le VPC. Pour plus d'informations sur les points de terminaison VPC, consultez l'article Utilisation des points de terminaison VPC.

Q : Puis-je autoriser un point de terminaison VPC spécifique à accéder à mon compartiment Amazon S3 ?

Vous pouvez limiter l'accès à votre compartiment depuis un point de terminaison Amazon VPC spécifique ou un ensemble de points de terminaison à l'aide des stratégies de compartiment Amazon S3. Les stratégies de compartiment S3 prennent désormais en charge une condition, aws:sourceVpce, que vous pouvez utiliser pour restreindre l'accès. Pour obtenir des informations supplémentaires et des exemples de stratégie, consultez l'article Utilisation de points de terminaison VPC.

Q : Qu’est-ce qu’Amazon Macie ?

Amazon Macie est un service de sécurité basé sur une IA qui vous aide à éviter toute perte de données grâce à l’automatisation de la découverte, du classement et de la protection de données sensibles dans Amazon S3. Amazon Macie utilise Machine Learning pour reconnaître les données sensibles comme les données personnelles (personally identifiable information, PII) ou la propriété intellectuelle. Le service attribue une valeur commerciale à ces données et fournit une visibilité sur leur emplacement de stockage et la façon dont elles sont exploitées dans votre organisation. Amazon Macie contrôle en permanence l’activité liée à l’accès aux données et génère des alertes lorsqu’il détecte un risque d’accès non autorisé ou de fuite accidentelle de données.

Q : Que puis-je faire avec Amazon Macie ?

Grâce à Amazon Macie, vous pouvez vous protéger contre les menaces de sécurité par le biais d’une surveillance continue de vos données et de vos informations d’identification de compte. Amazon Macie est un outil automatisé requérant peu d'interventions et permettant de rechercher et classer vos données commerciales. Ce service vous permet de contrôler la révocation d’accès ou le déclenchement de stratégies de réinitialisation de mot de passe en cas de détection de comportement suspect ou d’accès non autorisé aux données par des entités ou des applications tierces par l’intermédiaire de fonctions Lambda modélisées. Lorsqu’une alerte est générée, vous pouvez utiliser Amazon Macie pour répondre à l’incident et Amazon CloudWatch Events pour prendre rapidement les mesures nécessaires à la protection de vos données.

Q : Comment Amazon Macie sécurise vos données ?

Dans le cadre du processus de classification des données, Amazon Macie identifie les objets des clients dans les compartiments S3 et transfère de manière continue les contenus d’objet en mémoire pour analyse. S’il faut une analyse plus approfondie pour les formats de fichier plus complexes, Amazon Macie télécharge une copie complète de l’objet pour conserver le temps qu’il faut pour une analyse complète. Immédiatement après l’analyse du contenu du fichier par Amazon Macie pour la classification des données, le service supprime le contenu stocké et ne conserve que les métadonnées nécessaires pour de futures analyses. À tout moment, les clients peuvent révoquer l’accès d’Amazon Macie aux données du compartiment Amazon S3. Pour en savoir plus, consultez le guide de l'utilisateur Amazon Macie.

Q : Qu'est-ce qu'Access Analyzer for S3 ?

Access Analyzer for S3 est une fonctionnalité qui surveille vos stratégies d'accès, garantissant que celles-ci fournissent uniquement les accès prévus à vos ressources S3. Access Analyzer for S3 évalue les stratégies d'accès de votre compartiment et permet d'identifier et de corriger rapidement ceux qui offrent un accès potentiellement indésiré.

Q. Comment fonctionne Access Analyzer for S3 ?

Access Analyzer for S3 vous prévient quand un compartiment est configuré de manière à autoriser l'accès à n'importe quel utilisateur sur Internet ou s'il est partagé avec d'autres comptes AWS. Vous recevez des analyses, ou « découvertes », portant sur la source et le niveau des accès public ou partagé. Par exemple, Access Analyzer for S3 vous informe directement si des accès en lecture ou en écriture ont été accordés par accident dans le cadre d'une liste de contrôle d'accès (ACL) ou d'une stratégie de compartiment. Grâce à ces analyses, vous pouvez définir ou restaurer immédiatement la stratégie d'accès prévue.

Lorsque vous recevez des résultats montrant des accès potentiellement partagés à un compartiment, vous pouvez bloquer tous les accès publics au compartiment en un seul clic dans la console de gestion S3. Vous pouvez également aller plus loin en configurant des niveaux d’accès granulaires dans les paramètres des niveaux de permission des compartiments.

Pour des cas spécifiques et vérifiés d’utilisation qui nécessitent un accès public, comme l’hébergement statique de site web, vous pouvez confirmer et archiver les découvertes sur un compartiment. Vous enregistrez ainsi votre intention de maintenir le compartiment public ou partagé. Vous pouvez revisiter et modifier ces configurations de compartiments à tout moment. À des fins d'audit, les découvertes d'Access Analyzer for S3 peuvent être téléchargées sous forme de rapport CSV.

Q. Comment activer Access Analyzer for S3 ?

Pour démarrer avec Access Analyzer for S3, consultez la console IAM pour activer l'AWS Identity and Access Management (IAM) Access Analyzer. Cela fait, Access Analyzer for S3 sera automatiquement visible dans la console de gestion S3.

Access Analyzer for S3 est disponible sans coût supplémentaire dans la console de gestion S3.

Durabilité et protection des données

Q : Quelle est la durabilité d'Amazon S3 ?

Amazon S3 Standard, S3 standard – Accès peu fréquent, S3 unizone – Accès peu fréquent, S3 Glacier et S3 Glacier Deep Archive sont tous prévus pour fournir une durabilité de 99,999999999 % des objets sur une année donnée. Ce niveau de durabilité correspond à une perte moyenne annuelle prévue de 0,000000001 % des objets. Par exemple, si vous stockez 10 000 000 d'objets avec Amazon S3, vous pouvez vous attendre à perdre en moyenne un objet unique une fois tous les 10 000 ans. S3 sur Outposts est conçu pour stocker les données de manière durable et redondante sur plusieurs périphériques et serveurs dans votre Outpost. De plus, Amazon S3 Standard, S3 standard – Accès peu fréquent, S3 Glacier et S3 Glacier Deep Archive sont tous conçus pour prendre en charge des données en cas de perte d'une zone de disponibilité S3 complète.

Comme dans n'importe quel environnement, la bonne pratique en vigueur est de conserver une sauvegarde et de mettre en place des protections contre les suppressions accidentelles ou malveillantes. Pour les données stockées sur S3, cette bonne pratique inclut la gestion sécurisée des autorisations d'accès, la réplication sur plusieurs régions, la gestion des versions et le maintien de sauvegardes fonctionnelles et testées régulièrement. 

Q : Comment Amazon S3 et Amazon S3 Glacier sont-ils conçus pour atteindre une durabilité de 99,999999999 % ?

Les classes de stockage Amazon S3 Standard, S3 Standard – Accès peu fréquent et S3 Glacier stockent de façon redondante vos objets sur plusieurs appareils, dans un minimum de trois zones de disponibilité dans une région Amazon S3 avant de renvoyer un message SUCCESS. La classe de stockage S3 One Zone – IA stocke les données de façon redondante sur plusieurs appareils dans une seule zone de disponibilité. Ces services sont conçus pour prendre en charge des pannes de périphériques simultanées en détectant et réparant rapidement toute redondance perdue. De plus, ils vérifient régulièrement l'intégrité de vos données au moyen de sommes de contrôle.

Q : Quelles sommes de contrôle Amazon S3 utilise-t-il pour détecter la corruption des données ?

Amazon S3 utilise une combinaison de sommes de contrôle Content-MD5 et de contrôles de redondance cycliques (CRC) pour détecter une éventuelle corruption des données. Amazon S3 exécute ces sommes de contrôle sur des données statiques et répare toute corruption en utilisant les données redondantes. En outre, le service calcule les sommes de contrôle sur tout le trafic de réseau pour détecter la corruption des paquets de données lors du stockage ou de la récupération des données.

Q : Qu'est-ce que la gestion des versions ?

Le contrôle de version permet de préserver, récupérer et restaurer toutes les versions de chacun des objets stockés dans un compartiment Amazon S3. Une fois le contrôle de version pour un compartiment activé, Amazon S3 préserve les objets existants à chaque fois que vous réalisez une opération PUT, POST, COPY ou DELETE sur ces objets. Par défaut, les demandes GET récupèrent la version écrite le plus récemment. Les versions plus anciennes d'un objet écrasé ou supprimé peuvent être récupérées en spécifiant une version dans la demande.

Q : Pourquoi devrais-je utiliser la gestion des versions ?

Amazon S3 fournit aux clients une infrastructure de stockage extrêmement durable. Le contrôle de version propose un niveau de protection supplémentaire en fournissant un moyen de récupération lorsque les clients écrasent ou suppriment accidentellement des objets. Ceci vous permet de récupérer facilement les objets perdus suite à des actions involontaires d'utilisateurs et des défaillances d'applications. Vous pouvez également utiliser le contrôle de version pour la rétention et l'archivage de données.

Q : Comment démarrer avec la gestion des versions ?

Vous pouvez commencer à utiliser le contrôle de version en activant un paramètre sur votre compartiment Amazon S3. Pour plus d'informations sur la manière d'activer le contrôle de version, consultez la documentation technique d'Amazon S3.

Q : Comment la gestion des versions me protège-t-elle d'une suppression accidentelle de mes objets ?

Lorsqu'un utilisateur effectue une opération DELETE sur un objet, les demandes simples (dont la gestion par version est annulée) ultérieures ne peuvent plus récupérer l'objet. Toutefois, toutes les versions de cet objet continueront d'être préservées dans votre compartiment Amazon S3 et pourront être récupérées ou restaurées. Seul le propriétaire d'un compartiment Amazon S3 peut supprimer une version de manière définitive. Vous pouvez définir des règles de cycle de vie pour gérer la durée de vie et le coût de stockage de plusieurs versions de vos objets.

Q : Puis-je configurer une corbeille ou une fenêtre de restauration sur mes objets Amazon S3 pour passer outre les suppressions et les écrasements ?

Vous pouvez utiliser les règles de cycle de vie avec la gestion des versions pour mettre en œuvre une fenêtre de restauration pour vos objets Amazon S3. Par exemple, avec votre compartiment avec gestion des versions, vous pouvez configurer une règle qui archive toutes vos versions antérieures dans la classe de stockage Glacier, moins chère, et les supprime après 100 jours, ce qui vous laisse un délai de 100 jours pour annuler des modifications apportées à vos données, tout en diminuant vos coûts de stockage.

Q : Comment puis-je assurer une protection maximale aux versions préservées ?

La fonctionnalité Delete de la Multi-Factor Authentication (MFA) (Authentification à plusieurs facteurs) de la gestion des versions peut être utilisée pour offrir une couche supplémentaire de sécurité. Par défaut, toutes les demandes vers votre compartiment Amazon S3 nécessitent vos identifiants de compte AWS. Si vous activez le contrôle de versions avec MFA Delete sur votre compartiment Amazon S3, deux formes d'authentification sont requises pour supprimer de manière permanente une version d'un objet : vos identifiants de compte AWS, et un code à six chiffres et un numéro de série valides émis par un périphérique d'authentification que vous détenez physiquement. Pour en savoir plus sur l'activation du contrôle de version avec MFA Delete, et notamment comment acheter et activer un périphérique d'authentification, consultez la documentation technique d'Amazon S3.

Q : Comment mon utilisation de la gestion des versions m'est-elle facturée ?

Les tarifs Amazon S3 standard sont appliqués à chaque version d'un objet stocké ou demandé. Par exemple, examinons le scénario suivant pour illustrer les coûts de stockage lors de l'utilisation du contrôle de version (supposons que le mois en cours fasse 31 jours) :

1) Jour 1 du mois : vous effectuez un PUT de 4 Go (4 294 967 296 octets) sur votre compartiment.
2) Jour 16 du mois : vous effectuez une opération PUT de 5 Go (5 368 709 120 octets) dans le même compartiment en utilisant la même clé que l'opération PUT d'origine du Jour 1.

Lorsque les coûts de stockage des opérations ci-dessus sont analysés, notez que l'objet de 4 Go du Jour 1 n'est pas supprimé du compartiment lorsque l'objet de 5 Go est écrit le Jour 15. À la place, l'objet de 4 Go est préservé en tant qu'ancienne version et l'objet de 5 Go devient la version la plus récemment écrite de l'objet au sein de votre compartiment. A la fin du mois :

Utilisation totale (en octet-heure)
[4 294 967 296 octets x 31 jours x (24 heures / jour)] + [5 368 709 120 octets x 16 jours x (24 heures / jour)] = 5 257 039 970 304 octet-heures.

Conversion en Go total-mois
5 257 039 970 304 octets/heure x (1 Go / 1 073 741 824 octets) x (1 mois / 744 heures) = 6 581 Go/mois

Le tarif est calculé sur la base des tarifs en vigueur pour votre région, qui sont indiqués sur la page de tarification Amazon S3.

Points d'accès S3

Q : Qu'est-ce que les points d'accès Amazon S3 ?

Aujourd'hui, les clients gèrent l'accès à leurs compartiments S3 en utilisant une stratégie de compartiment unique qui contrôle l'accès pour des centaines d'applications aux niveaux d'autorisation différents.

Les points d'accès Amazon S3 simplifient la gestion de l'accès aux données à grande échelle pour les applications utilisant des ensembles de données partagés sur S3. Avec les points d'accès S3, vous pouvez désormais facilement créer des centaines de points d'accès par compartiment et bénéficier ainsi d'une nouvelle manière de fournir un accès à des ensembles de données partagées. Les points d'accès offrent un chemin personnalisé vers un compartiment, avec un nom d'utilisateur unique et une stratégie d'accès qui met en œuvre les autorisations et les contrôles réseau spécifiques pour toute requête effectuée via le point d'accès.

Q : Comment fonctionnent les points d'accès S3 ?

Chaque point d'accès S3 est configuré avec une stratégie d'accès spécifique à un cas d'utilisation ou à une application, et un compartiment peut disposer de centaines de points d'accès. Par exemple, pour votre compartiment S3, vous pouvez créer un point d'accès qui accorde l'accès à votre data lake à des groupes d'utilisateurs ou d'applications. Un point d'accès peut être dédié à un seul utilisateur ou à une seule application ou à des groupes d'utilisateurs ou d'applications, permettant ainsi une gestion séparée de chaque point d'accès. Chaque point d'accès est associé à un seul compartiment et contient un contrôle de l'origine réseau et un autre de blocage de l'accès public. Par exemple, vous pouvez créer un point d'accès avec un contrôle de l'origine réseau qui n'autorise l'accès au stockage que depuis votre Virtual Private Cloud, une section isolée de manière logique du Cloud AWS. Vous pouvez également créer un point d'accès dont la stratégie est configurée pour n'autoriser l'accès qu'à des objets ayant un préfixe défini, tel que « finance ».

Chaque point d'accès contenant un nom DNS unique, vous pouvez aujourd'hui donner à des compartiments existants et nouveaux le nom de votre choix, pour autant que ce nom soit unique dans le compte et la région AWS. Lors de l'utilisation de points d'accès limités à un VPC, vous disposez désormais d'un moyen simple et auditable pour vous assurer que les données S3 restent dans votre VPC. En outre, vous pouvez maintenant utiliser des politiques de contrôle des services AWS pour exiger que tout nouveau point d'accès de leur organisation soit limité exclusivement à l'accès VPC.

Q : Quelle est la différence entre un compartiment et un point d'accès ?

Un compartiment représente l'espace de stockage logique de vos objets, tandis qu'un point d'accès assure l'accès au compartiment et à son contenu. Un point d'accès est une ressource Amazon séparée créée pour un compartiment avec un Amazon Resource Name (ARN), un nom d'hôte (au format https://[nom_point_accès]-[ID compte].s3-accesspoint.[région].amazonaws.com), une stratégie de contrôle d'accès et un contrôle de l'origine réseau.

Q : Quel est l'intérêt d'utiliser un point d'accès ?

Les points d'accès S3 simplifient la gestion de l'accès aux données pour votre application configurée pour vos ensembles de données partagés sur S3. Vous ne devez plus gérer une stratégie de compartiment unique et complexe avec des centaines de règles d'autorisation différentes qu'il faut écrire, lire, suivre et auditer. Grâce aux points d'accès S3, vous pouvez désormais créer des points d'accès spécifiques à une application et autorisant l'accès aux ensembles de données partagés avec des stratégies adaptées pour cette application spécifique.

En utilisant des points d'accès, vous pouvez décomposer la stratégie générale d'un compartiment en plusieurs stratégies de point d'accès séparées pour chaque application qui doit accéder à l'ensemble de données partagé. Cela permet de se concentrer sur la définition de la stratégie d'accès correcte pour une application, sans devoir se préoccuper du risque de perturber ce qu'une autre application fait dans l'ensemble de données partagé. Vous pouvez aussi créer une stratégie de contrôle de service (SCP) et exiger que tous les points d'accès soient limités au Virtual Private Cloud (VPC), créant ainsi un pare-feu pour vos données au sein de vos réseaux privés. Les points d'accès permettent de tester aisément de nouvelles stratégies d'accès avant la migration des applications sur le point d'accès, ou avant de copier la stratégie sur un point d'accès existant. Avec les points d'accès S3, il est possible de spécifier des stratégies de point de terminaison d'un VPC qui n'autorisent l'accès qu'aux points d'accès (et donc aux compartiments) appartenant à des ID de compte spécifiques. Cela simplifie la création de stratégies d'accès qui autorisent l'accès à des compartiments au sein du même compte, tout en rejetant tout autre accès S3 via le point de terminaison d'un VPC. Les points d'accès S3 vous permettent de spécifier le nom de votre choix, pour autant qu'il soit unique dans le compte et la région. Vous pouvez, par exemple, désormais avoir un point d'accès « test » dans chaque compte et région.

Q : Comment démarrer avec les points d'accès S3 ?

Vous pouvez commencer à créer des points d'accès sur des compartiments nouveaux ou existants via AWS Management Console, l'interface de ligne de commande (CLI) AWS, l'interface de programmation d'applications (API) et le client kit de développement logiciel (SDK) AWS. Par exemple, si votre compartiment se trouve dans la région Californie du Nord sous l'ID de compte AWS 123456789012 et que vous souhaitez accorder uniquement l'accès aux données à vos applications exécutées dans le VPC « vpc-1a2b3c4d », vous pouvez désormais définir un nouveau point d'accès « foo » avec une valeur « contrôle d'origine réseau » de VPC à l'aide de la commande suivante :

aws s3control create-access-point --bucket [nom du compartiment] --name foo --account-id 123456789012 --vpc-configuration VpcId= vpc-1a2b3c4d

Si votre logiciel utilise un nom d'hôte pour se connecter à votre compartiment, il suffit de spécifier le nom d'hôte du nouveau point d'accès (« foo-123456789012.s3-accesspoint.us-west-1.amazonaws.com ») pour commencer à utiliser ce point d'accès. Si votre logiciel utilise un nom de compartiment, après la mise à jour vers la dernière version du kit SDK AWS, spécifiez l'ARN du point d'accès (« arn:aws:s3:us-west-1: 123456789012:accesspoint/foo ») comme nom de compartiment pour envoyer les requêtes de données à travers ce point d'accès. Veuillez noter que les points d'accès ne prennent pas en charge l'API CopyObject pour créer une copie d'un objet déjà stocké dans S3. Nous travaillons actuellement sur la compatibilité de CopyObject avec les points d'accès.

Q : Comment puis-je gérer les points d'accès ?

Vous pouvez ajouter, afficher et supprimer des points d'accès ainsi que modifier des stratégies de point d'accès via la console S3 et l'interface de ligne de commande (CLI). L'utilisation de modèles CloudFormation facilitera votre prise en main des points d'accès. Vous pouvez surveiller et auditer les opérations des points d'accès, telles que la création et la suppression de points d'accès, via les journaux AWS CloudTrail. Le contrôle de l'utilisation des points d'accès est possible grâce à la prise en charge par AWS Organizations des stratégies de contrôle de service (SCP) AWS.

Q : La procédure de création de compartiment a-t-elle changé ?

Non. Quand vous créez un compartiment, aucun point d'accès n'y est rattaché.

Q : Que va-t-il arriver aux compartiments S3 existants qui ne sont pas associés à un point d'accès ?

Vous pouvez continuer d'accéder aux compartiments existants en utilisant le nom d'hôte du compartiment. Ces compartiments sans points d'accès continueront de fonctionner normalement. Aucune modification n'est nécessaire pour leur gestion.

Q : Quand un point d'accès est utilisé, comment les requêtes sont-elles autorisées ?

Les points d'accès S3 ont leur propre stratégie de point d'accès IAM. Les stratégies de point d'accès sont créées de façon similaire aux stratégies de compartiment, en utilisant l'ARN du point d'accès comme ressource. Les stratégies de point d'accès peuvent accorder ou limiter l'accès aux données S3 demandées à travers le point d'accès. Amazon S3 évalue toutes les stratégies pertinentes, y compris celles qui portent sur l'utilisateur, le compartiment, le point d'accès, le point de terminaison de VPC et les politiques de contrôle des services, ainsi que les listes de contrôle d'accès, pour décider d'autoriser ou non la requête.

Q : Comment puis-je créer une stratégie de point d'accès ?

Vous pouvez écrire des stratégies de point d'accès exactement de la même manière qu'une stratégie de compartiment en utilisant des règles IAM pour le contrôle des autorisations et en spécifiant l'ARN du point d'accès dans le document de stratégie.

Q : Quelle est la différence entre le fait de limiter l'accès à des VPC spécifiques à l'aide de contrôles d'origine réseau sur des points d'accès et la limitation de l'accès à des VPC à l'aide de la stratégie de compartiment ?

Vous pouvez continuer d'utiliser des stratégies de compartiment pour limiter l'accès au compartiment aux VPC spécifiés. Les points d'accès constituent une méthode plus simple et auditable pour limiter un sous-ensemble ou la totalité du contenu d'un ensemble de données partagé au trafic par VPC pour toutes les applications dans votre organisation à l'aide de contrôles API. Vous pouvez utiliser une stratégie de contrôle de service (SCP) AWS Organizations pour exiger que tout point d'accès créé au sein de votre organisation utilise la valeur « vpc » pour le paramètre d'API « contrôle d'origine réseau ». Ainsi, les nouveaux points d'accès créés limitent automatiquement l'accès aux données au trafic par VPC. Aucune stratégie d'accès supplémentaire n'est requise pour garantir que les seules demandes de données traitées sont celles qui transitent par les VPC spécifiés.

Q : Comment puis-je configurer les paramètres Block Public Access (BPA) sur mon point d'accès ?

Vous pouvez configurer les paramètres Block Public Access (BPA) de manière unique sur chaque point d'accès au moment de la création. Nous travaillons actuellement sur l'ajout de la possibilité de modifier les paramètres de BPA après la création du point d'accès. Amazon S3 applique la combinaison la plus restrictive des paramètres au niveau du point d'accès, du compartiment et du compte.

Q : Puis-je appliquer une stratégie « Aucun accès aux données depuis Internet » pour tous les points d'accès dans mon organisation ?

Oui. Pour appliquer une stratégie « Aucun accès aux données depuis Internet » sur les points d'accès dans votre organisation, il faut veiller à ce que tous les points d'accès n'autorisent que l'accès par VPC. Pour ce faire, il faut créer une SCP AWS acceptant uniquement la valeur « vpc » pour le paramètre « contrôle d'origine réseau » dans l'API create_access_point(). Si des points d'accès accessibles depuis Internet existent déjà, ils peuvent être supprimés. Il faudra également modifier la stratégie de chaque compartiment pour restreindre davantage l'accès direct au compartiment par Internet à travers son nom d'hôte. Étant donné que d'autres services AWS peuvent potentiellement accéder directement à votre compartiment, veillez à bien configurer la stratégie d'accès de façon à autoriser les services AWS désirés. Consultez la documentation S3 pour découvrir comment procéder avec quelques exemples.

Q : Est-il possible de désactiver complètement l'accès direct à un compartiment à travers son nom d'hôte ?

Ce n'est actuellement pas possible, mais vous pouvez associer une politique de compartiment qui rejette les requêtes qui ne proviennent pas d'un point d'accès. Pour plus d'informations, consultez la documentation S3.

Q : Puis-je remplacer ou supprimer un point d'accès d'un compartiment ?

Oui. La suppression d'un point d'accès n'a pas d'impact sur l'accès au compartiment associé à travers d'autres points d'accès et à travers le nom d'hôte du compartiment.

Q : Comment puis-je contrôler l'accès aux API de gestion de point d'accès (création de nouveaux points d'accès, suppression de points d'accès) ?

Comme pour contrôler l'accès aux API de gestion de compartiment, vous pouvez contrôler l'utilisation d'API de gestion de point d'accès à travers les autorisations des stratégies d'utilisateur, de groupe et de rôle IAM.

Q : Est-il possible de consulter des métriques relatives aux opérations exécutées via un point d'accès ?

Vous pouvez surveiller et rassembler les métriques de requête sur les opérations exécutées via un point d'accès grâce aux journaux CloudTrail et aux journaux d'accès serveur S3. Les métriques CloudWatch relatives aux compartiments intègrent également les requêtes réalisées à travers des points d'accès.

Q : Existe-t-il une limite au nombre de points d'accès qu'il est possible de créer ?

Par défaut, chaque compte peut créer 1 000 points d'accès par région. Si cette limite est trop restrictive, rendez-vous sur AWS Service Quotas pour la modifier.

Q : Les points d'accès peuvent-ils être utilisés par d'autres services et fonctionnalités AWS ?

Oui, certains services AWS prennent en charge l'utilisation de points d'accès. Consultez la documentation S3 pour en connaître la liste. Les services et fonctionnalités AWS actuellement incompatibles avec les points d'accès S3 peuvent continuer d'utiliser le nom d'hôte du compartiment pour y accéder. Veuillez noter que nous travaillons actuellement sur la prise en charge d'Amazon EMR et du client Apache Hadoop S3A.

Q : Combien coûtent les points d'accès Amazon S3 ?

Les points d'accès et les compartiments qui utilisent des points d'accès ne font pas l'objet de frais supplémentaires. Les tarifs habituels pour les requêtes Amazon S3 sont appliqués.

S3 Intelligent-Tiering

Q : Qu'est-ce que S3 Intelligent-Tiering ?

La classe de stockage Amazon S3 Intelligent-Tiering est conçue pour optimiser les coûts en déplaçant automatiquement les données vers le niveau d'accès le plus économique, sans frais d'exploitation. Il s'agit de la seule classe de stockage dans le cloud qui permet de faire automatiquement des économies en déplaçant les données à un accès d'objets granulaire entre des niveaux d'accès lorsque les modèles d'accès changent. C'est la classe de stockage idéale si vous souhaitez optimiser vos coûts de stockage pour les données avec des modèles d'accès inconnus ou irréguliers. Avec une faible cotisation mensuelle pour la surveillance et l'automatisation des objets, S3 Intelligent-Tiering surveille les modèles d'accès et déplace automatiquement les objets d'un niveau d'accès à l'autre. Il n'y pas de frais d'extraction. Vous ne connaîtrez donc pas d'augmentations imprévues dans les factures de stockage quand les modèles d'accès changent.

Q : Comment S3 Intelligent-Tiering fonctionne-t-il ?

S3 Intelligent-Tiering fonctionne en stockant les objets dans quatre niveaux d'accès : deux niveaux d'accès à faible latence optimisés pour l'accès fréquent et peu fréquent, ainsi que deux niveaux d'accès d'archive optionnels, conçus pour l'accès asynchrone et optimisés pour l'accès rare. Les objets chargés ou migrés dans S3 Intelligent-Tiering sont stockés automatiquement dans le niveau d'accès fréquent. S3 Intelligent-Tiering fonctionne en surveillant les modèles d'accès, puis en déplaçant vers le niveau d'accès peu fréquent les objets qui n'ont pas été consultés pendant 30 jours consécutifs. Une fois que vous avez activé l'un des niveaux d'accès d'archive ou les deux, S3 Intelligent-Tiering déplacera automatiquement les objets qui n'ont pas été consultés pendant 90 jours consécutifs vers le niveau d'accès Archive, puis ceux qui n'ont pas été consultés pendant 180 jours consécutifs vers le niveau d'accès Deep Archive. Si les objets sont consultés ultérieurement, ils sont replacés dans le niveau Frequent Access (accès fréquent). Il n'y pas de frais d'extraction. Vous ne connaîtrez donc pas d'augmentations imprévues dans les factures de stockage quand les modèles d'accès changent.

Q : Pourquoi choisir d'utiliser S3 Intelligent-Tiering ?

S3 Intelligent-Tiering est la seule classe de stockage au monde à deux niveaux d'accès fréquent (Frequent Access) qui assurent un débit élevé et une latence faible lorsque vous nécessitez un accès immédiat aux données, et deux niveaux d'archive (Archive) automatiques facturés moins de 1 USD par To lorsque vos données entrent en dormance. S3 Intelligent-Tiering est conçu pour les données ayant des modèles d'accès inconnus ou irréguliers. Pour les ensembles de données avec des modèles d'accès irréguliers dont les sous-ensembles d'objets sont rarement sollicités sur de longues périodes, le niveau d'accès d'archive permet une réduction supplémentaire des coûts de jusqu'à 95 %.

Q : Quelles performances le service S3 Intelligent-Tiering offre-t-il ?

Les niveaux à accès fréquent et peu fréquent de S3 Intelligent-Tiering offrent une faible latence et des performances de débit élevées. Le niveau d'accès Archive offre les mêmes performances que S3 Glacier, et le niveau Deep Archive offre les mêmes performances que la classe de stockage S3 Glacier Deep Archive. Vous ne devez activer les niveaux d'accès d'archive que si votre application peut accéder de manière asynchrone à vos objets. Les objets du niveau d'accès Archive sont déplacés dans le niveau Frequent Access en 3 à 5 heures et ceux du niveau Deep Archive en l'espace de 12 heures. Si vous devez accéder plus rapidement à un objet stocké dans un niveau d'accès Archive, vous pouvez payer pour une récupération plus rapide en sélectionnant la vitesse de récupération accélérée dans la console.

Q : Quelles sont les performances de S3 Intelligent-Tiering en matière de durabilité et de disponibilité ?

S3 Intelligent-Tiering est conçu pour la même durabilité à 99,999999999 % que la classe de stockage S3 Standard. S3 Intelligent-Tiering est conçu pour offrir une disponibilité de 99.9 % et dispose d'un contrat de niveau de service (SLA) offrant des crédits de service en cas de disponibilité inférieure à notre engagement de service au cours de n'importe quel cycle de facturation.

Q : Comment puis-je transférer mes données vers S3 Intelligent-Tiering ?

Vous pouvez transférer vos données vers S3 Intelligent-Tiering de deux manières. Vous pouvez les placer (PUT) directement dans S3 Intelligent-Tiering en spécifiant INTELLIGENT_TIERING dans l'en-tête x-amz-storage-class, ou définir les stratégies de cycle de vie pour transférer des objets depuis S3 Standard ou S3 standard – Accès peu fréquent vers S3 INTELLIGENT_TIERING.

Q : Comment le service S3 Intelligent-Tiering est-il facturé ?

Pour S3 Intelligent-Tiering, vous payez des frais mensuels pour le stockage, les requêtes et le transfert de données, ainsi que de faibles frais mensuels pour la surveillance et l'automatisation par objet. La classe de stockage S3 Intelligent-Tiering stocke vos objets dans quatre niveaux d'accès : un niveau à accès fréquent pour lequel la tarification du stockage S3 Standard est appliquée, un niveau à accès peu fréquent, pour lequel la tarification du stockage S3 Standard - Stockage avec accès peu fréquent est appliquée, un niveau d'accès Archive aux tarifs de la classe S3 Glacier et un accès d'accès Deep Archive aux tarifs de la classe S3 Glacier Deep Archive.

Il n'y a pas de frais de récupération dans S3 Intelligent-Tiering. Avec une faible cotisation mensuelle pour la surveillance et l'automatisation, S3 Intelligent-Tiering surveille les modèles d'accès et déplace automatiquement les objets entre les quatre niveaux pour optimiser vos performances et vos coûts de stockage.

Il n'existe aucune taille d'objet facturable minimale pour S3 Intelligent-Tiering, mais les objets plus petits que 128 Ko ne sont pas éligibles pour la hiérarchisation automatique. Outre le coût d'utilisation normal, les objets supprimés, écrasés ou déplacés vers une autre classe de stockage avant la fin du délai de 30 jours donnent lieu à des frais par requête calculés au prorata pour la durée restante sur ces 30 jours. Pour chaque objet archivé au niveau Archive ou Deep Archive dans S3 Intelligent-Tiering, Amazon S3 utilise 8 Ko de stockage pour le nom de l'objet et d'autres métadonnées (facturés aux tarifs S3 Standard) et 32 Ko de stockage pour l'index et les métadonnées liées (facturés aux tarifs S3 Glacier et S3 Glacier Deep Archive).

Q : Comment activer les niveaux d'accès d'archive S3 Intelligent-Tiering ?

Vous pouvez activer les niveaux d'accès Archive et Deep Archive en créant une configuration au niveau d'un compartiment, d'un préfixe ou d'une balise d'objet à l'aide de l'API Amazon S3, de l'interface de ligne de commande (CLI) ou de la console de gestion S3. Vous ne devez activer un ou les deux niveaux d'accès d'archive que si votre application peut accéder de manière asynchrone à vos objets.

Q : Puis-je étendre le délai d'archivage dans une classe de stockage S3 Intelligent-Tiering des objets non consultés ?

Oui. Dans la configuration du compartiment, du préfixe ou de la balise d'objet, vous pouvez étendre les délais d'archivage dans S3 Intelligent-Tiering à partir du dernier accès. Lorsque les niveaux sont activés, par défaut, les objets qui n'ont pas été consultés depuis 90 jours consécutifs au minimum sont automatiquement déplacés vers le niveau Archive. Les objets qui n'ont pas été consultés depuis 180 jours consécutifs au minimum sont automatiquement déplacés vers le niveau Deep Archive. La configuration par défaut du délai en jours consécutifs depuis le dernier accès avant l'archivage automatique dans S3 Intelligent-Tiering peut être étendue jusqu'à 2 ans.

Q : Comment accéder à un objet stocké au niveau d'archive Archive ou Deep Archive dans la classe de stockage S3 Intelligent-Tiering ?

Pour accéder à un objet stocké au niveau d'archive Archive ou Deep Archive, vous devez émettre une demande de restauration (RESTORE) et le déplacement vers le niveau Frequent Access de l'objet sera initialisé, le tout au sein de la classe de stockage S3 Intelligent-Tiering. Les objets du niveau d'accès Archive sont déplacés dans le niveau Frequent Access en 3 à 5 heures et ceux du niveau Deep Archive en l'espace de 12 heures. Une fois les objets dans le niveau Frequent Access, vous pouvez émettre une requête GET pour récupérer l'objet.

Q : Comment savoir à quel niveau d'accès S3 Intelligent-Tiering mes objets sont stockés ?

Vous pouvez utiliser Amazon S3 Inventory pour rapporter le niveau d'accès des objets stockés dans la classe de stockage S3 Intelligent-Tiering. Chaque jour ou chaque semaine, Amazon S3 Inventory crée des fichiers de sortie au format CSV, OCR ou Parquet qui listent vos objets et les métadonnées qui leur sont associées pour un compartiment S3 ou un préfixe commun. Vous pouvez également émettre une requête HEAD sur vos objets pour obtenir un rapport sur les niveaux d'accès d'archive S3 Intelligent-Tiering.

Q : Mes objets S3 Intelligent-Tiering sont-ils pris en compte par le contrat de niveau de service (SLA) Amazon S3 ?

Oui, la classe de stockage S3 Intelligent-Tiering est prise en compte par le contrat de niveau de service (SLA) Amazon S3et les clients peuvent prétendre à des crédits de service en cas de disponibilité inférieure à notre engagement de service au cours de n'importe quel cycle de facturation.

Q : Existe-t-il une durée de stockage minimale pour S3 Intelligent-Tiering ?

Oui. La classe de stockage S3 Intelligent-Tiering a une durée de stockage minimale de 30 jours, ce qui signifie que les données qui sont supprimées, écrasées ou déplacées vers une autre classe de stockage S3 avant que 30 jours se soient écoulés font l'objet de coûts d'utilisation normaux plus des frais calculés au prorata pour la durée restante sur ces 30 jours.

Q : Existe-t-il une taille d'objet facturable minimale pour S3 Intelligent-Tiering ?

Non. Il n'existe aucune taille d'objet facturable minimale pour S3 Intelligent-Tiering, mais les objets plus petits que 128 Ko ne sont pas éligibles pour la hiérarchisation automatique et seront toujours stockés au taux du niveau d'accès fréquent. Pour chaque objet archivé au niveau Archive ou Deep Archive dans S3 Intelligent-Tiering, Amazon S3 utilise 8 Ko de stockage pour le nom de l'objet et d'autres métadonnées (facturés aux tarifs S3 Standard) et 32 Ko de stockage pour l'index et les métadonnées liées (facturés aux tarifs S3 Glacier et S3 Glacier Deep Archive). Pour plus de détails, consultez la tarification https://aws.amazon.com/s3/pricing/.

Q : S3 Intelligent-Tiering est-il disponible dans toutes les régions AWS où Amazon S3 fonctionne ?

Oui

S3 Standard – Infrequent Access (S3 Standard – IA)

Q : Qu'est-ce que S3 Standard – Infrequent Access ?

Amazon S3 Standard – Infrequent Access (S3 Standard – IA) est une classe de stockage d'Amazon S3 pour les données consultées moins fréquemment, mais nécessitant un accès rapide le cas échéant. S3 Standard – IA offre la haute durabilité, le débit élevé et la faible latence d'une classe de stockage Amazon S3 Standard avec un prix au Go et des frais d'extraction par Go faibles. Ces performances élevées alliées à un faible coût font de S3 Standard – IA l'outil idéal pour le stockage et les sauvegardes à long terme, ainsi qu'en tant que magasin de données pour la reprise après sinistre. La classe de stockage de S3 Standard – IA est définie au niveau de l'objet et peut occuper le même compartiment que les classes de stockage S3 Standard ou S3 One Zone – IA, ce qui vous permet d'utiliser des stratégies de gestion du cycle de vie S3 pour assurer le passage automatique des objets d'une classe de stockage à une autre sans changement pour les applications.

Q : Pourquoi choisir d'utiliser S3 Standard – IA ?

S3 Standard – IA est idéal pour les données consultées peu fréquemment, mais nécessitant un accès rapide le cas échéant. S3 Standard – IA est particulièrement adapté au stockage de fichiers à long terme, au stockage d'anciennes données de synchronisation et de partage et d'autres données anciennes.

Q : Quelles performances S3 Standard – IA propose-t-il ?

S3 Standard – IA fournit les mêmes performances que les classes de stockage S3 Standard et S3 One Zone – IA.


Q : Quelles sont les performances de S3 Standard - IA en matière de durabilité et de disponibilité ?

S3 Standard - IA est conçu pour offrir la même durabilité à 99,999999999 % que les classes de stockage S3 Standard et S3 Glacier. S3 Standard - IA est conçu pour offrir une disponibilité de 99,9 % et dispose d'un accord de niveau de service (SLA) offrant des crédits de service en cas de disponibilité inférieure à notre engagement de service au cours de n'importe quel cycle de facturation.

Q : Comment puis-je transférer mes données vers S3 Standard – IA ?

Vous pouvez transférer vos données vers S3 Standard – IA de deux manières différentes. Vous pouvez exécuter directement une opération PUT sur vos données dans S3 Standard – IA en indiquant STANDARD_IA dans l'en-tête x-amz-storage-class. Vous pouvez également définir des stratégies de cycle de vie pour faire passer des objets de S3 Standard à la classe de stockage S3 Standard – IA.

Q : Mes objets S3 Standard – IA sont-ils pris en compte par l'accord de niveau de service (SLA) Amazon S3 ?

Oui, S3 Standard – IA s'appuie sur l'accord de niveau de service (SLA) Amazon S3et les clients peuvent prétendre à des crédits de service en cas de disponibilité inférieure à notre engagement de service au cours de n'importe quel cycle de facturation.

Q : En quoi l'utilisation de S3 Standard – IA influera-t-elle sur mes performances en termes de latence et de débit ?

Lorsque vous utilisez la classe de stockage S3 Standard – IA, vous pouvez vous attendre à des performances équivalentes à celles de la classe de stockage S3 standard en termes de latence et de débit.

Q : Comment l'utilisation de la fonction S3 Standard – IA m'est-elle facturée ?

Consultez la page de tarification Amazon S3 pour obtenir des informations générales sur la tarification de la fonction S3 Standard – IA.

Q : Quels frais devrai-je payer si je fais passer un objet de la classe de stockage S3 Standard – IA à la classe S3 Standard au moyen d’une demande COPY ?

Vous serez facturé pour une demande COPY de S3 Standard – IA et une extraction de données S3 Standard – IA.

Q : Est-ce qu'il y a des frais de durée de stockage minimaux pour S3 Standard – IA ?

S3 Standard – IA est conçu pour les données à longue durée de vie consultées peu fréquemment et conservées pendant des mois ou des années. Les données supprimées de S3 Standard – IA dans les 30 jours seront facturées 30 jours complets. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de la classe S3 Standard – IA.

Q : Est-ce qu'il y a des frais de stockage d'objet minimaux pour S3 Standard – IA ?

S3 Standard – IA est conçu pour des objets plus importants et génère des frais de stockage d'objet minimum de 128 Ko. Les objets inférieurs à 128 Ko donneront lieu à des frais de stockage équivalents à ceux d'un objet de 128 Ko. Par exemple, un objet de 6 Ko dans S3 Standard – IA implique les frais de stockage de S3 Standard – IA pour 6 Ko, plus des frais supplémentaires correspondant à la taille minimale de l’objet et équivalant à 122 Ko au tarif de stockage de S3 Standard - IA. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de la classe S3 Standard – IA.

Q : Puis-je faire passer des objets de S3 Standard - IA à S3 One Zone - IA ou S3 Glacier ?

Oui. En plus d'utiliser des stratégies de cycle de vie pour faire migrer des objets depuis S3 Standard vers S3 Standard - IA, vous pouvez définir des stratégies de cycle de vie pour faire passer des objets depuis S3 Standard - IA vers S3 One Zone - IA ou S3 Glacier.

S3 One Zone – Infrequent Access (S3 One Zone – IA)

Q : Qu'est-ce que la classe de stockage S3 One Zone – IA ?

La classe de stockage S3 One Zone – IA est une classe de stockage Amazon S3 que les clients peuvent utiliser pour stocker des objets dans une seule zone de disponibilité. La classe de stockage S3 One Zone – IA stocke les données de façon redondante dans cette seule zone de disponibilité afin d'offrir une option de stockage à un prix 20 % inférieur à celui du stockage S3 Standard – IA géographiquement redondant qui stocke des données de façon redondante sur plusieurs zones de disponibilité géographiquement distinctes.

S3 One Zone – IA offre un accord de niveau de service (SLA) disponible à 99 % et est également conçu pour une durabilité à onze 9 dans la zone de disponibilité. Cependant, contrairement aux classes de stockage S3 Standard et S3 Standard-I-A, les données stockées dans une classe de stockage S3 One Zone-IA seront perdues en cas de destruction de la zone de disponibilité.

Le stockage S3 One Zone – IA offre les mêmes fonctions Amazon S3 que S3 Standard et S3 Standard – IA et est utilisé par les API Amazon S3, par la console Amazon S3 et par l'interface en ligne de commande Amazon S3. La classe de stockage S3 One Zone – IA est définie au niveau de l'objet et peut occuper le même compartiment que les classes de stockage S3 Standard et S3 Standard – IA. Vous pouvez occuper les stratégies de cycle de vie S3 afin de faire passer automatiquement des objets d'une classe de stockage à l'autre sans rien changer aux applications.

Q : Quels sont les cas d'utilisation les mieux adaptés à la classe de stockage S3 One Zone – IA ?

Les clients peuvent utiliser la classe S3 unizone – Accès peu fréquent pour un stockage peu consulté, comme les copies de sauvegarde, les copies de reprise après sinistre ou d'autres données faciles à récréer.

Q : Quelles sont les performances du stockage S3 unizone – Accès peu fréquent ?

La classe de stockage S3 unizone – Accès peu fréquent offre des performances identiques aux classes S3 Standard et S3 standard – Accès peu fréquent.

Q : Quelle est la durabilité de la classe de stockage S3 One Zone – IA ?

La classe de stockage S3 One Zone – IA est conçue pour offrir une durabilité de 99,999999999 % au sein d'une zone de disponibilité. Cependant, le stockage S3 One Zone - IA n'est pas conçu pour résister à la perte de la disponibilité ou la destruction complète de la zone de disponibilité, auquel cas les données stockées dans S3 One Zone-IA seront perdues. Au contraire, les stockages S3 Standard, S3 Standard - Infrequent Access et S3 Glacier sont conçus pour éviter la perte de disponibilité ou résister à la destruction de la zone de disponibilité. S3 One Zone - IA offre une durabilité et une disponibilité égales ou supérieures à celles de la plupart des centres de données physiques modernes tout en fournissant en plus l'avantage de l'élasticité du stockage et l'ensemble de fonctions Amazon S3.

Q : Quelle est la disponibilité de l'accord de niveau de service (SLA) pour la classe de stockage S3 One Zone – IA ?

La classe de stockage S3 One Zone – IA offre un accord de niveau de service (SLA) à 99 % de disponibilité. Par comparaison, S3 Standard offre un accord de niveau de service (SLA) à 99,9 % de disponibilité, et S3 Standard – Infrequent Access offre un accord de niveau de service à 99 % de disponibilité. Comme pour toutes les classes de stockage S3, la classe de stockage S3 One Zone – IA comprend un accord de niveau de service (SLA) offrant des crédits de service si la disponibilité est inférieure à notre engagement pour tout cycle de facturation. Voir l'accord de niveau de service (SLA) Amazon S3.

Q : De quelle façon le fait d'utiliser S3 One Zone – IA affectera-t-il ma latence et mon débit ?

Par rapport aux classes de stockage Amazon S3 Standard et S3 Standard – IA, vous devez obtenir une latence et un débit similaire avec la classe de stockage S3 One Zone – IA.

Q : Comment l'utilisation de la classe de stockage S3 One Zone – IA m'est-elle facturée ?

Tout comme S3 Standard – IA, la facturation pour S3 One Zone – IA compte le stockage total mensuel, la bande passante, les demandes, les suppressions anticipées, les frais pour les petits objets, et les frais d'extraction de données. Pour le stockage mensuel, la classe de stockage Amazon S3 One Zone – IA est 20 % moins chère que celle d’Amazon S3 Standard – IA et partage la même tarification pour la bande passante, les demandes, les suppressions anticipées, les frais pour les petits objets et les frais d'extraction des données.

Comme avec S3 Standard – Infrequent Access, si vous supprimez un objet S3 One Zone – IA moins de 30 jours après l'avoir créé, des frais de suppression anticipés vous seront facturés. Par exemple, si vous exécutez une opération PUT sur un objet pour le supprimer 10 jours plus tard, vous devrez quand même payer pour 30 jours de stockage.

Comme la classe de stockage S3 Standard – IA, la classe de stockage S3 One Zone – IA reçoit uniquement des objets d’au moins de 128 Ko. Les objets inférieurs à 128 Ko donneront lieu à des frais de stockage équivalents à ceux d'un objet de 128 Ko. Par exemple, un objet de 6 Ko dans une classe de stockage S3 One Zone – IA impliquera les frais de stockage correspondant à 6 Ko, plus des frais supplémentaires correspondant à la taille d'objet minimale et équivalant à 122 Ko au tarif de stockage de S3 One Zone – IA. Veuillez consulter la page de tarification pour des informations de tarification S3 One Zone – IA.

Q : Est-ce qu'une « Zone » S3 One Zone – IA est la même chose qu'une zone de disponibilité AWS ?

Oui. Chaque région AWS désigne une zone géographique séparée. Chaque région se compose de plusieurs emplacements isolés appelés zones de disponibilité. La classe de stockage Amazon S3 One Zone – IA utilise une seule zone de disponibilité AWS dans la région.

Q : Existe-t-il des différences dans la façon dont Amazon EC2 et Amazon S3 fonctionnent avec les ressources spécifiques de la zone de disponibilité ?

Oui. Amazon EC2 vous offre la possibilité de choisir la zone de disponibilité où placer des ressources, par exemple, des instances de calcul, au sein d'une région. Lorsque vous utilisez S3 One Zone – IA, ce dernier attribue une zone de disponibilité AWS dans la région selon la capacité disponible.

Q : Est-il possible d'avoir un compartiment hébergeant différents objets, dans différentes classes de stockage et dans différentes zones de disponibilité ?

Oui, il est possible d'avoir un compartiment hébergeant différents objets dans des classes de stockage S3 Standard, S3 Standard – IA et S3 One Zone – IA.

Q : Est-ce que la classe de stockage S3 One Zone – IA est disponible dans toutes les régions AWS où S3 opère ?

Oui.

Q : En utilisant S3 One Zone – IA, à quelle protection de reprise après sinistre est-ce que je renonce ?

Chaque zone de disponibilité utilise une mise en réseau et une alimentation redondante. Au sein d'une région AWS, les zones de disponibilité se trouvent sur différentes plaines inondables et lignes d'activités sismiques et sont géographiquement séparées pour éviter les incendies. Les classes de stockage S3 Standard et S3 Standard – IA offrent une protection contre ce genre de désastre en stockant vos données de façon redondante dans différentes zones de disponibilité. La classe de stockage S3 One Zone – IA offre une protection contre une panne matérielle dans une zone de disponibilité, mais elle n'offre aucune protection contre la perte de la zone de disponibilité, auquel cas les données stockées dans S3 One Zone-IA sont perdues. Grâce aux options S3 unizone – Accès peu fréquent, S3 Standard et S3 standard – Accès peu fréquent, vous pouvez choisir la classe de stockage qui répond au mieux aux besoins en durabilité et en disponibilité de votre stockage.

S3 sur Outposts

Q : Qu'est-ce qu'Amazon S3 sur Outposts ?

Amazon S3 sur Outposts fournit un stockage d'objets dans votre environnement sur site, à l'aide des fonctionnalités et API S3 que vous utilisez aujourd'hui sur AWS. AWS Outposts est un service entièrement géré qui permet d'étendre l'infrastructure, les services, les API et les outils API à pratiquement n'importe quels centres de données, espaces en colocation ou installations sur site. Grâce à S3 sur Outposts, vous pouvez traiter et stocker de manière sécurisée les données client générées sur site avant de les déplacer vers une région AWS. Vous pouvez également accéder aux données localement pour les applications qui s'exécutent sur site, ou stocker les données sur site pour les entreprises situées dans des zones avec exigences de résidence de données ou appartenant à des secteurs réglementés. Pour en savoir plus sur S3 sur Outposts, consultez la page de présentation.
 

Amazon S3 Glacier

Q : Pourquoi Amazon Glacier s’appelle désormais Amazon S3 Glacier ?

Les clients ont longtemps considéré Amazon Glacier, notre service de stockage de sauvegarde et d'archivage, comme une catégorie de stockage d'Amazon S3. En effet, un pourcentage très élevé des données stockées dans Amazon Glacier provient directement de clients utilisant des stratégies S3 Lifecycle pour transférer des données plus fraîches dans Amazon Glacier. Désormais, Amazon Glacier fait officiellement partie de S3 et sera connu sous le nom d'Amazon S3 Glacier (S3 Glacier). Toutes les API directes existantes de Glacier continuent de fonctionner exactement de la même manière, mais nous avons davantage simplifié l’utilisation des API S3 pour stocker des données dans la catégorie de stockage S3 Glacier.

Q : Amazon S3 comporte-t-il des fonctions permettant d'archiver des objets afin de réduire le coût du stockage ?

Oui, Amazon S3 vous permet d'utiliser le service de stockage à très faible coût d'Amazon S3 Glacier pour l'archivage de vos données. Amazon S3 Glacier stocke les données pour à peine 0,004 USD par Go par mois. Pour proposer des coûts bas convenant à des besoins d’extraction variables, Amazon S3 Glacier offre trois options d'accès aux archives, avec des délais allant de quelques minutes à plusieurs heures. Voici quelques exemples d’utilisation d’archives : les archives multimédia numériques, les dossiers médicaux et financiers, les données brutes d’une séquence génomique, les sauvegardes de base de données à long terme, ainsi que les données devant être conservées à des fins réglementaires.

Q : Comment puis-je stocker mes données en utilisant la catégorie de stockage Amazon S3 Glacier ?

Si vous avez un stockage qui doit être immédiatement archivé ou si vous prenez des décisions commerciales en ce qui concerne le moment de transférer des objets vers S3 Glacier qui ne peuvent pas être exprimés via une stratégie de cycle de vie Amazon S3, S3 PUT vers Glacier vous permet d'utiliser les API S3 pour charger la catégorie de stockage S3 Glacier sur la base du principe objet par objet. Il n'y a pas de délai de transition et vous contrôlez le timing. C'est également une bonne option si vous souhaitez que votre application prenne des décisions concernant la catégorie de stockage sans avoir à définir une stratégie au niveau du compartiment.

Vous pouvez utiliser les règles de cycle de vie afin d'archiver automatiquement des ensembles d'objets Amazon S3 dans S3 Glacier en fonction de l'âge de l'objet. Utilisez la console de gestion d'Amazon S3, les kits de développement logiciel (SDK) AWS ou les API d'Amazon S3 pour définir des règles d'archivage. Ces règles définissent un préfixe et une période de temps. Le préfixe (ex. : « logs/ ») identifie les objets auxquels la règle s'applique. La période indique soit le nombre de jours à compter de la date de création (ex. : 180 jours), soit la date précise après laquelle les objets doivent être archivés. Tout objet S3 Standard ou S3 Standard-IA ou S3 One Zone-IA dont le nom commence par le préfixe indiqué et dont l'ancienneté est supérieure la période spécifiée est archivé dans S3 Glacier. Pour extraire les données Amazon S3 stockées dans S3 Glacier, lancez une tâche d'extraction à l’aide des API ou de la console de gestion d’Amazon S3. Une fois cette tâche terminée, vous pouvez accéder à vos données au moyen d’une requête d'objet GET dans Amazon S3.

Pour plus d'informations sur l'utilisation des règles de cycle de vie pour l'archivage dans S3 Glacier, veuillez vous référer à la rubrique Archivage d’objet du Guide du développeur Amazon S3.

Q : Puis-je utiliser les API ou la console de gestion d'Amazon S3 pour répertorier les objets que j'ai archivés dans Amazon S3 Glacier ?

Oui, comme les autres classes de stockage d'Amazon S3 (S3 Standard, S3 Standard-IA et S3 One Zone-IA), les objets Amazon Glacier stockés par le biais des API ou de la console de gestion d'Amazon S3 ont un nom associé défini par l'utilisateur. Vous pouvez obtenir la liste en temps réel de tous vos noms d'objets Amazon S3, y compris ceux stockés à l'aide de l'option S3 Glacier grâce à l’API LIST S3 ou au rapport d’inventaire S3.

Q : Puis-je utiliser les API directes d'Amazon Glacier pour accéder aux objets que j'ai archivés dans Amazon S3 Glacier ?

Non. Comme Amazon S3 conserve la correspondance qui existe entre le nom d'objet défini par l'utilisateur et l'identifiant défini par le système Amazon S3 Glacier, les objets Amazon S3 stockés à l'aide de l'option S3 Glacier ne sont accessibles qu'à partir des API d'Amazon S3 ou de sa console de gestion.

Q : Comment puis-je récupérer mes objets archivés dans Amazon S3 Glacier et serai-je averti lorsque l'objet sera restauré ?

Pour extraire les données Amazon S3 stockées dans la catégorie de stockage S3 Glacier, lancez une demande d'extraction à l’aide des API d’Amazon S3 ou de la console de gestion d’Amazon S3. La demande d'extraction crée une copie temporaire de vos données dans la classe de stockage S3 RRS ou S3 Standard-IA tout en laissant les données archivées intactes dans S3 Glacier. Vous pouvez définir la période (en jours), pendant laquelle la copie temporaire est conservée dans S3. Vous pouvez ensuite accéder à votre copie temporaire dans S3, via une demande Amazon S3 GET sur l'objet archivé.

Avec les notifications de restauration, vous pouvez désormais recevoir une Notification d'événement S3 lorsqu'un objet a été restauré avec succès à partir de S3 Glacier et que la copie temporaire est mise à votre disposition. Le propriétaire du compartiment (ou d'autres personnes, comme le permet une stratégie IAM) peut faire en sorte que les notifications soient envoyées à Amazon Simple Queue Service (SQS) ou à Amazon Simple Notification Service (SNS). Les notifications peuvent également être envoyées à AWS Lambda pour être traitées par une fonction Lambda.

Q : Combien de temps faut-il pour restaurer mes objets archivés dans S3 Glacier et puis-je mettre à niveau une demande en cours pour atteindre une vitesse de restauration plus rapide ?

Lorsqu'il traite une tâche d’extraction, Amazon S3 extrait d’abord les données demandées de S3 Glacier, puis crée une copie temporaire des données demandées dans S3 (ce qui prend généralement quelques minutes). Le temps d’accès de votre demande dépend de l’option d’extraction que vous avez choisie : extraction rapide, standard ou en bloc. Les données consultées à l’aide des extractions rapides sont habituellement disponibles après 1 à 5 minutes, sauf pour les objets plus importants (plus de 250 Mo). L’extraction standard des objets prend généralement entre 3 et 5 heures. Les récupérations en bloc prennent généralement entre 5 et 12 heures. Pour plus d’informations sur les options d’extraction dans S3 Glacier, veuillez consulter la section Questions fréquentes relatives à S3 Glacier.

La mise à niveau de la vitesse de restauration S3 consiste à remplacer la restauration en cours par un niveau de restauration plus rapide, si l’accès aux données est urgent. Pour utiliser cette fonctionnalité, envoyez une autre demande de restauration au même objet en utilisant un nouveau paramètre de tâche « Tier » (Niveau). Lorsque vous effectuez une mise à niveau de la vitesse de restauration S3, vous devez choisir une vitesse de restauration plus rapide que la restauration en cours. D'autres paramètres tels que Heure d'expiration de l'objet ne seront pas modifiés. Vous pouvez mettre à jour l'heure d'expiration de l'objet une fois la restauration terminée. Vous payez pour chaque demande de restauration ainsi que les frais de récupération par Go pour le niveau de restauration plus rapide. Par exemple, si vous avez envoyé une demande de restauration du niveau Bulk (En masse), puis une demande de mise à niveau de la vitesse de restauration S3 vers le niveau Expedited (Rapide) pour remplacer le niveau Bulk en cours, deux demandes vous seront facturées, ainsi que les frais d'extraction par Go pour le niveau Expedited.

Q : Comment les frais d’archivage d'objets dans Amazon S3 Glacier sont-ils calculés ?

Le prix de la classe de stockage Amazon S3 Glacier est calculé en fonction de la capacité de stockage mensuelle et du nombre de demandes de transition de cycle de vie dans Amazon S3 Glacier. Les objets archivés dans Amazon S3 Glacier sont stockés pendant 90 jours au minimum, et les objets supprimés avant le délai de 90 jours font l'objet de frais appliqués au prorata équivalents aux frais de stockage pour les jours restants. Consultez la page de tarification Amazon S3 pour connaître la tarification actuelle.

Q : Comment les frais de stockage pour les objets Amazon S3 archivés dans Amazon S3 Glacier sont-ils calculés ?

Le volume de stockage facturé pour un mois dépend du volume de stockage moyen utilisé pendant le mois concerné. Il se mesure en gigaoctets par mois (Go-mois). Amazon S3 calcule la taille de l’objet correspondant à la quantité de données que vous avez stockée, à laquelle s’ajoutent 32 Ko de données Amazon S3 Glacier et 8 Ko de classe stockage S3 Standard supplémentaires. Amazon S3 Glacier a besoin de 32 Ko de données supplémentaires par objet pour l’index et les métadonnées de Glacier, afin que vous puissiez identifier et récupérer vos données. Amazon S3 requiert 8 Ko pour stocker et tenir à jour le nom défini par l'utilisateur et les métadonnées correspondant aux objets archivés dans Amazon S3 Glacier. Vous pouvez ainsi obtenir la liste en temps réel de tous vos objets Amazon S3, y compris ceux qui sont stockés à l'aide de la classe de stockage Amazon S3 Glacier, en utilisant l'API LIST d'Amazon S3 ou le rapport d’inventaire S3. Par exemple, si vous avez archivé 100 000 objets de 1 Go chacun, les frais applicables au stockage seront les suivants :

1,000032 gigaoctets par objet x 100 000 objets = 100 003,2 gigaoctets de stockage dans Amazon S3 Glacier.
0,000008 Go par objet x 100 000 objets = 0,8 Go de stockage Amazon S3 Standard.

Le tarif est calculé sur la base des tarifs en vigueur pour votre région AWS, qui sont indiqués sur la page de tarification Amazon S3.

Q : Quelle quantité de données puis-je extraire gratuitement d'Amazon S3 Glacier ?

Vous pouvez récupérer 10 Go de données Amazon S3 Glacier gratuitement par mois avec l'offre gratuite d'AWS. Le quota de l'offre gratuite peut être utilisé à tout moment pendant le mois et s’applique aux extractions standard d'Amazon S3 Glacier.

Q : Comment les frais de suppression d'objets datant de moins de 90 jours dans Amazon S3 Glacier sont-ils calculés ?

Amazon S3 Glacier est conçu pour des cas d'utilisation dans lesquels les données sont conservées plusieurs mois, des années, voire des dizaines d'années. La suppression de données archivées dans Amazon S3 Glacier est gratuite si les objets supprimés ont été archivés dans Amazon S3 Glacier depuis au moins 90 jours. Si un objet archivé dans Amazon S3 Glacier est supprimé ou remplacé dans un délai de 90 jours suivant son archivage, des frais de suppression précoce vous seront facturés. Ces frais sont calculés au prorata. Si vous supprimez 1 Go de données dans les 30 jours qui suivent leur chargement, vous devrez vous acquitter de frais de suppression précoce correspondant à 60 jours de stockage dans Amazon S3 Glacier. Si vous supprimez 1 Go de données 60 jours après les avoir chargées, des frais de suppression précoce correspondant à 30 jours de stockage dans Amazon S3 Glacier vous seront facturés.

Q : Combien coûte l’extraction de données depuis Amazon S3 Glacier ? 

Vous pouvez extraire les données depuis Amazon S3 Glacier de trois façons : par extraction rapide (Expedited), standard et en masse (Bulk). Chacune d’elles a un tarif dֹ’extraction par Go et un tarif de demande par archive différent (cela veut dire que la demande d’une archive compte comme une demande). Pour une tarification détaillée de S3 Glacier selon la région AWS, consultez la page de tarification Amazon S3 Glacier.

Q : Comment l'infrastructure backend prend-elle en charge la classe de stockage S3 Glacier ?

Nous préférons nous concentrer sur les résultats pour le client en termes de performance, de durabilité, de disponibilité et de sécurité. Toutefois, cette question est souvent posée par nos clients. Nous utilisons un certain nombre de technologies différentes qui nous permettent de proposer les tarifs que nous pratiquons actuellement avec les clients. Nos services ont été élaborés à l'aide de technologies de stockage de données couramment utilisées : ces dernières sont spécifiquement regroupées dans des systèmes dédiés et optimisés en matière de coûts grâce aux logiciels développés par AWS. S3 Glacier optimise la séquence d'entrées et de sorties afin d'accroître l'efficacité de l'accès au stockage sous-jacent.

Amazon S3 Glacier Deep Archive

Q : Qu'est-ce que S3 Glacier Deep Archive ?

S3 Glacier Deep Archive est une nouvelle classe de stockage Amazon S3 : elle offre un stockage d'objets durable et sécurisé pour la conservation des données sur le long terme et un accès à ces dernières une ou deux fois par an. Avec un tarif de départ de 0,00099 USD par Go-mois seulement (moins d’un centième de centime, soit un peu mois de 1 USD par To-mois), S3 Glacier Deep Archive propose le stockage dans le cloud le moins cher, à des prix bien moins élevés que si vous stockiez et entreteniez vos données dans des bibliothèques de bandes magnétiques sur site ou que si vous archiviez vos données hors site.

Q : Quels sont les cas d'utilisation les mieux adaptés à la classe de stockage S3 Glacier Deep Archive ?

S3 Glacier Deep Archive est la classe de stockage idéale pour offrir une protection hors ligne aux ressources de données de votre entreprise les plus importantes. Elle permet également de conserver les données à long terme lorsque la politique de l’entreprise, des exigences contractuelles ou des règlements l’imposent. Les clients considèrent que S3 Glacier Deep Archive est un excellent choix pour protéger les principaux droits de propriété intellectuelle, les dossiers financiers et médicaux, les résultats de la recherche, les documents juridiques, les études d’exploration sismique, les sauvegardes à long terme, principalement dans les industries hautement règlementées comme les services financiers, la santé, le pétrole et le gaz, et le secteur public. De plus, certaines organisations, comme les sociétés multimédia et de divertissement, veulent conserver une copie de sauvegarde des principaux droits de propriété intellectuelle. Bien souvent, les clients S3 Glacier Deep Archive sont en mesure de réduire ou de supprimer l’utilisation des bibliothèques de bandes magnétiques sur site et des services d’archives sur bandes hors site.

Q : En quoi la technologie S3 Glacier Deep Archive est-elle différente de S3 Glacier ?

Grâce à S3 Glacier Deep Archive, nos offres d’archivage de données sont étendues : vous pouvez sélectionner la classe de stockage optimale en fonction des coûts de stockage et d’extraction, ainsi que des délais d’extraction. Choisissez S3 Glacier lorsque vous avez besoin de récupérer des données archivées généralement entre 1 et 5 minutes à l'aide de la fonction de récupération accélérée. La technologie S3 Glacier Deep Archive, quant à elle, a été conçue pour les données froides auxquelles vous accéderez peu ou pas du tout, mais qui ont quand même besoin d’un stockage durable sur le long terme. S3 Glacier Deep Archive revient jusqu’à 75 % moins cher que S3 Glacier, et permet une extraction en 12 heures à vitesse standard. Pour réduire les coûts d’extraction, vous pouvez sélectionner l’extraction en masse qui renvoie les données dans un délai de 48 heures.

Q : Quelles sont les performances de S3 Glacier Deep Archive en matière de durabilité et de disponibilité ?

S3 Glacier Deep Archive a été conçu pour offrir la même durabilité à 99,999999999 % que les classes de stockage S3 Standard et S3 Glacier. S3 Glacier Deep Archive a été conçu pour offrir une disponibilité de 99,99 % et dispose d'un accord de niveau de service (SLA) pour une disponibilité de 99,9 % qui offre des crédits de service en cas de disponibilité inférieure à notre engagement de service au cours de n'importe quel cycle de facturation.

Q : Mes objets S3 Glacier Deep Archive sont-ils pris en compte par l'accord de niveau de service (SLA) Amazon S3 ?

Oui, S3 Glacier Deep Archive est garanti par l'accord de niveau de service (SLA) Amazon S3, et les clients peuvent prétendre à des crédits de service en cas de disponibilité inférieure à notre engagement de service au cours de n'importe quel cycle de facturation.

Q : Comment puis-je commencer à utiliser S3 Glacier Deep Archive ?

Pour stocker des données dans S3 Glacier Deep Archive, le moyen le plus simple est de charger directement des données à l’aide de l'API S3. Il vous suffit de spécifier « S3 Glacier Deep Archive » en tant que classe de stockage. Pour ce faire, vous pouvez vous servir de l’AWS Management Console, l’API REST S3, les kits SDK AWS ou l’interface de ligne de commande AWS.

Vous pouvez également commencer à utiliser S3 Glacier Deep Archive en créant des politiques de migration des données à l’aide du cycle de vie S3. Grâce à ce dernier, vous pouvez définir le cycle de vie de votre objet et réduire le coût de stockage. Ces politiques peuvent être configurées de manière à migrer les objets dans S3 Glacier Deep Archive en fonction de l’âge de l’objet. Vous pouvez définir la politique pour un compartiment S3 ou pour des préfixes spécifiques. Les transitions du cycle de vie sont facturées au prix du chargement S3 Glacier Deep Archive.

La passerelle de bande, une fonctionnalité de bibliothèque de bandes virtuelles basée sur le cloud au sein de AWS Storage Gateway, s’intègre désormais à S3 Glacier Deep Archive. Grâce à cette intégration, vous pouvez stocker à long terme vos sauvegardes et archives basées sur des bandes virtuelles dans S3 Glacier Deep Archive. Il s’agit de la solution de stockage dans le cloud la moins coûteuse pour ces données. Pour commencer, créez une nouvelle bande virtuelle à l'aide de la console ou de l’API AWS Storage Gateway, puis définissez la cible de stockage d'archivage sur S3 Glacier ou S3 Glacier Deep Archive. Lorsque votre application de sauvegarde éjecte la bande, celle-ci est archivée dans la cible de stockage sélectionnée.

Q : Quelles sont les recommandations pour migrer des données depuis des archives sur bandes existantes vers S3 Glacier Deep Archive ?

Il existe différentes façons de migrer des données depuis des archives sur bandes existantes vers S3 Glacier Deep Archive. Pour l’intégration avec des applications de sauvegarde existantes, vous pouvez utiliser la passerelle de bandes AWS à l’aide de l’interface de la bibliothèque de bandes virtuelles (VTL). Cette interface présente des bandes virtuelles à l’application de sauvegarde. Celles-ci peuvent être immédiatement utilisées pour stocker des données dans Amazon S3, S3 Glacier et S3 Glacier Deep Archive.

Pour migrer les données, vous pouvez également utiliser AWS Snowball ou AWS Snowmobile. Snowball et Snowmobile accélèrent le transfert de téraoctets et de pétaoctets de données vers et depuis AWS à l'aide d'appareils de stockage sécurisés pour le transport. Grâce à Snowball et Snowmobile, vous pouvez résoudre les problèmes qui se présentent lors d'importants transferts de données, en particulier les coûts de réseau élevés, la durée des transferts et les risques de sécurité.

Pour finir, vous pouvez utiliser AWS Direct Connect pour établir des connexions réseau dédiées depuis vos locaux vers AWS. Généralement, AWS Direct Connect peut réduire les coûts de réseau, augmenter le débit de bande passante et fournir une expérience réseau plus constante que les connexions basées sur Internet.

Q : Comment puis-je récupérer mes objets stockés dans S3 Glacier Deep Archive ?

Pour extraire les données stockées dans S3 Glacier Deep Archive, vous pouvez lancer une demande de restauration à l'aide des API Amazon S3 ou de Amazon S3 Management Console. La restauration crée une copie temporaire de vos données dans la classe de stockage « S3 unizone – Accès peu fréquent » tout en laissant les données archivées intactes dans S3 Glacier Deep Archive. Vous pouvez définir la période (en jours), durant laquelle la copie temporaire est conservée dans S3. Vous pouvez ensuite accéder à votre copie temporaire dans S3, via une demande Amazon S3 GET sur l'objet archivé.

Lors de la restauration d’un objet archivé, vous pouvez spécifier l’une des options suivantes dans l’élément « Tier » (Niveau) du corps de la demande : « Standard » est le niveau par défaut qui vous permet d’accéder à tous vos objets archivés pendant 12 heures ; « Bulk » (En masse) est le niveau qui vous permet d’extraire de grandes quantités de données (même des pétaoctets) à moindre prix dans un délai de 48 heures.

Q : Comment l'utilisation de S3 Glacier Deep Archive est-elle facturée ?

Le stockage S3 Glacier Deep Archive est facturé en fonction de la quantité de données stockées en Go, du nombre de demandes de transition PUT ou de cycle de vie, des extractions en Go, et du nombre de demandes de restauration. Le modèle tarifaire est similaire à celui de S3 Glacier. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de S3 Glacier Deep Archive.

Q : Comment mon utilisation de S3 Glacier Deep Archive sera-t-elle présentée sur ma facture AWS et dans l’outil Gestion des coûts AWS ?

L’utilisation de S3 Glacier Deep Archive et le coût qui en résulte s’affichent sur une ligne de service indépendante dans votre facture mensuelle AWS. Cet élément tarifaire est donc séparé de l’utilisation et des coûts liés à Amazon S3. En revanche, dans les rapports détaillés sur les dépenses mensuelles générés par l’outil Gestion des coûts AWS, l’utilisation et les coûts de S3 Glacier Deep Archive sont inclus dans l’utilisation et les coûts généraux d’Amazon S3. Ils ne font donc pas l’objet d’une ligne de service séparée.

 

Q : Existe-t-il une durée minimale de stockage et des frais de stockage d’objets minimum pour S3 Glacier Deep Archive ?

S3 Glacier Deep Archive a été conçu pour des données à longue durée de vie, d’une conservation de 7 à 10 ans voire plus, mais auxquelles on accède rarement. Les objets archivés dans S3 Glacier Deep Archive sont stockés pendant 180 jours au minimum, et les objets supprimés avant le délai de 180 jours font l'objet de frais appliqués au prorata équivalents aux frais de stockage pour les jours restants. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de S3 Glacier Deep Archive.

Pour la facturation S3 Glacier Deep Archive, la taille minimale des objets stockés est de 40 Ko. Les objets plus petits peuvent être stockés, mais ils seront facturés pour 40 Ko de stockage. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de S3 Glacier Deep Archive.

 

Q : Comment S3 Glacier Deep Archive s’intègre-t-il aux autres services AWS ?

Deep Archive s’intègre aux fonctionnalités Amazon S3 dont l’analyse de classes de stockage S3, le balisage d’objets S3, les politiques de cycle de vie S3, les objets composables, le verrouillage d’objets S3 et la réplication S3. Grâce aux fonctionnalités de gestion du stockage S3, vous pouvez utiliser un seul compartiment Amazon S3 pour stocker une combinaison de données S3 Glacier Deep Archive, S3 standard, S3 standard – Accès peu fréquent, S3 unizone – Accès peu fréquent, et S3 Glacier. Les administrateurs du stockage peuvent ainsi prendre des décisions en fonction de la nature des données et des tendances d’accès à ces dernières. Les clients peuvent utiliser les politiques de cycle de vie d’Amazon S3 pour migrer automatiquement les données vers des classes de stockage plus économiques à mesure que les données prennent de l’âge, ou les politiques de réplication entre régions S3 ou à l’intérieur d’une même région pour répliquer les données dans une autre région ou dans la même région.

Le service AWS Storage Gateway intègre désormais la passerelle de bande avec la classe de stockage Amazon S3 Glacier Deep Archive. Vous pouvez donc stocker des bandes virtuelles dans la classe de stockage Amazon S3 au coût le plus bas, réduisant ainsi jusqu'à 75 % le coût mensuel de stockage de vos données à long terme dans le cloud. Avec cette fonctionnalité, la passerelle de bande prend en charge l’archivage de vos nouvelles bandes virtuelles directement dans S3 Glacier et S3 Glacier Deep Archive, ce qui vous permet de répondre à vos exigences en matière de sauvegarde, d’archivage et de restauration. La passerelle de bande vous aide à déplacer des sauvegardes sur bande vers AWS sans apporter de modification à vos flux de travail de sauvegarde existants. Elle est compatible avec la plupart des applications de sauvegarde comme Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (sur le système d’exploitation Windows) et Microsoft Data Protection Manager.

Q : Comment l'infrastructure backend prend-elle en charge la classe de stockage S3 Glacier ?

En général, AWS ne divulgue pas d'informations sur l'infrastructure backend et l'architecture pour nos services de calcul, de mise en réseau et de stockage, étant donné que nous recherchons avant tout à garantir aux clients la performance, la durabilité, la disponibilité et la sécurité de nos services. Toutefois, cette question est souvent posée par nos clients. Nous utilisons un certain nombre de technologies différentes qui nous permettent de proposer les tarifs que nous pratiquons actuellement avec les clients. Nos services ont été élaborés à l'aide de technologies de stockage de données couramment utilisées : ces dernières sont spécifiquement regroupées dans des systèmes dédiés et optimisés en matière de coûts grâce aux logiciels développés par AWS. S3 Glacier Deep Archive optimise la séquence d'entrées et de sorties afin d'accroître l'efficacité de l'accès au stockage sous-jacent.

Exécution de requêtes sur place

Q : Qu'est-ce que la fonctionnalité « Exécution de requêtes sur place » ?

Amazon S3 permet aux clients d'exécuter des requêtes avancées sur les données stockées sans devoir déplacer ces dernières dans une plate-forme d'analyse distincte. La capacité à effectuer des requêtes sur place sur ces données dans Amazon S3 peut améliorer considérablement les performances et réduire les coûts pour les solutions d'analyse utilisant S3 en tant que lac de données. S3 propose plusieurs options d'exécution de requêtes sur place, notamment S3 Select, Amazon Athena et Amazon Redshift Spectrum. Vous pouvez ainsi choisir celle qui s'adapte le mieux à votre cas. Vous pouvez même utiliser Amazon S3 Select avec AWS Lambda pour développer des applications sans serveur capables de tirer parti des capacités de traitement sur place offertes par S3 Select.

Q : Qu'est-ce que S3 Select ?

S3 Select est une fonctionnalité d'Amazon S3 qui vous permet d'extraire facilement des données spécifiques du contenu d'un objet à l'aide de directives SQL simples, sans avoir besoin d'extraire la totalité de l'objet. Vous pouvez utiliser S3 Select pour extraire un sous-ensemble de données à l'aide de clauses SQL, comme SELECT et WHERE, depuis des objets stockés au format CSV, JSON ou Apache Parquet. Cela fonctionne également avec des objets compressés au format GZIP ou BZIP2 (pour les objets CSV et JSON uniquement), ainsi que des objets chiffrés côté serveur.

Q : Que puis-je faire avec S3 Select ?

Vous pouvez utiliser S3 Select pour récupérer un ensemble de données plus petit et ciblé à partir d’un objet à l'aide d'instructions SQL simples. Vous pouvez utiliser S3 Select avec AWS Lambda pour développer des applications sans serveur utilisant S3 Select pour extraire facilement et efficacement des données depuis Amazon S3 plutôt que d'extraire et de traiter un objet entier. Vous pouvez également utiliser S3 Select avec des cadres Big Data, comme Presto, Apache Hive et Apache Spark pour scanner et filtrer les données dans Amazon S3.

Q : Pourquoi devrais-je utiliser S3 Select ?

S3 Select vous propose une nouvelle manière d'extraire des données spécifiques du contenu d'un objet stocké dans Amazon S3 à l'aide d'instructions SQL, et ce, sans avoir besoin d'extraire l'objet entier. S3 Select simplifie et permet d’améliorer les performances d'analyse et de filtrage du contenu d'objets en un plus petit ensemble de données ciblé de jusqu’à de 400 %. Avec S3 Select, vous pouvez également mener des enquêtes opérationnelles sur des fichiers journaux présents dans Amazon S3, sans avoir besoin d'exploiter ni de gérer un cluster de calcul.

Q : Qu'est-ce qu'Amazon Athena ?

Amazon Athena est un service de requêtes interactif qui facilite l'analyse des données dans Amazon S3 grâce aux requêtes SQL standard. Athena ne requiert aucun serveur et vous pouvez commencer à analyser les données immédiatement, sans avoir à configurer ni gérer d'infrastructure. Vous n’avez même pas à charger vos données dans Athena car le service fonctionne directement avec les données stockées dans une classe de stockage S3. Pour démarrer, connectez-vous à Athena Management Console, définissez votre schéma et lancez la requête. Amazon Athena utilise Presto, avec la prise en charge complète de la syntaxe SQL standard, et fonctionne avec de nombreux formats de données tels que CSV, JSON, ORC, Apache Parquet et Avro. Athena est la solution idéale pour exécuter des requêtes ponctuelles rapides et s'intègre à Amazon QuickSight pour faciliter l'affichage des données? Il peut également gérer des analyses complexes, et notamment des jonctions, des fonctions de fenêtrage et des tableaux.

Q : Qu'est-ce qu'Amazon Redshift Spectrum ?

Amazon Redshift Spectrum est une fonction d'Amazon Redshift qui vous permet d’exécuter des requêtes sur des exaoctets de données non structurées dans Amazon S3, sans qu'aucun chargement ou ETL soit requis. Lorsque vous envoyez une requête, elle est dirigée vers le point de terminaison SQL d'Amazon Redshift, qui génère et optimise un plan de requête. Amazon Redshift détermine si les données sont stockées en local ou dans Amazon S3, génère un plan pour réduire le volume de données d'Amazon S3 qui doivent être lues et demande à des programmes d'exécution Amazon Redshift Spectrum au sein d'un groupe de ressources partagées de lire et traiter les données en provenance d'Amazon S3.

Le cas échéant, Redshift Spectrum peut déployer des milliers d'instances pour que les requêtes soient exécutées rapidement, quel que soit le volume de données. Par ailleurs, vous pouvez utiliser exactement la même syntaxe SQL pour les données d'Amazon S3 que celle que vous utilisez actuellement pour vos requêtes Amazon Redshift, et vous connecter au même point de terminaison Amazon Redshift à l'aide des mêmes outils d'informatique décisionnelle. Redshift Spectrum vous permet de séparer les ressources de stockage et de calcul, et de les dimensionner indépendamment les unes des autres. Vous pouvez configurer autant de clusters Amazon Redshift que nécessaire afin de lancer des demandes sur votre lac de données Amazon S3, profitant ainsi de la haute disponibilité et de la simultanéité illimitée. Redshift Spectrum vous permet de stocker les données où vous le souhaitez, dans n'importe quel format et prêtes à être traitées quand vous en avez besoin.

Notification d'événements

Q : Que sont les notifications d'événements Amazon S3 ?

Les notifications d'événements Amazon S3 peuvent être envoyées en réponse aux actions réalisées dans Amazon S3, telles que les demandes PUT, POST, COPY ou DELETE. Les messages de notification peuvent être transmis via Amazon SNS, Amazon SQS ou directement dans AWS Lambda.

Q : Que puis-je faire des notifications d'événements Amazon S3 ?

Les notifications d'événements S3 vous permettent d'exécuter des flux de travail, d'envoyer des alertes ou de réaliser d'autres actions en réponse aux modifications apportées à vos objets stockés dans Amazon S3. Vous pouvez utiliser les notifications d'événements S3 pour configurer des déclencheurs en vue de réaliser des actions telles que le transcodage de fichiers multimédias lorsqu'ils sont chargés, le traitement des fichiers de données lorsqu'ils sont disponibles, et la synchronisation des objets S3 avec d'autres magasins de données. Vous pouvez également configurer des notifications d'événements en fonction des préfixes et suffixes de noms d'objet. Par exemple, vous pouvez choisir de recevoir des notifications pour les noms d'objet commençant par « images/ ».

Q : Que comprend une notification d'événements Amazon S3 ?

Pour obtenir une description détaillée des informations comprises dans les messages de notification d'événements Amazon S3, reportez-vous à la rubrique Configuring Amazon S3 event notifications du Guide du développeur Amazon S3.

Q : Comment configurer les notifications d'événements Amazon S3 ?

Pour obtenir une description détaillée de la procédure à suivre pour configurer les notifications d'événements, reportez-vous à la rubrique Configuring Amazon S3 event notifications (Configuration des notifications d’événement Amazon S3) du manuel Amazon S3 Developer Guide. Pour en savoir plus sur les services de messagerie AWS, consultez la documentation Amazon SNS et la documentation Amazon SQS.

Q : Combien coûte l'utilisation des notifications d'événements Amazon S3 ?

Les notifications d'événements depuis Amazon S3 n'entraînent pas de frais supplémentaires. Vous payez uniquement l'utilisation d'Amazon SNS ou d'Amazon SQS pour transmettre les notifications d'événements ou les frais d'exécution de la fonction AWS Lambda. Consultez les pages de tarification Amazon SNS, Amazon SQS ou AWS Lambda pour connaître les tarifs de ces services.

Amazon S3 Transfer Acceleration

Q : Qu'est-ce que Transfer Acceleration S3 ?

Amazon S3 Transfer Acceleration permet un transfert rapide, facile et sécurisé de fichiers sur de longues distances entre votre client et votre compartiment Amazon S3. S3 Transfer Acceleration utilise les emplacements périphériques AWS d’Amazon CloudFront, distribués au niveau mondial. Lorsque les données arrivent dans un emplacement périphérique AWS Edge Location, les données sont transférées vers votre compartiment Amazon S3 sur un chemin de réseau optimisé.

Q : Comment démarrer avec S3 Transfer Acceleration ?

Pour démarrer avec S3 Transfer Acceleration, activez S3 Transfer Acceleration sur un compartiment S3 en utilisant la console Amazon S3, les API Amazon S3 ou l'interface de ligne de commande AWS. Une fois S3 Transfer Acceleration activé, vous pouvez orienter vos demandes Amazon S3 PUT et GET vers le nom de domaine du point de terminaison s3-accelerate. Votre application de transfert de données doit utiliser l’un des deux types de points de terminaison suivants pour accéder au compartiment et accélérer le transfert de données : .s3-accelerate.amazonaws.com ou <.s3-accelerate.dualstack.amazonaws.com pour le point de terminaison « dual-stack ». Si vous souhaitez utiliser un transfert de données type, vous pouvez continuer à utiliser les points de terminaison habituels.

Il existe des restrictions quant aux compartiments pouvant prendre en charge S3 Transfer Acceleration. Pour plus de détails, veuillez vous reporter au Guide du développeur Amazon S3.

Q : Quelle est la vitesse de S3 Transfer Acceleration ?

S3 Transfer Acceleration vous permet d'utiliser pleinement votre bande passante, de réduire l'effet de la distance sur le débit et il a été conçu pour assurer un transfert de données rapide et constant vers Amazon S3, où que se trouve votre client. L'accélération dépend en premier lieu de la bande passante disponible, de la distance entre la source et la destination et des taux de perte de paquets sur le chemin réseau. En règle générale, vous constaterez davantage d'accélération si la source se trouve à une plus grande distance de la destination, s’il ne reste plus de bande passante disponible et/ou si la taille de l'objet est plus importante.

Un client a mesuré une réduction de 50 % du temps d'ingestion de fichiers de 300 Mo envoyés depuis une base d'utilisateurs internationale s’étendant que les territoires des États-Unis, d'Europe et de certaines zones d'Asie vers un compartiment dans la région Asie pacifique (Sydney). Un autre client a remarqué que dans certains cas la performance a dépassé 500 % pour les utilisateurs d'Asie du Sud-est et d'Australie, chargeant des fichiers de 250 Mo (en parties de 50 Mo) vers un compartiment S3 dans l'est des États-Unis (Virginie du Nord).

Essayez l'outil de comparaison de la vitesse pour obtenir un aperçu du bénéfice de performance depuis votre localisation !

Q : Qui doit utiliser S3 Transfer Acceleration ?

S3 Transfer Acceleration a été conçu pour optimiser la vitesse de transfert de données envoyées dans le monde entier vers des compartiments S3. Si vous chargez des données depuis différentes zones géographiques vers un compartiment centralisé, ou si vous transférez régulièrement des Go ou To de données à travers les continents, vous pouvez économiser des heures, voire des journées de temps de transfert de données avec S3 Transfer Acceleration.

Q : Quel est le niveau de sécurité de S3 Transfer Acceleration ?

S3 Transfer Acceleration est tout aussi sécurisé que les transferts habituels vers Amazon S3. Toutes les fonctions de sécurité de Amazon S3, comme et notamment la restriction de l'accès en fonction de l'adresse IP d'un client, sont également prises en charge. S3 Transfer Acceleration communique avec les clients sur un TCP standard et ne demande pas de modification du pare-feu. Aucune donnée n'est enregistrée sur AWS Edge Locations.

Q : Et si S3 Transfer Acceleration n'est pas plus rapide qu'un transfert Amazon S3 normal ?

À chaque fois que vous utilisez S3 Transfer Acceleration pour charger un objet, nous vérifions si S3 Transfer Acceleration peut être plus rapide qu'un transfert Amazon S3 ordinaire. Si nous estimons que S3 Transfer Acceleration ne sera pas plus rapide que le transfert Amazon S3 ordinaire du même objet vers la même région de destination AWS, nous ne vous facturerons pas l'utilisation de S3 Transfer Acceleration pour ce transfert et contournerons le système S3 Transfer Acceleration pour ce chargement.

Q : Puis-je utiliser S3 Transfer Acceleration pour des chargements partitionnés ?

Oui, S3 Transfer Acceleration prend en charge toutes les fonctions des compartiments, notamment le chargement partitionné.

Q : Comment choisir entre S3 Transfer Acceleration et les demandes PUT/POST d'Amazon CloudFront ?

S3 Transfer Acceleration optimise le protocole TCP et ajoute davantage d'intelligence entre le client et le compartiment S3, ce qui fait de S3 Transfer Acceleration le choix judicieux si un débit plus élevé est nécessaire. Si vous avez des objets ou des données dont la taille est inférieure à 1 Go, pensez à utiliser les commandes PUT/POST de Amazon CloudFront pour une performance optimale.

Q : Comment choisir entre S3 Transfer Acceleration et la famille AWS Snow (Snowball, Snowball Edge et Snowmobile) ?

La famille AWS Snow est idéale pour les clients déplaçant de gros volumes de données en une seule fois. Le AWS Snowball se voit définir un délai type de 5 à 7 jours. En règle générale, S3 Transfer Acceleration sur une ligne de 1 Go/s pleinement utilisée à pleine capacité peut transférer jusqu'à 75 To en même temps. Généralement, si un transfert par le biais d'Internet prend plus d'une semaine d'effectuer, ou bien s'il existe plusieurs tâches de transfert et plus de 25 Mo/s de bande passante disponible, S3 Transfer Acceleration est une bonne option. Une autre solution consiste à utiliser les deux : effectuez les manipulations initiales les plus lourdes avec un AWS Snowball (ou une série d'AWS Snowballs) puis transférez les changements en cours en utilisant S3 Transfer Acceleration.

Q : S3 Transfer Acceleration peut-il compléter AWS Direct Connect ?

AWS Direct Connect est un bon choix pour les clients ayant besoin d'une mise en réseau privée ou ayant accès aux échanges AWS Direct Connect. S3 Transfer Acceleration convient mieux au transfert de données depuis différents sites clients par le biais de l'Internet public, ou lorsque les conditions de réseau variables affaiblissent le débit. Certains clients de AWS Direct Connect utilisent S3 Transfer Acceleration pour les transferts vers les bureaux à distance, et ils peuvent pâtir d'une mauvaise performance d'Internet.

Q : S3 Transfer Acceleration peut-il compléter AWS Storage Gateway ou une passerelle externe ?

Si vous pouvez configurer la destination du compartiment dans votre passerelle tierce de manière à utiliser un nom de domaine de point de terminaison S3 Transfer Acceleration, vous en verrez les avantages.

Pour en savoir plus sur l'implémentation AWS, visitez cette section Fichier de la FAQ sur Storage Gateway.

Q : S3 Transfer Acceleration peut-il compléter un logiciel intégré externe ?

Oui. Les packages logiciels qui se connectent directement à Amazon S3 peuvent tirer profit de S3 Transfer Acceleration lorsqu'ils envoient leurs tâches vers Amazon S3.

En savoir plus sur les solutions des partenaires disposant de la compétence Stockage »

Q : S3 Transfer Acceleration est-il éligible HIPAA ?

Oui, AWS a étendu son programme de conformité HIPAA et comprend désormais Amazon S3 Transfer Acceleration comme service éligible HIPAA. Si vous disposez d'un accord de partenariat (BAA) exécuté avec AWS, vous pouvez utiliser Amazon S3 Transfer Acceleration pour activer des transferts de fichiers rapides, simples et sécurisés, y compris des informations de santé protégées (PHI), sur de longues distances entre votre client et votre compartiment Amazon S3.

En savoir plus sur la conformité HIPAA »

Gestion du stockage

S3 Object Tagging

Q : Que sont les balises d'objet S3 ?

Les balises d'objet S3 sont des paires clé-valeur appliquées aux objets S3 pouvant être créées, téléchargées ou supprimées à tout au long de la durée de vie de l'objet. Elles vous donnent la possibilité de créer des stratégies Identity and Access Management (IAM), de configurer des stratégies de gestion du cycle de vie S3 et de personnaliser les mesures de stockage. Ces balises au niveau de l'objet peuvent ensuite gérer les transitions entre les classes de stockage et les objets d'expiration en arrière-plan.

Q : Comment appliquer les balises d'objet à mes objets ?

Vous pouvez ajouter des balises à de nouveaux objets lorsque vous les chargez ou les ajoutez à des objets existants. Jusqu'à dix balises peuvent être ajoutées à chaque objet S3. De plus, vous pouvez utiliser AWS Management Console, l'API REST, l'interface de ligne de commande AWS ou les kits SDK AWS pour ajouter des balises d'objet.

Q : Pourquoi utiliser les balises d'objet ?

Les balises d'objet sont un outil qui vous permet de profiter d'une gestion simplifiée de votre stockage S3. Vous avez la possibilité de créer, de mettre à jour et de supprimer les balises à tout moment pendant la durée de vie de l'objet. Ainsi, votre stockage peut s'adapter aux besoins de votre entreprise. Ces balises vous permettent de contrôler l'accès aux objets étiquetés avec des paires clé-valeur spécifiques, et de protéger ainsi les données confidentielles d'un groupe ou d'un utilisateur particulier. Des balises d'objet peuvent également être utilisées pour étiqueter des objets qui appartiennent à un projet ou à une unité opérationnelle spécifique. Ces balises peuvent être associées à des stratégies de cycle de vie S3 pour gérer les transitions vers d'autres classes de stockage (S3 Standard – Accès peu fréquent, S3 Unizone – Accès peu fréquent et S3 Glacier) ou avec la réplication S3 pour répliquer des données de manière sélective entre des régions AWS.

Q : Comment mettre à jour les balises d'objet appliquées à mes objets ?

Les balises d'objet peuvent être modifiées à tout moment pendant la durée de vie de votre objet S3. Pour ce faire, utilisez AWS Management Console, l'API REST, l'interface de ligne de commande AWS ou les kits SDK AWS. Notez que toutes les modifications apportées aux balises en dehors d'AWS Management Console sont appliquées à l'ensemble complet de balises. Si cinq balises sont associées à un objet particulier et si vous souhaitez en ajouter une sixième, vous devez inclure les cinq balises d'origine dans votre demande.

Q : Mes balises d'objet seront-elles répliquées si j'utilise la réplication entre régions ?

Les balises d'objet peuvent être répliquées d'une région AWS à l'autre grâce à la réplication entre régions. Pour les clients pour lesquels la réplication entre régions est déjà activée, de nouvelles autorisations sont nécessaires pour la réplication des balises. Pour plus d'informations sur la réplication entre régions, consultez la section How to Set Up Cross-Region Replication (Comment configurer la réplication entre régions) du Guide du développeur Amazon S3.

Q : Combien coûtent les balises d'objet ?

Le prix des balises d'objet est basé sur la quantité de balises à laquelle s'ajoute le coût de la demande d'ajout de balises. Les demandes associées à l'ajout et à la mise à jour de balises d'objet sont facturées de la même manière que les demandes existantes. Pour plus d'informations, consultez la page de tarification Amazon S3.

Analyse des classes de stockage

Q : Qu'est-ce que la fonction d'analyse de la classe de stockage ?

Avec la fonction d'analyse de la classe de stockage, vous pouvez analyser les modèles d'accès au stockage et transférer les bonnes données vers la bonne classe de stockage. Cette nouvelle fonctionnalité d'analyse S3 détecte automatiquement les modèles d'accès peu fréquents pour vous aider à transférer vos données vers la classe de stockage S3 Standard – IA. Vous pouvez configurer une stratégie d'analyse des classes de stockage de façon à surveiller un compartiment complet, un préfixe ou une balise d'objet. Lorsqu'un modèle d'accès peu fréquent est observé, vous pouvez facilement créer une nouvelle stratégie de cycle de vie S3 en fonction des résultats. La fonction d'analyse de la classe de stockage vous fournit également des affichages quotidiens sur votre utilisation du stockage dans AWS Management Console. Vous pouvez exporter ces affichages vers un compartiment S3 afin de les analyser à l'aide des outils d'informatique décisionnelle de votre choix tels qu'Amazon QuickSight.

Q : Comment démarrer avec la fonction d'analyse de la classe de stockage ?

Vous pouvez utiliser AWS Management Console ou l'API PUT Bucket Analytics S3 pour configurer une stratégie d'analyse de classe de stockage afin qu'elle identifie les stockages auxquels on accède peu souvent et qui peuvent être transférés vers une classe de stockage S3 Standard – Accès peu fréquent ou S3 Unizone – Accès peu fréquent, ou archivés dans la classe de stockage Amazon S3 Glacier. Vous pouvez accéder à l'onglet « Management » dans la console S3 pour gérer les fonctions d'analyse de classe de stockage, S3 Inventory, ainsi que les métriques CloudWatch relatives à S3.

Q : Comment la fonction d'analyse de la classe de stockage m'est-elle facturée ?

Consultez la page de tarification d'Amazon S3 pour obtenir des informations générales sur la tarification de la fonction Analyse de la classe de stockage.

Q : À quelle fréquence la fonction d'analyse de la classe de stockage est-elle mise à jour ?

La fonction d'analyse de la classe de stockage est mise à jour quotidiennement dans S3 Management Console. De plus, vous pouvez configurer l'analyse de la classe de stockage pour exporter votre rapport vers un compartiment S3 de votre choix.

S3 Inventory

Q : Qu'est-ce que la fonction S3 Inventory ?

La fonction S3 Inventory constitue une alternative planifiée à l'API List synchrone d'Amazon S3. Vous pouvez configurer la fonction d'inventaire S3 pour fournir, chaque jour ou chaque semaine, un fichier de sortie au format CSV, ORC ou Parquet à partir de vos objets, et des métadonnées qui sont associées à ceux-ci, pour un compartiment S3 ou un préfixe. Vous pouvez simplifier et accélérer les flux de travail d'entreprise et les tâches de Big Data à l'aide de la fonction S3 Inventory. Vous pouvez utiliser la fonction S3 Inventory pour vérifier le chiffrement et l'état de la réplication de vos objets, afin de répondre aux besoins commerciaux, de conformité et de réglementation. 

Q : Comment démarrer avec la fonction S3 Inventory ?

Vous pouvez utiliser AWS Management Console ou l'API PUT Bucket Inventory pour configurer un rapport d'inventaire quotidien ou hebdomadaire pour tous les objets de votre compartiment S3 ou un sous-ensemble des objets sous un préfixe partagé. Dans le cadre de la configuration, vous pouvez préciser un compartiment S3 de destination pour votre rapport d'inventaire S3, le format du fichier de sortie (CSV, ORC ou Parquet) et les métadonnées objet spécifiques nécessaires à votre application d'entreprise (par ex. : nom d'objet, taille, date de la dernière modification, classe de stockage, ID de version, marqueur de suppression, balise d’ancienne version, indicateur de chargement partitionné, état de la réplication ou état du chiffrement).

Q : Les fichiers de rapport d’inventaire S3 Inventory peuvent-ils être chiffrés ?

Oui, vous pouvez faire en sorte que tous les fichiers écrits par la fonction S3 Inventory soient chiffrés par SSE-S3 ou SSE-KMS. Pour plus d'informations, consultez le Guide de l'utilisateur.

Q : Comment utiliser la fonction S3 Inventory ?

Vous pouvez utiliser la fonction S3 Inventory comme saisie directe dans vos flux de travail d'application ou vos tâches Big Data. Vous pouvez également interroger la fonction S3 Inventory en utilisant le langage SQL standard avec d'Amazon Athena, d'Amazon Redshift Spectrum et d'autres outils comme Presto, Hive et Spark.

En savoir plus sur les requêtes S3 Inventory avec Athena »

Q : Comment l'utilisation de la fonction S3 Inventory m'est-elle facturée ?

Consultez la page de tarification Amazon S3 pour connaître la tarification de la fonction Inventory S3. Une fois que vous avez configuré le chiffrement à l'aide de SSE-KMS, vous encourez des frais KMS pour le chiffrement. Pour en savoir plus, consultez la page de tarification de KMS.

S3 Batch Operations

Q : Qu'est-ce que S3 Batch Operations ?

S3 Batch Operations (Opérations par lots) est une fonction que vous pouvez utiliser pour automatiser l'exécution, la gestion et les audits d'une demande S3 spécifique ou d'une fonction Lambda sur de nombreux objets stockés dans Amazon S3. Vous pouvez utiliser S3 Batch Operations pour automatiser le remplacement d'ensemble de balises sur des objets S3, mettre à jour des listes de contrôle d'accès (ACL) pour des objets S3, copier du stockage entre des compartiments, initier une restauration depuis Glacier vers S3, ou effectuer des opérations personnalisées avec des fonctions Lambda. S3 Batch Operations peut être utilisé depuis la console S3 ou via l'interface de ligne de commande et le kit SDK AWS.

Q : Pourquoi devrais-je utiliser S3 Batch Operations ?

Utilisez S3 Batch Operations (Opérations par lots) si vous souhaitez automatiser l'exécution d'une seule opération (comme copier un objet ou exécuter une fonction AWS Lambda) entre plusieurs objets. Avec S3 Batch Operations, vous pouvez, en seulement quelques clics, dans la console S3 ou dans une demande d'API unique, apporter des modifications à des milliards d'objets sans devoir écrire du code d'application personnalisé ou exécuter des clusters de calcul pour les applications de gestion du stockage. S3 Batch Operations n'administre pas seulement les opérations de stockage pour de nombreux objets ; il gère aussi les nouvelles tentatives, affiche la progression, envoie des notifications, fournit un rapport d'achèvement et il envoie des événements à AWS CloudTrail pour toutes les opérations effectuées sur vos objets cibles. Si vous souhaitez en savoir plus sur S3 Batch Operations, accédez à la page des fonctions Amazon S3.

Q : Comment démarrer avec S3 Batch Operations ?

Vous pouvez démarrer avec S3 Batch Operations en accédant à la console Amazon S3, ou à l'aide de l'interface de ligne de commande ou du kit SDK AWS pour créer votre première tâche S3 Batch Operations. Une tâche S3 Batch Operations est constituée de la liste des objets sur lesquels agir et du type d'opération à effectuer. Commencez par sélectionner un rapport d'inventaire S3 ou par fournir votre propre liste personnalisée d'objets sur lesquels S3 Batch Operations doit agir. Un rapport d'inventaire S3 Batch Operations est un fichier qui répertorie tous les objets stockés dans un compartiment ou un préfixe S3. Ensuite, vous choisissez parmi un ensemble d'opérations S3 prises en charge par S3 Batch Operations, par exemple, le remplacement d'ensembles de balises, la modification de listes ACL, la copie du stockage d'un compartiment vers un autre ou l'initiation d'une restauration depuis Glacier vers S3. Vous pouvez personnaliser vos tâches S3 Batch Operations avec des paramètres spécifiques comme des valeurs de balise, des octrois de liste ACL et une durée de restauration. Pour personnaliser encore davantage vos actions de stockage, vous pouvez écrire votre propre fonction Lambda et appeler ce code à l'aide de S3 Batch Operations.

Une fois que vous avez créé votre tâche S3 Batch Operations, S3 Batch Operations traitera votre liste d'objets et enverra la tâche vers l'état « en attente de conformation », le cas échéant. Une fois que vous avez confirmé les détails de la tâche, S3 Batch Operations lance l'exécution de l'opération que vous avez spécifiée. Vous pouvez consulter la progression de votre tâche par programme ou via la console S3, et, une fois les opérations terminées, recevoir des notifications d'achèvement et consulter le rapport de fin qui détaille les modifications apportées à votre stockage.

Si vous souhaitez en savoir plus sur S3 Batch Operations regardez les didacticiels et consultez la documentation.

S3 Object Lock

Q : Qu'est-ce qu'Amazon S3 Object Lock ?

Amazon S3 Object Lock est une nouvelle fonction Amazon S3 qui bloque la suppression de versions d'objet lors d'une période de conservation définie par le client. Cette période vous permet d'appliquer des stratégies de conservation en tant que couche supplémentaire de protection des données ou à des fins de conformité réglementaire. Vous pouvez migrer des charges de travail depuis des systèmes WORM (Write Once Read Many, une seule écriture et plusieurs lectures) existants vers Amazon S3, et configurer S3 Object Lock aux niveaux de l'objet et du compartiment pour empêcher les suppressions de version d'objet avant les dates de fin de conservation ou de détention légale. La protection S3 Object Lock est conservée quelle que soit la classe de stockage de l'objet lors des transitions de cycle de vie S3 entre les classes de stockage.

Q : Pourquoi devrais-je utiliser Amazon S3 Object Lock ?

Vous devez utiliser S3 Object Lock si vous avez des exigences réglementaires qui stipulent que vos données doivent avoir une protection WORM, ou si vous voulez ajouter une autre couche de protection aux données dans Amazon S3. S3 Object Lock peut vous aider à respecter des exigences réglementaires qui stipulent que les données doivent être stockées dans un format immuable, et peut également vous protéger contre la suppression accidentelle ou malveillante de données dans Amazon S3.

Q : Comment Amazon S3 Object Lock fonctionne-il ?

Amazon S3 Object Lock bloque la suppression d'un objet pour la durée d'une période de conservation spécifiée. En associant cette fonction à la gestion des versions S3 qui protège les objets contre le remplacement, vous pouvez vous assurer que les objets restent immuables aussi longtemps que la protection WORM est appliquée. Vous pouvez appliquer la protection WORM en attribuant une de date de fin de conservation ou une détention légale à un objet à l'aide du kit SDK AWS, de l'interface de ligne de commande, de l'API REST ou de la console de gestion S3. Vous pouvez appliquer des paramètres de conservation au sein d'une demande PUT, ou les appliquer à un objet existant après sa création.

La date de fin de conservation définit la durée pendant laquelle un objet reste immuable. Une fois qu'une date de fin de conservation a été attribuée à un objet, cet objet ne peut pas être modifié ou supprimé jusqu'à cette date. Si un utilisateur tente de supprimer un objet avant sa date de fin de conservation, l'opération est refusée.

S3 Object Lock peut être configuré dans deux modes. Lorsqu'ils sont déployés en mode de gouvernance, les comptes AWS avec des autorisations IAM spécifiques peuvent supprimer la protection WORM d'un objet. Si vous avez besoin d'une immuabilité plus forte pour vous conformer à des réglementations, vous pouvez utiliser le mode de conformité. En mode de conformité, la protection WORM ne peut être supprimée par aucun utilisateur, y compris le compte racine.

Sinon, vous pouvez rendre un objet immuable en appliquant une détention légale à cet objet. Une détention légale applique une protection S3 Object Lock indéfinie à un objet, qui sera conservée jusqu'à ce qu'elle soit supprimée explicitement. Pour placer et supprimer des détentions légales, votre compte AWS doit avoir l'autorisation en écriture pour l'action PutObjectLegalHold. Une détention légale peut être appliquée à tout objet dans un compartiment avec S3 Object Lock, que cet objet soit soumis actuellement ou non à une protection WORM par une période de conservation.

Q : Quels services de stockage électronique AWS ont été évalués selon la réglementation sur les services financiers ?

Pour les clients du secteur des services financiers, S3 Object Lock offre un support supplémentaire aux courtiers-négociants qui doivent conserver les enregistrements dans un format non effaçable et non réinscriptible pour satisfaire aux exigences des réglementations SEC 17a-4(f), FINRA 4511 ou CFTC 1.31. Vous pouvez facilement définir le délai de conservation des enregistrements pour conserver les archives réglementaires sous leur forme originale pendant la durée requise, et placer des suspensions juridiques pour conserver indéfiniment les données tant que la suspension n'est pas supprimée.

Q : Quelle documentation AWS soutient les exigences SEC 17a-4(f)(2)(i) et CFTC 1.31(c) pour notifier mon organisme de réglementation ?

Notifiez l'organisme de réglementation de votre choix sur l'utilisation d'Amazon S3 pour le stockage électronique, avec une copie de l'évaluation Cohasset. Aux fins de ces exigences, AWS n'est pas un tiers désigné. Veillez à sélectionner un tiers désigné et à inclure ces informations dans votre notification à l'organisme de réglementation.

Métriques CloudWatch relatives à S3

Q : Comment démarrer avec les métriques CloudWatch relatives à S3 ?

Vous pouvez utiliser AWS Management Console pour activer la génération de métriques CloudWatch d'une minute pour votre compartiment S3 ou configurer des filtres pour les métriques à l'aide d'un préfixe ou d'une balise d'objet. Vous pouvez également appeler l'API S3 PUT Bucket Metrics pour activer et configurer la publication de métriques de stockage S3. Les métriques de demande CloudWatch sont disponibles dans CloudWatch dans les 15 minutes suivant leur activation. Les métriques de stockage CloudWatch sont activées par défaut pour tous les compartiments et rapportés une fois par jour.

Q : Puis-je aligner les métriques de demande S3 CloudWatch sur mes applications ou mes organisations commerciales ?

Vous pouvez utiliser les métriques de demande CloudWatch relatives à S3 pour générer des métriques pour votre compartiment S3 ou configurer des filtres pour les métriques à l'aide d'un préfixe ou d'une balise d'objet.

Q : Quelles alertes puis-je définir pour mes métriques de stockage ?

Vous pouvez utiliser CloudWatch pour définir des seuils pour n'importe quel décompte, minuteur ou taux de métriques de stockage et déclencher une action en cas de dépassement des seuils. Par exemple, vous pouvez définir un seuil pour le pourcentage de réponses d'erreur 4xx et, lorsqu'au moins 3 points de données dépassent le seuil, vous pouvez déclencher une alarme CloudWatch pour avertir un ingénieur DevOps.

Q : Comment l'utilisation des métriques CloudWatch relatives à S3 m'est-elle facturée ?

Les métriques de stockage CloudWatch sont fournies gratuitement. Les métriques CloudWatch relatives à des demandes sont facturées comme les métriques personnalisées pour Amazon CloudWatch. Consultez la page relative à la tarification d'Amazon CloudWatch pour obtenir des informations générales sur la tarification des métriques CloudWatch relatives à S3.

Gestion du cycle de vie S3

Q : Qu'est-ce que la gestion du cycle de vie S3 ?

La gestion du cycle de vie S3 permet de définir le cycle de vie de votre objet avec une stratégie prédéfinie et de réduire vos frais de stockage. Vous pouvez définir une stratégie de transition de cycle de vie afin de faire automatiquement migrer des objets présents dans la classe de stockage S3 Standard vers les classes de stockage S3 Standard – Accès peu fréquent, S3 Unizone – Accès peu fréquent et/ou S3 Glacier en fonction de l'ancienneté des données. Vous pouvez également définir des stratégies d'expiration du cycle de vie pour supprimer automatiquement les objets en fonction de leur ancienneté. Vous pouvez définir une stratégie d'expiration des chargements partitionnés afin de définir une date expiration pour les chargements partitionnés incomplets en fonction de leur ancienneté.

Q : Comment définir une stratégie de gestion du cycle de vie S3 ?

Vous pouvez définir et administrer des stratégies de gestion du cycle de vie dans AWS Management Console, l'API REST S3, les kits SDK AWS ou la CLI (interface de ligne de commande) AWS. Vous pouvez spécifier la stratégie au niveau du préfixe ou du compartiment.

Q : Comment est facturée l'utilisation de la gestion du cycle de vie S3 ?

Aucun frais supplémentaire n'est facturé pour la définition et l'application de stratégies de gestion du cycle de vie. Une demande de transition est facturée par objet lorsqu'un objet devient éligible à une transition en fonction de la règle de cycle de vie. Consultez la page Tarification S3 pour en savoir plus sur la tarification.

Q : Que puis-je faire avec les stratégies de gestion du cycle de vie ?

Lorsque les données vieillissent, elles peuvent devenir moins critiques et moins précieuses, et/ou être soumises à des exigences de conformité. Amazon S3 comprend une vaste bibliothèque de stratégies pour vous aider à automatiser les processus de migration des données entre les classes de stockage. Par exemple, vous pouvez paramétrer les objets peu consultés pour qu'ils migrent dans des classes de stockage à moindre coût (comme S3 Standard – IA ou S3 One Zone – IA) après une certaine période. Après une autre période, ces objets peuvent être déplacés vers Amazon S3 Glacier pour être archivés et répondre à des exigences de conformité. Si la stratégie le permet, vous pouvez préciser une stratégie de cycle de vie pour la suppression d'objet. Ces règles peuvent, de façon imperceptible faire baisser les coûts de stockage et simplifier les efforts de gestion. De plus, ces stratégies comprennent également de bonnes pratiques de gérance pour supprimer les objets et les attributs devenus inutiles pour gérer les coûts et optimiser les performances.

Q : comment puis-je exploiter la stratégie d'Amazon S3 relative au cycle de vie pour réduire mes coûts de stockage dans Amazon S3 ?

Avec les stratégies de cycle de vie Amazon S3, vous pouvez configurer vos objets pour qu'ils migrent depuis la classe de stockage S3 Standard vers la classe de stockage S3 Standard – Accès peu fréquent ou S3 Unizone – Accès peu fréquent, et/ou pour qu'ils soient archivés dans S3 Glacier. Vous pouvez également définir une stratégie de cycle de vie S3 visant à supprimer des objets après un délai bien précis. Vous pouvez utiliser les options d'automatisation basées sur ces stratégies afin de réduire rapidement et facilement vos coûts de stockage, mais également pour gagner du temps. Dans chaque règle, vous pouvez définir un préfixe, une période, une transition vers S3 Standard – Accès peu fréquent, S3 Unizone – Accès peu fréquent ou S3 Glacier, et/ou un délai d'expiration. Par exemple, vous pouvez créer une règle afin que tous les objets dotés du préfixe commun « logs/ » soient archivés dans S3 Glacier 30 jours après leur création et expirent après 365 jours. Vous pouvez également créer une règle distincte spécifiant que seuls les objets dotés du préfixe « backups/ » expirent 90 jours après leur création. Les stratégies de cycle de vie S3 s'appliquent aux objets S3 nouveaux et existants. Ainsi, vous pouvez optimiser le stockage et réaliser des économies maximales en termes de coûts pour toutes les données existantes et les nouvelles données placées dans S3, sans avoir besoin d'effectuer manuellement la vérification et la migration des données. Au sein d'une règle de cycle de vie, le champ de préfixe identifie l'objet auquel la règle s'applique. Pour appliquer la règle à un objet individuel, spécifiez le nom de clé. Pour appliquer la règle à un ensemble d’objets, spécifiez leur préfixe commun (e.g. « logs/ »). Vous pouvez définir une action de transition pour que vos objets soient archivés, et une action d'expiration pour les supprimer. Pour définir une période, indiquez la date de création (par ex. : 31 janvier 2015) ou précisez le délai après lequel vous souhaitez que vos objets soient archivés ou supprimés, en spécifiant un nombre de jours à compter de la date de création (par ex. : 30 jours). Vous pouvez créer plusieurs règles pour différents préfixes.

Q : Comment puis-je configurer mes objets pour qu'ils soient supprimés après un délai spécifique ?

Vous pouvez définir une stratégie d'expiration du cycle de vie S3 pour supprimer les objets de vos compartiments après un nombre de jours spécifiés à l'avance. Vous pouvez définir les règles d'expiration pour un ensemble d'objets dans votre compartiment par le biais de la stratégie de Configuration de cycle de vie que vous appliquez au compartiment.

En savoir plus sur les stratégies d'expiration de cycle de vie de S3 »

Q : Pourquoi devrais-je utiliser une stratégie de cycle de vie S3 pour gérer l'expiration des chargements partitionnés incomplets ?

La stratégie de gestion du cycle de vie S3 gérant l'expiration des chargements partitionnés incomplets vous permet de faire des économies en limitant la durée de stockage des chargements partitionnés incomplets. Par exemple, si votre application charge plusieurs composants d'objet en plusieurs parties sans jamais les exécuter, vous serez tout de même facturé pour leur stockage. Cette politique réduit vos frais de stockage S3 en éliminant automatiquement les téléchargements en plusieurs parties incomplets et l'espace de stockage associé après un nombre de jours prédéfini.

En savoir plus sur l'utilisation des cycles de vie S3 pour gérer l'expiration des chargements partitionnés »

Réplication

Q : Qu'est-ce que la réplication Amazon S3 ?

La réplication Amazon S3 permet la copie automatique et asynchrone d'objets dans les compartiments Amazon S3. Les compartiments configurés pour la réplication d'objets peuvent appartenir au même compte AWS ou à des comptes différents. Vous pouvez copier des copier des objets entre régions AWS différentes (réplication S3 entre régions, CRR) ou au sein de la même région AWS (réplication S3 dans la même région, SRR).

Q : Qu'est-ce que la réplication entre régions Amazon S3 ?

La réplication entre régions (CRR) est une fonctionnalité Amazon S3 qui réplique automatiquement les données entre des compartiments de régions AWS différentes. Avec la réplication entre régions, vous pouvez configurer la réplication au niveau d'un compartiment, au niveau d'un préfixe partagé ou au niveau d'un objet à l'aide de balises d'objet S3. Vous pouvez utiliser cette fonctionnalité pour fournir un accès aux données à latence plus faible dans diverses régions géographiques. La réplication entre régions peut également être utile si vous devez répondre aux exigences de conformité concernant le stockage de copies de données à plusieurs centaines de kilomètres l'une de l'autre. La fonctionnalité CRR permet de changer de propriétaire de compte pour les objets répliqués afin de protéger les données contre une suppression accidentelle. Pour en savoir plus sur CRR, consultez leguide du développeur de révocation.

Q : Qu'est-ce que la réplication dans la même région Amazon S3 ?

La réplication au sein d’une même région (SRR) est une fonction Amazon S3 qui réplique automatiquement les données dans la même région AWS. Avec la réplication au sein de la même région, vous pouvez configurer la réplication au niveau d'un compartiment, au niveau d'un préfixe partagé ou au niveau d'un objet à l'aide de balises d'objet S3. Vous pouvez utiliser SRR pour faire une deuxième copie de vos données dans la même région AWS. SRR vous aide à répondre aux exigences de souveraineté et de conformité des données en conservant une copie de vos données dans un compte AWS distinct dans la même région que l'original. La fonctionnalité SRR permet de changer de propriétaire de compte pour les objets répliqués afin de protéger les données contre une suppression accidentelle. Vous pouvez également utiliser SRR pour agréger aisément les journaux de différents compartiments S3 pour le traitement dans la région ou de configurer la réplication dynamique entre les environnements de test et de développement. Pour en savoir plus sur SRR, consultez leguide du développeur de réplication.

Q : Comment activer la réplication Amazon S3 (réplication entre régions et réplication au sein d’une même région) ?

La réplication Amazon S3 (CRR et SRR) est configuré au niveau d'un compartiment S3, au niveau d'un préfixe partagé ou au niveau d'un objet à l'aide de balises d'objet S3. Vous ajoutez une configuration de réplication sur votre compartiment source en spécifiant un compartiment de destination dans une autre région ou la même région AWS pour la réplication.

Pour ce faire, vous pouvez utiliser AWS Management Console, l'API REST, l'interface de ligne de commande AWS ou les kits SDK AWS. La gestion des versions doit être activée sur les compartiments source et de destination pour permettre la réplication. Pour en savoir plus, consultez la section Vue d’ensemble de la configuration de la réplication dans le Guide du développeur Amazon S3.

Q:   Puis-je utiliser la réplication S3 (CRR et SRR) avec les règles du cycle de vie S3 ?

Avec la réplication S3 (CRR et SRR), vous pouvez établir des règles de réplication pour faire des copies de vos objets dans une autre classe de stockage, dans la même région ou dans une autre. Les actions du cycle de vie ne sont pas répliquées et si vous voulez que la même configuration du cycle de vie soit appliquée aux compartiments source et destination, activez la même configuration du cycle de vie sur les deux. 

Par exemple, vous pouvez configurer une règle de cycle de vie pour faire migrer des données depuis la classe de stockage S3 Standard vers la classe de stockage S3 Standard – Accès peu fréquent ou S3 Unizone – Accès peu fréquent ou pour archiver des données dans S3 Glacier dans le compartiment de destination.

Pour plus d'informations sur la configuration et la réplication du cycle de vie, reportez-vous au Guide du développeur de réplication S3

Q : Puis-je utiliser la réplication avec des objets chiffrés par AWS Key Management Service (KMS) ?

Oui, vous pouvez répliquer des objets chiffrés par KMS en intégrant une clé KMS de destination à votre configuration de réplication.

En savoir plus sur la réplication des objets chiffrés par KMS »

Q : Les objets sont-ils transférés et chiffrés en toute sécurité tout au long du processus de réplication ?

Oui, les objets restent chiffrés tout au long du processus de réplication. Les objets chiffrés sont transmis en toute sécurité via SSL de la région source à la région de destination (CRR) ou au sein de la même région (SRR).

Q : Puis-je utiliser la réplication entre plusieurs comptes AWS afin de mettre en place une protection contre la suppression accidentelle ou malveillante ?

Oui, pour CRR et SRR, vous pouvez configurer la réplication entre régions avec plusieurs comptes AWS afin de stocker vos données répliquées dans un autre compte situé dans la région cible. Vous pouvez utiliser le remplacement de propriété dans votre configuration de réplication pour gérer une pile de propriété distincte entre la source et la destination, et accorder la propriété du compte de destination au stockage dupliqué.

Q : Qu'est-ce que Amazon S3 Replication Time Control ?

Amazon S3 Replication Time Control est une fonctionnalité de la réplication S3 qui vous aide à satisfaire aux exigences métier ou de conformité en matière de temps de réplication prévisibles. S3 Replication Time Control est conçu pour répliquer la plupart ddes objets en quelques secondes, 99 % des objets en l’espace de 5 minutes, et 99,99 % des objets en l’espace de 15 minutes. S3 Replication Time Control est soutenu par un Contrat de niveau de service (SLA) qui prévoit que 99,9 % des objets seront répliqués dans les 15 minutes pour chaque paire de régions durant chaque mois de facturation. Replication Time fonctionne avec toutes les fonctionnalités de réplication S3. Pour en savoir plus, consultez le Guide du développeur de réplication.

Q : Comment activer Amazon S3 Replication Time Control ?

Amazon S3 Replication Time Control est activé en tant qu’option dans votre configuration de réplication S3. Vous pouvez créer une nouvelle stratégie de réplication S3 avec S3 Replication Time Control ou activer cette fonctionnalité sur une politique existante.

Vous pouvez utiliser S3 Management Console, l'API REST, l'interface de ligne de commande AWS ou les kits SDK AWS pour configurer la réplication. Pour en savoir plus, consultez la section Vue d’ensemble de la configuration de la réplication dans le Guide du développeur Amazon S3.

Q: Que sont les métriques et les événements de réplication Amazon S3 ?

Les métriques et événements de la réplication Amazon S3 fournissent une visibilité sur la réplication Amazon S3. Avec les métriques de réplication S3, vous pouvez surveiller le nombre total d'opérations et la taille des objets en attente de réplication, ainsi que la latence de réplication entre les compartiments sources et de destination pour chaque règle de réplication S3. Les paramètres de réplication sont disponibles via Amazon S3 Management Console et via Amazon CloudWatch. Les événements de réplication S3 vous informent des échecs de réplication afin que vous puissiez rapidement diagnostiquer et corriger les problèmes. Si le contrôle du délai de réplication S3 (S3 RTC) est activé, vous recevez des notifications lorsqu'un objet prend plus de 15 minutes à se répliquer, et lorsque cet objet se réplique avec succès vers leur destination. Comme les autres événements Amazon S3, les événements de réplication S3 sont disponibles via Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) ou AWS Lambda.

Q : Comment activer les métriques et événements de réplication Amazon S3 ?

Les métriques et les événements de réplication Amazon S3 peuvent être activés pour les règles de réplication nouvelles ou existantes, et sont activés par défaut pour les règles activées par le contrôle du délai de réplication S3. Vous pouvez accéder aux métriques de réplication S3 via Amazon S3 Management Console et Amazon CloudWatch. Comme les autres événements Amazon S3, les événements de réplication S3 sont disponibles via Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) ou AWS Lambda. Pour en savoir plus, consultez Surveillance de la progression avec des métriques de réplication et des notifications d'événements Amazon S3 dans le Guide du développeur Amazon S3.

Q: Qu'est-ce que l'Accord sur les niveaux de service du contrôle du délai de réplication Amazon S3 ?

Le contrôle du temps de réplication Amazon S3 est conçu pour répliquee 99,99 % de vos objets en 15 minutes et il est soutenu par un contrat de niveau de service. Si moins de 99,9 % de vos objets sont répliqués en 15 minutes pour chaque paire de régions de réplication au cours d'un cycle de facturation mensuel, le SLA RTC S3 prévoit un crédit de service sur tout objet dont la réplication a pris plus de 15 minutes. Le crédit de service couvre un pourcentage de tous les frais liés à la réplication associés aux objets qui n'ont pas respecté le SLA, y compris les frais de commutation téléphonique, la bande passante de réplication et les frais de demande, ainsi que le coût associé au stockage de votre réplica dans la région de destination dans le cycle de facturation mensuel affecté. Pour en savoir plus, consultez l'Accord sur les niveaux de service du contrôle du temps de réplication S3.

Q: Comment puis-je savoir si j'ai droit à un crédit de service de l’accord sur les niveaux de service du contrôle du temps de réplication Amazon S3 ?

Vous êtes éligible à un crédit SLA pour le contrôle du temps de réplication Amazon S3 si moins de 99,9 % de vos objets sont répliqués en 15 minutes pour chaque paire de régions de réplication pendant un cycle de facturation mensuel. Pour consulter l'intégralité des conditions générales du SLA et en savoir plus sur la marche à suivre pour soumettre une demande, référez-vous à l'Accord sur les niveaux de service du contrôle du temps de réplication S3.

Q : Quelle est la tarification de la réplication S3 et du contrôle du temps de réplication S3 ?

Pour les fonctionnalités CRR et SRR, vous payez les frais Amazon S3 qui s’appliquent au stockage dans la classe de stockage S3 de la destination que vous sélectionnez en plus des frais de stockage pour la copie principale, des frais pour les requêtes PUT de réplication et des frais d’extraction dans le stockage à accès peu fréquent applicables. Pour l'option CRR, vous payez également pour les transferts de données inter-régionaux SORTANTS depuis Amazon S3 vers votre région de destination. La tarification de la copie répliquée du stockage, des requêtes et des transferts de données entre régions est en fonction de la région AWS de destination. Si vous activez les métriques et notifications de réplication, vous devrez vous acquitter de frais relatifs aux métriques personnalisées Amazon CloudWatch. Pour le contrôle de délai de réplication S3, vous payez des frais supplémentaires pour le transfert de données. Pour plus d'informations, consultez la page relative à la tarification d'Amazon S3.

Si l'objet source est chargé à l'aide de la fonctionnalité de téléchargement en plusieurs composants, alors il est répliqué et l'on conserve à la fois le nombre de composants et la taille de l'objet. Par exemple, un objet de 100 Go chargé à l'aide de la fonctionnalité de téléchargement en plusieurs composants (800 composants de 128 Mo chacun) entraîne des frais correspondant à 802 demandes (800 demandes de chargement de composant + 1 demande de lancement de téléchargement en plusieurs composants + 1 demande de fin de téléchargement en plusieurs composants) pour sa réplication. Cela entraîne des frais de demande atteignant 0,00401 USD (802 demandes x 0,005 USD par 1 000 demandes), (si la réplication a eu lieu entre des régions AWS différents) ainsi que 2 USD (0,02 USD par Go transféré x 100 Go) pour le transfert inter-régional. Après la réplication, vous payez des frais de stockage pour les 100 Go en fonction de la région de destination.

Q : Puis-je répliquer des marqueurs de suppression d'un compartiment vers un autre ?

Oui, vous pouvez répliquer les marqueurs de suppression de la source à la destination si vous avez activé la réplication des marqueurs de suppression dans votre configuration de réplication. Lorsque vous répliquez les marqueurs de suppression, Amazon S3 se comporte comme si l'objet était supprimé dans les deux compartiments. Vous pouvez activer la réplication des marqueurs de suppression pour une règle de réplication nouvelle ou existante. Vous pouvez appliquer la réplication du marqueur de suppression à l'ensemble du compartiment ou aux objets Amazon S3 qui ont un préfixe spécifique, avec des règles de réplication basées sur le préfixe. La réplication Amazon S3 ne prend pas en charge la réplication du marqueur de suppression pour les règles de réplication basées sur les balises d'objets. Pour en savoir plus sur l'activation de la réplication des marqueurs de suppression, consultez Réplication des marqueurs de suppression d'un compartiment vers un autre.

Q : Puis-je répliquer des données à partir d'autres régions AWS vers la Chine ? Un client peut-il répliquer un compartiment d'une région de Chine en dehors des régions de Chine?

Non, la réplication Amazon S3 n'est pas disponible entre les régions AWS Chine et les régions AWS en dehors de la Chine. Vous ne pouvez effectuer de réplication que dans les régions de Chine.

Amazon S3 et IPv6

Q : Que signifie IPv6 ?

Chaque serveur ou appareil connecté à Internet doit posséder une adresse unique. Internet Protocol version 4 (IPv4) est le nom du schéma d'adressage 32 bits d'origine. Cependant, la croissance perpétuelle de l'Internet fait en sorte que toutes les adresses IPv4 disponibles finiront par être utilisées. Internet Protocol version 6 (IPv6) est le nouveau mécanisme d'adressage. Il vise à surmonter les limitations des adresses globales sur IPv4.

Q : Que puis-je faire avec IPv6 ?

Grâce à la prise en charge d'IPv6 pour Amazon S3, les applications peuvent se connecter à Amazon S3 sans passer par un logiciel ou système de traduction d'IPv6 vers IPv4. Vous pouvez répondre aux exigences de conformité et réaliser plus facilement l'intégration d'applications sur site basées sur IPv6 sans avoir à acheter des équipements réseau onéreux pour gérer la traduction des adresses. De plus, vous pouvez désormais utiliser les fonctionnalités actuelles de filtrage des adresses d'origine dans les stratégies IAM et les stratégies de compartiment avec les adresses IPv6. Vous disposez ainsi de nouvelles options pour protéger les applications interagissant avec Amazon S3.

Q : Comment commencer à utiliser IPv6 sur Amazon S3 ?

Pour commencer, pointez votre application sur le nouveau point de terminaison « dual-stack » (double pile) d'Amazon S3, qui prend en charge les accès par IPv4 et IPv6. Dans la plupart des cas, aucune configuration ultérieure n'est requise pour un accès par IPv6, car la plupart des clients réseau privilégient les adresses IPv6 par défaut.

Q : Les performances d'Amazon S3 seront-elles différentes avec IPv6 ? 

Non. Vous obtiendrez les mêmes performances avec Amazon S3, que vous utilisiez IPv4 ou IPv6.

Q : Que puis-je faire si des clients sont limités par des stratégies, le réseau ou d'autres restrictions par rapport à l'utilisation d'IPv6 pour Amazon S3 ?

Si une application est affectée par l'utilisation d'IPv6, il est possible de revenir à tout moment aux points de terminaison standard compatibles IPv4 uniquement.

Q : Puis-je utiliser IPv6 pour toutes les fonctions Amazon S3 ?

Non. Pour l'heure, le protocole IPv6 n'est pas pris en charge pour l'hébergement de sites Web et les accès via BitTorrent. Toutes les autres fonctionnalités devraient fonctionner comme prévu lorsque vous accédez à Amazon S3 via IPv6.

Q : Le protocole IPv6 est-il pris en charge dans toutes les régions AWS ?

Oui, vous pouvez utiliser IPv6 avec Amazon S3 dans toutes les régions AWS publiques, y compris dans la région AWS Chine (Pékin), opérée par Sinnet, et la région AWS Chine (Ningxia), opérée par NWCD. Vous pouvez également utiliser IPv6 avec Amazon S3 dans la région AWS GovCloud (US).

Prêt à vous lancer ?

Product-Page_Standard-Icons_01_Product-Features_SqInk
Contrôlez les fonctions du produit

En savoir plus sur les fonctions de gestion des données, de sécurité, de gestion des accès, d'analyse, et plus encore.

En savoir plus 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
Créer gratuitement un compte

Accédez instantanément à l'offre gratuite AWS et commencez à explorer Amazon S3. 

S'inscrire 
Product-Page_Standard-Icons_03_Start-Building_SqInk
Commencez à créer sur la console

Commencez à créer sur la console AWS avec Amazon S3.

Prise en main