Questions fréquentes (FAQ) d'ordre général sur S3

Question : Qu'est-ce qu'Amazon S3 ?

Amazon S3 est un stockage d'objets conçu pour stocker et récupérer n'importe quelle quantité de données, n'importe où. Il s'agit d'un service de stockage simple qui offre une durabilité, une disponibilité, des performances, une sécurité, et une scalabilité de pointe pratiquement illimitée à un tarif très bas.

Question : Que puis-je faire avec Amazon S3 ?

Amazon S3 offre une interface simple de services Web à utiliser pour stocker et récupérer n'importe quelle quantité de données, à tout moment, depuis n'importe où. Grâce à ce service, vous pouvez facilement créer des applications utilisant le stockage cloud natif. Étant donné qu'Amazon S3 est hautement scalable et que vous payez uniquement pour ce que vous utilisez, vous pouvez démarrer modestement et développer votre application comme vous le souhaitez, sans compromettre ses performance ou sa fiabilité.

Amazon S3 est également conçu pour être extrêmement flexible. Stockez tous les types et quantités de données ; lisez les mêmes données un million de fois ou uniquement pour une reprise après sinistre ; créez une application FTP simple ou une application Web sophistiquée, comme le site marchand d'Amazon.com. Amazon S3 permet aux développeurs de se concentrer sur l'innovation, plutôt que de se casser la tête sur le stockage de données.

Question : Comment démarrer avec Amazon S3 ?

Pour vous inscrire à Amazon S3, cliquez sur ce lien. Pour accéder à ce service, vous devez disposer d'un compte Amazon Web Services. Si vous n'en avez pas, vous serez invité à en créer un au début du processus d'inscription à Amazon S3. Après vous être inscrit, consultez la documentation et les exemples de codes Amazon S3 dans le Centre de ressources pour démarrer avec Amazon S3.

Question : Qu'est-ce que les développeurs peuvent faire avec Amazon S3 qu'ils ne pourraient pas faire avec une solution sur site ?

Amazon S3 permet à tous les développeurs de profiter des avantages de la grande échelle d'Amazon sans recourir à des investissements massifs, ou compromettre les performances. Désormais, les développeurs sont libres d'innover tout en sachant qu'indépendamment des performances futures de leur société, il sera peu coûteux et simple d'assurer l'accessibilité, la disponibilité et la sécurité de leurs données.

Question : Quel genre de données est-ce que je peux stocker dans Amazon S3 ?

Vous pouvez stocker pratiquement n'importe quel type de données dans n'importe quel format. Consultez le Contrat de licence Amazon Web Services pour plus de détails.

Question : Quelle quantité de données puis-je stocker dans Amazon S3 ?

Le volume total de données et le nombre d'objets que vous pouvez stocker sont illimités. La taille des objets Amazon S3 individuels va de 0 octet minimum à 5 téraoctets maximum. L'objet le plus grand que vous pouvez téléverser avec un seul PUT est de 5 gigaoctets. Pour les objets dont la taille est supérieure à 100 mégaoctets, les clients doivent envisager d'utiliser la fonctionnalité de chargement en plusieurs parties.

Question : Quelles classes de stockage sont proposées par Amazon S3 ?

Amazon S3 offre un large éventail de classes de stockage conçues pour différents cas d'utilisation. Celles-ci comprennent S3 Standard pour le stockage à usage général ou les données à consultation fréquente ; S3 Intelligent-Tiering pour les données avec des modèles d'accès changeants ou inconnus ; S3 Standard-Infrequent Access (S3 standard – Accès peu fréquent) et S3 One Zone-Infrequent Access (S3 unizone – Accès peu fréquent) pour les données à longue vie mais peu consultées ; et Amazon S3 Glacier (S3 Glacier) et Amazon S3 Glacier Deep Archive (S3 Glacier Deep Archive) pour les archives à long terme et la conservation de données. Si vous avez des exigences de résidence de données ne pouvant pas être respectées par une région AWS existante, vous pouvez utiliser la classe de stockage S3 Outposts pour stocker vos données S3 sur site. Vous pouvez en savoir plus sur ces classes de stockage en consultant la page Classes de stockage Amazon S3

Question : Est-il possible d'avoir un compartiment hébergeant différents objets, dans différentes classes de stockage ?

Oui, il est possible d'avoir un compartiment S3 hébergeant différents objets dans des classes de stockage S3 standard, S3 Intelligent-Tiering, S3 standard – Accès peu fréquent et S3 unizone – Accès peu fréquent.

Question : Que fait Amazon avec mes données dans Amazon S3 ?

Amazon stocke vos données et vérifie l'utilisation qui en est faite à des fins de facturation. Amazon n'accédera pas à vos données à des fins autres que celles de l'offre Amazon S3, sauf si la loi l'exige. Consultez le Contrat de licence Amazon Web Services pour plus de détails.

Question : Est-ce qu'Amazon stocke ses propres données dans Amazon S3 ?

Oui. Les développeurs dans Amazon utilisent Amazon S3 pour une grande variété de projets. Un grand nombre de ces projets utilisent Amazon S3 en tant que magasin de données faisant autorité et comptent dessus pour les opérations critiques.

Question : Comment sont organisées les données Amazon S3 ?

Amazon S3 est un magasin d'objets sur clé simple. Lorsque vous stockez des données, vous leur attribuez une clé d'objet unique qui peut ensuite être utilisée pour les récupérer. Les clés peuvent être une chaîne quelconque et structurées pour imiter les attributs hiérarchiques. Vous pouvez également utiliser S3 Object Tagging pour organiser vos données sur l'ensemble de vos compartiments et préfixes S3.

Question : Comment interagir avec Amazon S3 ?

Amazon S3 fournit une interface simple de services web de type REST reposant sur des normes, conçue pour fonctionner avec n'importe quelle boîte à outils de développement Internet. Les opérations sont volontairement simplifiées pour faciliter l'ajout de nouveaux protocoles de distribution et de couches fonctionnelles.

Question : Quel est le niveau de fiabilité d'Amazon S3 ?

Amazon S3 permet aux développeurs d'accéder à la même infrastructure de stockage de données hautement scalable, hautement disponible, rapide, peu coûteuse qu'Amazon utilise pour faire fonctionner son propre réseau mondial de sites web. La classe de stockage S3 standard est conçue pour offrir 99,99 % de disponibilité, les classes de stockage S3 standard – Accès peu fréquent et S3 Intelligent-Tiering 99,9 % de disponibilité, la classe S3 unizone – Accès peu fréquent 99,5 % de disponibilité et les classes S3 Glacier et S3 Glacier Deep Archive sont conçues pour une disponibilité de 99,99 % et un SLA de 99,9 %. Toutes ces classes de stockage sont accompagnées de l'accord de niveau de service (SLA) Amazon S3.

Question : Quelles sont les performances d'Amazon S3 si le trafic venant de mon application augmente soudainement ?

Amazon S3 a été conçu dès le départ pour traiter le trafic de toute application Internet. Grâce au paiement à l'utilisation et à une capacité illimitée, vos coûts incrémentiels ne changent pas et votre service n'est pas interrompu. La grande échelle d'Amazon S3 nous permet de répartir la charge uniformément, afin qu'aucune application individuelle ne soit affectée par les pics de trafic.

Question : Un accord de niveau de service (SLA) est-il proposé par Amazon S3 ?

Oui. Le contrat de niveau de service Amazon S3 donne droit à un crédit de service si le pourcentage de disponibilité mensuelle d'un client est inférieur à notre engagement de service au cours de n'importe quel cycle de facturation.

Question : Quel est le modèle de cohérence pour Amazon S3 ?

Amazon S3 offre automatiquement une forte cohérence lecture après écriture, sans modification des performances ou de la disponibilité, sans sacrifier l'isolation régionale pour les applications et sans frais supplémentaires.

Après l'écriture réussie d'un nouvel objet ou le remplacement réussi d'un objet existant, toute demande de lecture ultérieure reçoit immédiatement la dernière version de l'objet. S3 fournit également une forte cohérence pour les opérations de liste. Par conséquent, après une écriture, vous pouvez immédiatement effectuer une liste des objets dans un compartiment avec toutes les modifications prises en compte.

Question : En quoi une forte cohérence lecture après écriture peut-elle m'être utile ?

Une forte cohérence lecture après écriture est utile lorsque vous devez immédiatement lire un objet après une écriture. Par exemple, une forte cohérence lecture après écriture lorsque vous lisez et répertoriez souvent immédiatement après avoir écrit des objets. Les charges de travail de calcul haute performance bénéficient également du fait que lorsqu'un objet est écrasé, puis lu plusieurs fois simultanément, une forte cohérence lecture après écriture garantit que la dernière écriture est lue sur toutes les lectures. Ces applications bénéficient automatiquement et immédiatement d'une forte cohérence lecture après écriture. La forte cohérence de S3 réduit également les coûts en éliminant le besoin d'une infrastructure supplémentaire pour fournir une cohérence forte.  

Régions AWS

Question : Où mes données sont-elles stockées ?

Lorsque vous créez votre compartiment Amazon S3, vous spécifiez une région AWS. Concernant les classes de stockage S3 Standard, S3 Standard – Accès peu fréquent et S3 Glacier, vos objets sont automatiquement stockés sur plusieurs appareils répartis sur un minimum de trois zones de disponibilité, distantes de plusieurs kilomètres dans une région AWS. Les objets stockés dans une classe de stockage S3 unizone – Accès peu fréquent sont stockés de façon redondante dans une seule zone de disponibilité dans la région AWS de votre choix. Pour S3 sur Outposts, vos données sont stockées dans votre environnement Outpost sur site, à moins que vous ne choisissiez manuellement de les transférer vers une région AWS. Pour plus d'informations sur la disponibilité du service Amazon S3 par région AWS, reportez-vous à la section relative aux produits et services régionaux.

Question : Qu'est-ce qu'une région AWS ?

Une région AWS est un emplacement géographique dans lequel AWS offre plusieurs zones de disponibilités isolées et physiquement séparées connectées par une mise en réseau hautement redondante, à faible latence et à haut débit.

Question : Qu'est-ce qu'une zone de disponibilité AWS ?

Une zone de disponibilité AWS est un emplacement isolé physiquement dans une région AWS. Dans chaque région AWS, S3 utilise au minimum trois zones de disponibilité distantes de plusieurs kilomètres pour assurer une protection en cas d'événements locaux comme des incendies, des inondations, etc.

Les classes de stockage Amazon S3 Standard, S3 Standard – Accès peu fréquent et S3 Glacier répliquent les données sur un minimum de trois zones de disponibilité afin de les protéger en cas de perte de la totalité d'une zone de disponibilité. Cela est également valable pour les Régions où moins de trois zones de disponibilité sont publiquement disponibles. Il est possible d'accéder aux objets stockés dans ces classes de stockage depuis toutes les zones de disponibilité dans une région AWS.

La classe de stockage Amazon S3 unizone – Accès peu fréquent réplique les données dans une seule zone de disponibilité. Les données stockées dans Amazon S3 unizone – Accès peu fréquent ne résistent pas à la perte physique d'une zone de disponibilité liée à des catastrophes, comme des tremblements de terre et des inondations.

Question : Comment décider dans quelle région AWS stocker mes données ?

Plusieurs facteurs axés sur votre application particulière sont à prendre en compte. Vous voudrez peut-être stocker vos données dans une région…

  • ...proche de vos clients, vos centres de données ou vos autres ressources AWS afin de réduire les latences aux accès des données.
  • ...est éloignée de vos autres opérations pour une redondance géographique et à des fins de reprise après sinistre.
  • ...vous permet de répondre à des exigences légales et réglementaires spécifiques.
  • ...vous permet de réduire les coûts de stockage. Vous pouvez choisir une région avec des tarifs moins élevés pour économiser de l'argent. Pour en savoir plus sur les tarifs S3, consultez la page relative à la tarification de S3.

Question : Dans quelles parties du monde Amazon S3 est-il disponible ?

Amazon S3 est disponible dans les régions AWS sur l'ensemble du globe, et vous pouvez utiliser Amazon S3 où que vous vous trouviez. Vous avez seulement à choisir dans quelle(s) région(s) AWS vous souhaitez stocker vos données Amazon S3. Consultez le Tableau de disponibilité AWS par région pour une liste des régions AWS où S3 est actuellement disponible.

Facturation

Question : Combien coûte Amazon S3 ?

Avec Amazon S3, vous ne payez que les services que vous utilisez. Il n'y a aucun frais minimum. Vous pouvez estimer votre facture mensuelle à l'aide du Calculateur de tarification AWS.

Lorsque nos coûts sont moindres, nous facturons moins. Certains prix peuvent varier en fonction des régions Amazon S3. Les montants facturés sont basés sur l'emplacement de votre compartiment S3. Il n'y a pas de frais de transfert de données à l'intérieur d'une région Amazon S3 via une requête COPY. Les données transférées entre différentes régions AWS via une requête COPY sont facturées en fonction des tarifs indiqués dans la section Tarification de la page de présentation d'Amazon S3. Il n'y a pas de frais pour les données transférées entre Amazon EC2 (ou tout autre service AWS) et Amazon S3 au sein de la même région, par exemple : des données transférées dans la région USA Est (Virginie du Nord). Cela dit, les données transférées entre Amazon EC2 (ou tout autre service AWS) et Amazon S3 dans toutes les autres régions sont facturées conformément aux tarifs indiqués sur la page Tarification Amazon S3, comme par exemple, des données transférées entre les régions Amazon EC2 USA Est (Virginie du Nord) et Amazon S3 USA Ouest (Californie du Nord). Pour connaître la tarification S3 sur Outposts, veuillez consulter la page de tarification Outposts.

Q : comment mon utilisation d'Amazon S3 me sera-t-elle facturée ?

Il n'y a aucun frais d'installation ou engagement à prendre pour commencer à utiliser le service. À la fin du mois, vous serez automatiquement facturé en fonction de votre utilisation au cours du mois. Vous pouvez voir vos frais pour la période de facturation en cours à tout moment sur le site web Amazon Web Services en vous connectant à votre compte Amazon Web Services et en cliquant sur la « Console de gestion de la facturation et des coûts » sous « Votre compte de services Web ».

Avec le niveau d'offre gratuite AWS*, vous pouvez commencer gratuitement avec Amazon S3 dans toutes les régions, à l'exception des Régions AWS GovCloud. Après s'être inscrits, les nouveaux clients AWS bénéficient, chaque mois pendant un an, de 5 Go de stockage Amazon S3 de type Standard, 20 000 requêtes Get, 2 000 requêtes Put et 15 Go de transfert de données sortantes (vers Internet, d'autres régions AWS ou CloudFront). L'utilisation mensuelle inutilisée ne sera pas reportée sur le mois suivant.

Amazon S3 vous facture les types d'utilisation suivants. Notez que les calculs ci-dessous partent du principe qu'aucune offre gratuite d'AWS n'est en place.

Stockage utilisé :

La tarification de stockage Amazon S3 figure sur la page Tarification Amazon S3.

Le volume de stockage facturé en un mois est basé sur le stockage moyen utilisé pendant le mois. Ceci inclut toutes les données et métadonnées d'objet stockées dans des compartiments que vous avez créés dans votre compte AWS. Nous mesurons votre utilisation en « TimedStorage-ByteHrs », qui sont additionnées à la fin du mois pour générer vos factures mensuelles.

Exemple de stockage :

Supposons que vous stockiez 100 Go (107 374 182 400 octets) de données dans Amazon S3 Standard dans votre compartiment pendant 15 jours en mars, et 100 To (109 951 162 777 600 octets) de données dans Amazon S3 Standard pendant les 16 derniers jours de mars.

À la fin du mois de mars, vous obtiendrez l'utilisation suivante en octet-heures : utilisation octet-heure totale = [107 374 182 400 octets x 15 jours x (24 heures/jour)] + [109 951 162 777 600 octets x 16 jours x (24 heures/jour)] = 42 259 901 212 262 400 octet-heures. Veuillez calculer les heures sur la base du nombre réel de jours dans un mois donné. Dans notre exemple, nous utilisons le mois de mars qui compte 31 jours, soit 744 heures.

Convertissons ce résultat en Go/mois : 42 259 901 212 262 400 octet-heures / 1 073 741 824 octets par Go / 744 heures par mois = 52 900 Go/mois

Ce volume d'utilisation traverse deux niveaux de volume différents. En supposant que les données sont stockées dans la Région USA Est (Virginie du Nord), le coût de stockage mensuel est calculé comme suit : niveau 50 To : 51 200 Go x 0,023 USD = 1 177,60 USD ; niveau de 50 à 450 To : 1 700 Go x 0,022 USD = 37,40 USD

Total des coûts de stockage = 1 177,60 USD + 37,40 USD = 1 215,00 USD

Données réseau en transfert entrant :

La tarification des transferts entrants de données Amazon S3 figurent sur la page Tarification Amazon S3. Ceci représente la quantité de données envoyées vers vos compartiments Amazon S3. 

Données réseau en transfert sortant :

La tarification des transferts sortants de données Amazon S3 figurent sur la page Tarification Amazon S3. Pour Amazon S3, ces frais s'appliquent dès lors que les données figurant dans l'un de vos compartiments sont lues à partir d'un emplacement situé hors de la région Amazon S3 donnée.

Les niveaux de tarification des transferts sortants prennent en compte votre utilisation totale des transferts sortants depuis une région donnée vers Internet, pour Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS et Amazon VPC. Ces niveaux ne s'appliquent pas aux transferts de données Amazon S3 d'une région AWS et à destination d'une autre région AWS.

Exemple de transfert de données sortantes :
Supposons que vous transfériez 1 To de données hors d'Amazon S3, depuis la région USA Est (Virginie du Nord) vers Internet, et ce, tous les jours au cours d'un mois de 31 jours. Supposons que vous transfériez aussi 1 To de données hors d'une instance Amazon EC2, depuis cette même région vers Internet, et ce, au cours du même mois de 31 jours.

Votre transfert de données regroupé serait de 62 To (31 To depuis Amazon S3 et 31 To depuis Amazon EC2). Ceci équivaut à 63 488 Go (62 To x 1024 Go/To).

Ce volume d'utilisation traverse trois niveaux de volume différents. En supposant que le transfert de données est réalisé dans la Région USA Est (Virginie du Nord), les frais mensuels de transfert sortant de données sont calculés comme suit :
Niveau 10 To : 10 239 Go (10 × 1 024 Go/To – 1 (gratuit)) x 0,09 USD = 921,51 USD
De 10 To à 50 To : 40 960 Go (40 × 1 024) x 0,085 USD = 3 481,60 USD
Niveau de 50 To à 150 To : 12 288 Go (reste) x 0,070 USD = 860,16 USD

Total des frais de transfert sortant de données = 921,51 USD + 3 481,60 USD + 860,16 USD = 5 263,27 USD

Requêtes de données :

La tarification des requêtes Amazon S3 figure dans la grille tarifaire d'Amazon S3.

Exemple de demande :
Supposons que vous transfériez 10 000 fichiers vers Amazon S3 et transfériez 20 000 fichiers hors d'Amazon S3 tous les jours pendant le mois de mars. Ensuite, vous supprimez 5 000 fichiers le 31 mars.
Total de demandes PUT = 10 000 demandes x 31 jours = 310 000 demandes
Total de demandes GET = 20 000 demandes x 31 jours = 620 000 demandes
Total de requêtes DELETE = 5 000 x 1 jour = 5 000 requêtes

En supposant que votre compartiment se trouve dans la Région USA Est (Virginie du Nord), les frais de requêtes sont calculés comme suit :
310 000 requêtes PUT : 310 000 requêtes x 0,005 USD / 1 000 = 1,55 USD
620 000 demandes GET : 620 000 demandes x 0,004 USD /10 000 = 0,25 USD
5 000 demandes DELETE = 5 000 demandes x 0,00 USD (gratuit) = 0,00 USD

Extraction de données :

La tarification Amazon S3 pour l'extraction de données s'applique pour les classes de stockage S3 Standard-Infrequent Access (S3 Standard-IA) et S3 unizone – Accès peu fréquent, et figure sur la page Tarification Amazon S3.

Exemple d'extraction de données :
En assumant que vous extrayez 300 Go en un mois de S3 Standard – Accès peu fréquent, avec 100 Go sortant vers Internet, 100 Go sortant vers EC2 dans la même Région AWS, et 100 Go allant vers CloudFront dans la même Région AWS ;

les frais d'extraction de données pour le mois seront calculés de la manière suivante : 300 Go x 0,01/Go = 3,00 USD. Notez que vous devez également régler les frais de transfert de données de réseau pour la partie qui a été transférée vers Internet.

Veuillez consulter cette section pour en savoir plus sur la facturation des objets archivés dans Amazon S3 Glacier.

* * Votre utilisation de l'offre gratuite est calculée chaque mois dans toutes les régions excepté la région AWS GovCloud et appliquée automatiquement à votre facture – l'utilisation mensuelle non utilisée ne sera pas reportée. Certaines restrictions s'appliquent : consultez les conditions de l'offre pour plus de détails.

Question : Pourquoi les prix varient-ils selon la région I Amazon S3 que je choisis ?

Lorsque nos coûts sont moindres, nous facturons moins. Par exemple, nos coûts sont plus bas dans la région USA Est (Virginie du Nord) que dans la région USA Ouest (Californie du Nord).

Question : Comment mon utilisation de la gestion des versions m'est-elle facturée ?

Les tarifs Amazon S3 standard sont appliqués à chaque version d'un objet stocké ou demandé. Par exemple, examinons le scénario suivant pour illustrer les coûts de stockage lors de l'utilisation du contrôle de version (supposons que le mois en cours fasse 31 jours) :

1) Jour 1 du mois : vous effectuez un PUT de 4 Go (4 294 967 296 octets) sur votre compartiment.
2) Jour 16 du mois : vous effectuez une opération PUT de 5 Go (5 368 709 120 octets) dans le même compartiment en utilisant la même clé que l'opération PUT d'origine du Jour 1.

Lorsque les coûts de stockage des opérations ci-dessus sont analysés, notez que l'objet de 4 Go du Jour 1 n'est pas supprimé du compartiment lorsque l'objet de 5 Go est écrit le Jour 15. À la place, l'objet de 4 Go est préservé en tant qu'ancienne version et l'objet de 5 Go devient la version la plus récemment écrite de l'objet au sein de votre compartiment. A la fin du mois :

Utilisation totale (en octet-heure)
[4 294 967 296 octets x 31 jours x (24 heures / jour)] + [5 368 709 120 octets x 16 jours x (24 heures / jour)] = 5 257 039 970 304 octet-heures.

Conversion en Go total-mois
5 257 039 970 304 octets/heure x (1 Go / 1 073 741 824 octets) x (1 mois / 744 heures) = 6 581 Go/mois

Le coût est calculé sur la base des tarifs en vigueur pour votre région indiqués sur la page de tarification Amazon S3.

Q : comment suis-je facturé en ce qui concerne l'accès à Amazon S3 via la Console de gestion AWS ?

Les prix Amazon S3 normaux sont appliqués lorsque vous accédez au service via la console de gestion AWS. Pour une expérience optimisée, la console de gestion AWS peut exécuter les demandes de manière proactive. En outre, certaines opérations interactives génèrent plusieurs demandes vers le service.

Question : Dans le cas où un autre compte AWS accède à mes compartiments Amazon S3, comment suis-je facturé ?

L'accès à votre stockage via un autre compte AWS est facturé en fonction de la tarification normale d'Amazon S3. Vous pouvez également choisir de configurer votre compartiment avec un paiement par le demandeur. Dans ce cas, le demandeur assume le coût des demandes et des téléchargements pour vos données Amazon S3.

Pour en savoir plus sur la configuration de compartiments avec paiement par le demandeur, consultez la documentation d'Amazon S3.

Question : Vos prix s'entendent-ils tous toutes taxes comprises ?

Sauf indication contraire, nos prix n'incluent pas les taxes et redevances applicables, y compris la TVA et les taxes sur les ventes applicables. Pour les clients dont l'adresse de facturation est située au Japon, l'utilisation de services AWS est soumise à la taxe sur la consommation applicable dans ce pays.

En savoir plus sur les taxes sur les services AWS »

Amazon S3 et IPv6

Q : Que signifie IPv6 ?

Chaque serveur ou appareil connecté à Internet doit posséder une adresse unique. Internet Protocol version 4 (IPv4) est le nom du schéma d'adressage 32 bits d'origine. Cependant, la croissance ininterrompue de l'Internet signifie que toutes les adresses IPv4 disponibles finiront par être utilisées. Internet Protocol version 6 (IPv6) est un mécanisme d'adressage. Il vise à surmonter les limitations des adresses globales sur IPv4.

Q : Que puis-je faire avec IPv6 ?

Grâce à la prise en charge d'IPv6 pour Amazon S3, les applications peuvent se connecter à Amazon S3 sans passer par un logiciel ou système de traduction d'IPv6 vers IPv4. Vous pouvez répondre aux exigences de conformité et réaliser plus facilement l'intégration d'applications sur site basées sur IPv6 sans avoir à acheter des équipements réseau onéreux pour gérer la traduction des adresses. De plus, vous pouvez désormais utiliser les fonctionnalités actuelles de filtrage des adresses d'origine dans les stratégies IAM et les stratégies de compartiment avec les adresses IPv6. Vous disposez ainsi de nouvelles options pour protéger les applications interagissant avec Amazon S3.

Question : Comment commencer à utiliser IPv6 sur Amazon S3 ?

Pour commencer, pointez votre application sur le nouveau point de terminaison « dual-stack » (double pile) d'Amazon S3, qui prend en charge les accès par IPv4 et IPv6. Dans la plupart des cas, aucune configuration ultérieure n'est requise pour un accès par IPv6, car la plupart des clients réseau privilégient les adresses IPv6 par défaut. Si une application est affectée par l'utilisation d'IPv6, il est possible de revenir à tout moment aux points de terminaison standard compatibles IPv4 uniquement. IPv6 avec Amazon S3 est pris en charge dans toutes les régions AWS publiques, y compris dans les régions AWS GovCloud (US), dans la région AWS Chine (Beijing), opérée par Sinnet, et la région Amazon Web Services Chine (Ningxia), opérée par NWCD. 

Question : Les performances d'Amazon S3 seront-elles différentes avec IPv6 ? 

Non. Vous obtiendrez les mêmes performances avec Amazon S3, que vous utilisiez IPv4 ou IPv6.

Notification d'événements

Question : Que sont les notifications d'événements Amazon S3 ?

Les notifications d'événements Amazon S3 peuvent être envoyées en réponse aux actions réalisées dans Amazon S3, telles que les demandes PUT, POST, COPY ou DELETE. Les messages de notification peuvent être transmis via Amazon SNS, Amazon SQS ou directement dans AWS Lambda.

Question : Que puis-je faire des notifications d'événements Amazon S3 ?

Les notifications d'événements S3 vous permettent d'exécuter des flux de travail, d'envoyer des alertes ou de réaliser d'autres actions en réponse aux modifications apportées à vos objets stockés dans Amazon S3. Vous pouvez utiliser les notifications d'événements S3 pour configurer des déclencheurs en vue de réaliser des actions telles que le transcodage de fichiers multimédias lorsqu'ils sont chargés, le traitement des fichiers de données lorsqu'ils sont disponibles, et la synchronisation des objets S3 avec d'autres magasins de données. Vous pouvez également configurer des notifications d'événements en fonction des préfixes et suffixes de noms d'objet. Par exemple, vous pouvez choisir de recevoir des notifications pour les noms d'objet commençant par « images/ ».

Question : Que comprend une notification d'événements Amazon S3 ?

Pour obtenir une description détaillée des informations comprises dans les messages de notification d'événements Amazon S3, reportez-vous à la rubrique Configuring Amazon S3 event notifications du Guide du développeur Amazon S3.

Question : Comment configurer les notifications d'événements Amazon S3 ?

Pour obtenir une description détaillée de la procédure à suivre pour configurer les notifications d'événements, reportez-vous à la rubrique Configuring Amazon S3 event notifications (Configuration des notifications d'événement Amazon S3) du manuel Amazon S3 Developer Guide. Pour en savoir plus sur les services de messagerie AWS, consultez la documentation Amazon SNS et la documentation Amazon SQS.

Question : Combien coûte l'utilisation des notifications d'événements Amazon S3 ?

Les notifications d'événements depuis Amazon S3 n'entraînent pas de frais supplémentaires. Vous payez uniquement l'utilisation d'Amazon SNS ou d'Amazon SQS pour transmettre les notifications d'événements ou les frais d'exécution de la fonction AWS Lambda. Consultez les pages de tarification Amazon SNS, Amazon SQS ou AWS Lambda pour connaître les tarifs de ces services.

Amazon S3 Transfer Acceleration

Question : Qu'est-ce que Transfer Acceleration S3 ?

Amazon S3 Transfer Acceleration permet un transfert rapide, facile et sécurisé de fichiers sur de longues distances entre votre client et votre compartiment Amazon S3. S3 Transfer Acceleration utilise les emplacements périphériques AWS d'Amazon CloudFront, distribués au niveau mondial. Lorsque les données arrivent dans un emplacement périphérique AWS Edge Location, les données sont transférées vers votre compartiment Amazon S3 sur un chemin de réseau optimisé.

Question : Comment démarrer avec S3 Transfer Acceleration ?

Pour démarrer avec S3 Transfer Acceleration, activez S3 Transfer Acceleration sur un compartiment S3 en utilisant la console Amazon S3, les API Amazon S3 ou l'interface de ligne de commande AWS. Une fois S3 Transfer Acceleration activé, vous pouvez orienter vos demandes Amazon S3 PUT et GET vers le nom de domaine du point de terminaison s3-accelerate. Votre application de transfert de données doit utiliser l'un des deux types de points de terminaison suivants pour accéder au compartiment et accélérer le transfert de données : .s3-accelerate.amazonaws.com ou <.s3-accelerate.dualstack.amazonaws.com pour le point de terminaison « dual-stack ». Si vous souhaitez utiliser un transfert de données type, vous pouvez continuer à utiliser les points de terminaison habituels.

Il existe des restrictions quant aux compartiments pouvant prendre en charge S3 Transfer Acceleration. Pour plus de détails, veuillez vous reporter au Guide du développeur Amazon S3.

Q : Quelle est la vitesse de S3 Transfer Acceleration ?

S3 Transfer Acceleration vous permet d'utiliser pleinement votre bande passante, de réduire l'effet de la distance sur le débit et il a été conçu pour assurer un transfert de données rapide et constant vers Amazon S3, où que se trouve votre client. L'accélération dépend en premier lieu de la bande passante disponible, de la distance entre la source et la destination et des taux de perte de paquets sur le chemin réseau. En règle générale, vous constaterez davantage d'accélération si la source se trouve à une plus grande distance de la destination, s'il ne reste plus de bande passante disponible et/ou si la taille de l'objet est plus importante.

Un client a mesuré une réduction de 50 % du temps d'ingestion de fichiers de 300 Mo envoyés depuis une base d'utilisateurs internationale s'étendant que les territoires des États-Unis, d'Europe et de certaines zones d'Asie vers un compartiment dans la région Asie-Pacifique (Sydney). Un autre client a remarqué que dans certains cas la performance a dépassé 500 % pour les utilisateurs d'Asie du Sud-est et d'Australie, chargeant des fichiers de 250 Mo (en parties de 50 Mo) vers un compartiment S3 dans USA Est (Virginie du Nord)

Essayez l'outil de comparaison de la vitesse pour obtenir un aperçu du bénéfice de performance depuis votre localisation !

Question : Qui doit utiliser S3 Transfer Acceleration ?

S3 Transfer Acceleration a été conçu pour optimiser la vitesse de transfert de données envoyées dans le monde entier vers des compartiments S3. Si vous chargez des données depuis différentes zones géographiques vers un compartiment centralisé, ou si vous transférez régulièrement des Go ou To de données à travers les continents, vous pouvez économiser des heures, voire des journées de temps de transfert de données avec S3 Transfer Acceleration.

Question : Quel est le niveau de sécurité de S3 Transfer Acceleration ?

S3 Transfer Acceleration est tout aussi sécurisé que les transferts habituels vers Amazon S3. Toutes les fonctions de sécurité de Amazon S3, comme et notamment la restriction de l'accès en fonction de l'adresse IP d'un client, sont également prises en charge. S3 Transfer Acceleration communique avec les clients sur un TCP standard et ne demande pas de modification du pare-feu. Aucune donnée n'est enregistrée sur AWS Edge Locations.

Question : Et si S3 Transfer Acceleration n'est pas plus rapide qu'un transfert Amazon S3 normal ?

À chaque fois que vous utilisez S3 Transfer Acceleration pour charger un objet, nous vérifions si S3 Transfer Acceleration peut être plus rapide qu'un transfert Amazon S3 ordinaire. Si nous estimons que S3 Transfer Acceleration ne sera pas plus rapide que le transfert Amazon S3 ordinaire du même objet vers la même région de destination AWS, nous ne vous facturerons pas l'utilisation de S3 Transfer Acceleration pour ce transfert et contournerons le système S3 Transfer Acceleration pour ce chargement.

Question : Puis-je utiliser S3 Transfer Acceleration pour des chargements partitionnés ?

Oui, S3 Transfer Acceleration prend en charge toutes les fonctions des compartiments, notamment le chargement partitionné.

Question : Comment choisir entre S3 Transfer Acceleration et les demandes PUT/POST d'Amazon CloudFront ?

S3 Transfer Acceleration optimise le protocole TCP et ajoute davantage d'intelligence entre le client et le compartiment S3, ce qui fait de S3 Transfer Acceleration le choix judicieux si un débit plus élevé est nécessaire. Si vous avez des objets ou des données dont la taille est inférieure à 1 Go, pensez à utiliser les commandes PUT/POST de Amazon CloudFront pour une performance optimale.

Question : Comment choisir entre S3 Transfer Acceleration et la famille AWS Snow (Snowball, Snowball Edge et Snowmobile) ?

La famille AWS Snow est idéale pour les clients déplaçant de gros volumes de données en une seule fois. Le AWS Snowball se voit définir un délai type de 5 à 7 jours. En règle générale, S3 Transfer Acceleration sur une ligne de 1 Go/s pleinement utilisée à pleine capacité peut transférer jusqu'à 75 To en même temps. Généralement, si un transfert par le biais d'Internet prend plus d'une semaine d'effectuer, ou bien s'il existe plusieurs tâches de transfert et plus de 25 Mo/s de bande passante disponible, S3 Transfer Acceleration est une bonne option. Une autre solution consiste à utiliser les deux : effectuez les manipulations initiales les plus lourdes avec un AWS Snowball (ou une série d'AWS Snowballs) puis transférez les changements en cours en utilisant S3 Transfer Acceleration.

Question : S3 Transfer Acceleration peut-il compléter AWS Direct Connect ?

AWS Direct Connect est un bon choix pour les clients ayant besoin d'une mise en réseau privée ou ayant accès aux échanges AWS Direct Connect. S3 Transfer Acceleration convient mieux au transfert de données depuis différents sites clients par le biais de l'Internet public, ou lorsque les conditions de réseau variables affaiblissent le débit. Certains clients de AWS Direct Connect utilisent S3 Transfer Acceleration pour les transferts vers les bureaux à distance, et ils peuvent pâtir d'une mauvaise performance d'Internet.

Question : S3 Transfer Acceleration peut-il compléter AWS Storage Gateway ou une passerelle externe ?

Si vous pouvez configurer la destination du compartiment dans votre passerelle tierce de manière à utiliser un nom de domaine de point de terminaison S3 Transfer Acceleration, vous en verrez les avantages.

Pour en savoir plus sur l'implémentation AWS, visitez cette section Fichier de la FAQ sur Storage Gateway.

Question : S3 Transfer Acceleration peut-il compléter un logiciel intégré externe ?

Oui. Les packages logiciels qui se connectent directement à Amazon S3 peuvent tirer profit de S3 Transfer Acceleration lorsqu'ils envoient leurs tâches vers Amazon S3.

En savoir plus sur les solutions des partenaires disposant de la compétence Stockage »

Q : S3 Transfer Acceleration est-il éligible HIPAA ?

Oui, AWS a étendu son programme de conformité HIPAA et comprend désormais Amazon S3 Transfer Acceleration comme service éligible HIPAA. Si vous disposez d'un accord de partenariat (BAA) exécuté avec AWS, vous pouvez utiliser Amazon S3 Transfer Acceleration pour activer des transferts de fichiers rapides, simples et sécurisés, y compris des informations de santé protégées (PHI), sur de longues distances entre votre client et votre compartiment Amazon S3.

En savoir plus sur la conformité HIPAA »

Sécurité

Question : Quelle est le degré de sécurité de mes données dans Amazon S3 ?    

Amazon S3 est sécurisé par défaut. Lorsque des ressources Amazon S3 sont créées, seuls les propriétaires de ces ressources y ont accès. Amazon S3 prend en charge l'authentification d'utilisateur pour contrôler l'accès aux données. Vous pouvez utiliser les mécanismes de contrôle tels que les stratégies de compartiment et listes de contrôle d'accès (ACL) pour accorder sélectivement des permissions aux utilisateurs et groupes d'utilisateurs. La console Amazon S3 met en évidence vos compartiments accessibles au public, indique la source d'accès publique et vous avertit également si des modifications apportées à vos stratégies ou listes ACL de compartiment rendent votre compartiment accessible au public. Vous pouvez activer Block Public Access pour tous les comptes et compartiments que vous ne souhaitez pas rendre accessibles publiquement. 

Vous pouvez charger/télécharger vos données en toute sécurité sur ou depuis Amazon S3 par le biais des points de terminaison SSL utilisant le protocole HTTPS. Si vous avez besoin d'une sécurité supplémentaire, vous pouvez utiliser l'option Server Side Encryption (SSE) pour chiffrer les données au repos. Vous pouvez configurer vos compartiments Amazon S3 de manière à chiffrer automatiquement les objets avant de les stocker si les demandes de stockage entrantes ne contiennent pas d'informations de chiffrement. Vous pouvez également utiliser vos propres bibliothèques de chiffrement pour chiffrer des données avant de les stocker dans Amazon S3.

Pour obtenir plus d'informations sur AWS, veuillez vous reporter à la page de sécurité AWS et pour les informations sur la sécurité de S3, visitez la page de sécurité de S3 ou le guide des meilleures pratiques de sécurité de S3.

Question : Comment puis-je contrôler l'accès à mes données stockées sur Amazon S3 ?

Les clients peuvent utiliser quatre mécanismes pour contrôler l'accès aux ressources Amazon S3 : Stratégies Identity and Access Management (IAM), stratégies de compartiments, Access Control Lists (ACL) et authentification par recherche de chaîne (Query String Authentication). IAM permet aux organisations comptant plusieurs employés de créer et gérer des utilisateurs multiples sous un seul compte AWS. Grâce aux politiques IAM, les clients peuvent accorder aux utilisateurs IAM un niveau précis de contrôle sur leur compartiment Amazon S3 ou sur les objets, tout en gardant un contrôle total sur tout ce que font les utilisateurs. Avec les stratégies relatives aux compartiments, les clients peuvent définir les règles largement appliquées sur leurs demandes auprès de leurs ressources Amazon S3, comme accorder des privilèges d'écriture à un sous-ensemble de ressources Amazon S3. Les clients peuvent également restreindre l'accès sur la base d'un aspect de la demande, comme le référent HTTP et l'adresse IP. Avec les ACL, les clients peuvent accorder des permissions spécifiques (c.-à-d. READ, WRITE, FULL_CONTROL) à des utilisateurs spécifiques pour un compartiment ou un objet individuel. Avec l'authentification par chaîne d'interrogation, les clients peuvent créer une URL vers un objet Amazon S3 uniquement valide pendant une période limitée. Pour plus d'informations sur les diverses stratégies de contrôle d'accès disponibles dans Amazon S3, veuillez vous référer à la rubrique Contrôle d'accès dans le Guide du développeur Amazon S3.

Question : Amazon S3 prend-il en charge l'audit des accès aux données ?

Oui, les clients peuvent configurer les compartiments Amazon S3 pour créer des enregistrements de journal d'accès pour toutes les demandes qui leur sont adressées. Les clients qui ont besoin de récupérer les informations IAM/d'identité utilisateur dans leurs fichiers journaux peuvent configurer les événements de données AWS CloudTrail.

Ces registres de journal d'accès peuvent être utilisés à des fins d'audit et contiennent des détails relatifs à la requête, tels que son type, les ressources qui y sont spécifiées, ainsi que l'heure et la date auxquelles elle a été traitée.

Q : De quelles options est-ce que je dispose pour chiffrer mes données stockées sur Amazon S3 ?

Vous pouvez choisir de chiffrer vos données à l'aide de SSE-S3, SSE-C, SSE-KMS, ou d'une bibliothèque client telle qu'Amazon S3 Encryption Client. Ces quatre solutions vous permettent de stocker des données sensibles chiffrées au repos sur Amazon S3.

SSE-S3 vous fournit une solution intégrée dans laquelle Amazon prend en charge la gestion et la protection de vos clés en utilisant plusieurs couches de sécurité. Vous devriez choisir SSE-S3 si vous préférez que ce soit Amazon qui gère vos clés.

SSE-C vous permet d'exploiter les fonctionnalités d'Amazon S3 pour réaliser le cryptage et le décryptage de vos objets tout en gardant le contrôle des clés utilisées pour crypter vos objets. Grâce à SSE-C, vous n'avez pas à mettre en place ou à utiliser une bibliothèque de cryptage cliente pour réaliser le cryptage et le décryptage de vos objets stockés dans Amazon S3, mais vous devez gérer les clés que vous avez transmises à Amazon S3 pour crypter et décrypter les objets. Utilisez SSE-C si vous souhaitez gérer vos propres clés de chiffrement, mais ne souhaitez pas mettre en place ou utiliser une bibliothèque de cryptage cliente.

SSE-KMS vous permet d'utiliser AWS Key Management Service (AWS KMS) pour gérer vos clés de chiffrement. Utiliser AWS KMS pour la gestion de vos clés présente plusieurs avantages supplémentaires. Avec AWS KMS, il existe plusieurs autorisations distinctes pour l'utilisation de la clé KMS, fournissant ainsi un niveau de contrôle supplémentaire et une protection contre les accès non autorisés à vos objets stockés dans Amazon S3. AWS KMS fournit un journal d'activité d'audit de sorte que vous puissiez voir qui a utilisé votre clé pour accéder à tel objet à tel moment, et consulter les tentatives d'accès non autorisées aux données des utilisateurs en vue de les déchiffrer. AWS KMS offre également des contrôles de sécurité supplémentaires afin de soutenir les efforts des clients pour se conformer aux exigences du secteur PCI-DSS, HIPAA/HITECH et FedRAMP.

En utilisant une bibliothèque client de chiffrement telle qu'Amazon S3 Encryption Client, vous gardez le contrôle des clés et procédez au chiffrement et déchiffrement des objets côté client à l'aide de la bibliothèque de chiffrement de votre choix. Certains clients préfèrent garder le contrôle total du cryptage et du décryptage de leurs objets. De cette manière, seuls les objets cryptés sont transférés via Internet vers Amazon S3. Utilisez une bibliothèque de cryptage cliente si vous souhaitez garder le contrôle de vos clés de cryptage, si vous êtes capable de mettre en place et d'utiliser une bibliothèque de cryptage cliente, et que vous avez besoin de crypter vos objets avant qu'ils ne soient transférés vers Amazon S3 pour être stockés.

Pour plus d'informations sur l'utilisation de SSE-S3, SSE-C ou SSE-KMS d'Amazon S3, veuillez consulter la rubrique Utiliser le chiffrement du Guide du développeur Amazon S3.

Question : Puis-je respecter les règles de confidentialité des données de l'EU si j'utilise Amazon S3 ?

Les clients peuvent choisir de stocker toutes leurs données dans la région EU en optant pour la région EU (Francfort), EU (Irlande), EU (Londres) ou EU (Paris). Vous pouvez également utiliser S3 sur Outposts afin de conserver toutes vos données sur site dans l'Outpost. Vous pouvez transférer les données entre les Outposts ou vers une région AWS. Toutefois, vous êtes tenu de respecter les lois européennes relatives au respect de la vie privée. Veuillez consulter le Centre RGPD AWS pour plus d'informations. Si vous avez des exigences de localisation plus spécifiques, ou que d'autres réglementations des données à caractère personnel exigent que vous conserviez les données à un emplacement ne comportant pas de région AWS, vous pouvez utiliser S3 sur Outposts.

Question : Qu'est-ce qu'un point de terminaison Amazon VPC pour Amazon S3 ?

Un point de terminaison Amazon VPC pour Amazon S3 est une entité logique dans un VPC qui autorise la connectivité à S3 via le réseau mondial Amazon. Il existe deux types de point de terminaison d'un VPC pour S3 : les points de terminaison VPC de passerelle et les points de terminaison VPC d'interface. Les points de terminaison de passerelle sont une passerelle que vous spécifiez dans votre table de routage pour accéder à S3 depuis votre VPC via le réseau Amazon. Les points de terminaison d'interface étendent la fonctionnalité des points de terminaison de passerelle en utilisant des IP privées pour acheminer les demandes vers S3 depuis votre VPC, sur site ou depuis une autre région AWS. Pour plus d'informations, reportez-vous à la documentation.

Question : Puis-je autoriser un point de terminaison Amazon VPC spécifique à accéder à mon compartiment Amazon S3 ?

Vous pouvez limiter l'accès à votre compartiment depuis un point de terminaison Amazon VPC spécifique ou un ensemble des points de terminaison à l'aide des stratégies de compartiment Amazon S3. Les stratégies de compartiment S3 prennent désormais en charge une condition, aws:sourceVpce, que vous pouvez utiliser pour restreindre l'accès. Pour obtenir des informations supplémentaires et des exemples de stratégie, consultez l'article Utilisation des points de terminaison d'un VPC .

Question : Qu'est-ce qu'AWS PrivateLink for Amazon S3 ?

AWS PrivateLink for S3 offre une connectivité privée entre Amazon S3 et les instances sur site. Vous pouvez provisionner des points de terminaison d'un VPC d'interface pour S3 dans votre VPC, afin de connecter vos applications sur site directement à S3, via AWS Direct Connect ou AWS VPN. Plus besoin d'utiliser des IP publiques, de modifier les règles de pare-feu ou de configurer une passerelle Internet pour accéder à S3 depuis un environnement sur site. Pour en savoir plus, consultez la documentation.

Question : Comment commencer à utiliser les points de terminaison d'un VPC d'interface pour S3 ?

Vous pouvez créer un point de terminaison d'un VPC d'interface à l'aide de l'AWS VPC Management Console, la CLI AWS, le kit SDK AWS ou l'API. Pour en savoir plus, consultez la documentation.

Question : Quand devrais-je choisir des points de terminaison d'un VPC de passerelle plutôt que des points de terminaison d'un VPC d'interface basés sur AWS PrivateLink ?

Nous vous recommandons d'utiliser des points de terminaison d'un VPC d'interface pour accéder à S3 depuis les environnements sur site ou un VPC dans une autre région AWS. Pour les ressources accédant à S3 depuis un VPC dans la même région AWS que S3, nous recommandons l'utilisation des points de terminaison d'un VPC de passerelle car ils ne sont pas facturés. Pour en savoir plus, consultez la documentation.

Question : Puis-je utiliser à la fois les points de terminaison d'interface et de passerelle pour S3 dans le même VPC ?

Oui. Si vous disposez d'un point de terminaison d'un VPC de passerelle existant, créez un point de terminaison VPC d'interface et mettez à jour vos applications clients avec les noms de point de terminaison spécifiques aux endpoints VPC. Par exemple, si votre identifiant de point de terminaison d'un VPC du endpoint d'interface est vpce-0fe5b17a0707d6abc-29p5708s dans la région us-east-1, alors, votre nom DNS spécifique au endpoint sera vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com. Dans ce cas, seules les demandes aux noms spécifiques de point de terminaison VPC seront acheminées via les points de terminaison d'un VPC vers S3, tandis que les autres demandes continueront d'être acheminées via le point de terminaison VPC de passerelle. Pour en savoir plus, consultez la documentation.

Question : Qu'est-ce qu'Amazon Macie et comment l'utiliser pour sécuriser mes données ?

Amazon Macie est un service de sécurité basé sur l'IA qui vous aide à éviter toute perte de données en identifiant, répertoriant et protégeant automatiquement les données sensibles dans Amazon S3. Amazon Macie utilise Machine Learning pour reconnaître les données sensibles comme les données personnelles (personally identifiable information, PII) ou la propriété intellectuelle. Le service attribue une valeur commerciale à ces données et fournit une visibilité sur leur emplacement de stockage et la façon dont elles sont exploitées dans votre organisation. Amazon Macie contrôle en permanence l'activité liée à l'accès aux données et génère des alertes lorsqu'il détecte un risque d'accès non autorisé ou des fuites accidentelle de données.

Grâce à Amazon Macie, vous pouvez vous protéger contre les menaces de sécurité par le biais d'une surveillance continue de vos données et de vos informations d'identification de compte. Amazon Macie est un outil automatisé requérant peu d'interventions et permettant de rechercher et classer vos données commerciales. Ce service vous permet de contrôler la révocation d'accès ou le déclenchement de stratégies de réinitialisation de mot de passe en cas de détection de comportement suspect ou d'accès non autorisé aux données par des entités ou des applications tierces par l'intermédiaire de fonctions Lambda modélisées. Lorsqu'une alerte est générée, vous pouvez utiliser Amazon Macie pour répondre à l'incident et Amazon CloudWatch Events pour prendre rapidement les mesures nécessaires à la protection de vos données. Pour en savoir plus, consultez le guide de l'utilisateur Amazon Macie.

Question : Qu'est-ce qu'Access Analyzer for S3 et comment fonctionne-t-il ?

Access Analyzer for S3 est une fonctionnalité qui surveille vos stratégies d'accès, garantissant que celles-ci fournissent uniquement les accès prévus à vos ressources S3. Access Analyzer for S3 évalue les stratégies d'accès de votre compartiment et permet d'identifier et de corriger rapidement ceux qui offrent un accès potentiellement non désiré.

Access Analyzer for S3 vous prévient si l’un de vos compartiments est configuré de manière à autoriser l'accès à n’importe quel utilisateur sur Internet, ou s'il est partagé avec d'autres comptes AWS. Vous recevez des analyses, ou « découvertes », portant sur la source et le niveau des accès public ou partagé. Par exemple, Access Analyzer for S3 vous informe directement si des accès en lecture ou en écriture ont été accordés par accident dans le cadre d'une liste de contrôle d'accès (ACL) ou d'une stratégie de compartiment. Grâce à ces analyses, vous pouvez définir ou restaurer immédiatement la stratégie d'accès prévue.

Lorsque vous recevez des résultats montrant des accès potentiellement partagés à un compartiment, vous pouvez bloquer tous les accès publics au compartiment en un seul clic dans la console de gestion S3. Vous pouvez également aller plus loin en configurant des niveaux d'accès granulaires dans les paramètres des niveaux de permission des compartiments. À des fins d'audit, les « découvertes » d'Access Analyzer for S3 peuvent être téléchargées sous forme de rapport CSV. Pour obtenir plus d'informations, consultez IAM Access Analyzer.

Points d'accès S3

Question : Qu'est-ce que les points d'accès Amazon S3 ?

Aujourd'hui, les clients gèrent l'accès à leurs compartiments S3 en utilisant une stratégie de compartiment unique qui contrôle l'accès pour des centaines d'applications aux niveaux d'autorisation différents.

Les points d'accès Amazon S3 simplifient la gestion de l'accès aux données à grande échelle pour les applications utilisant des ensembles de données partagés sur S3. Avec les points d'accès S3, vous pouvez désormais facilement créer des centaines de points d'accès par compartiment et bénéficier ainsi d'une nouvelle manière de fournir un accès à des ensembles de données partagées. Les points d'accès offrent un chemin personnalisé vers un compartiment, avec un nom d'utilisateur unique et une stratégie d'accès qui met en œuvre les autorisations et les contrôles réseau spécifiques pour toute requête effectuée via le point d'accès. Pour en savoir plus, consultez la page des points d'accès S3 et le guide de l'utilisateur.

Question : Quel est l'intérêt d'utiliser un point d'accès ?

Les points d'accès S3 simplifient la gestion de l'accès aux données pour votre application configurée pour vos ensembles de données partagés sur S3. Vous ne devez plus gérer une stratégie de compartiment unique et complexe avec des centaines de règles d'autorisation différentes qu'il faut écrire, lire, suivre et auditer. Grâce aux points d'accès S3, vous pouvez désormais créer des points d'accès spécifiques à une application et autorisant l'accès aux ensembles de données partagés avec des stratégies adaptées pour cette application spécifique.

En utilisant des points d'accès, vous pouvez décomposer la stratégie générale d'un compartiment en plusieurs stratégies de point d'accès séparées pour chaque application qui doit accéder à l'ensemble de données partagé. Cela permet de se concentrer sur la définition de la stratégie d'accès correcte pour une application, sans devoir se préoccuper du risque de perturber ce qu'une autre application fait dans l'ensemble de données partagé. Vous pouvez aussi créer une stratégie de contrôle de service (SCP) et exiger que tous les points d'accès soient limités à un VPC (Virtual Private Cloud), créant ainsi un pare-feu pour vos données au sein de vos réseaux privés. 

Question : Comment fonctionnent les points d'accès S3 ?

Chaque point d'accès S3 est configuré avec une stratégie d'accès spécifique à un cas d'utilisation ou à une application, et un compartiment peut disposer de centaines de points d'accès. Par exemple, pour votre compartiment S3, vous pouvez créer un point d'accès à votre lac de données à partir de groupes d'utilisateurs ou d'applications. Un point d'accès peut être dédié à un seul utilisateur, à une seule application ou à des groupes d'utilisateurs ou d'applications dans les comptes ou entre eux, ce qui permet une gestion séparée de chaque point d'accès. 

Chaque point d'accès est associé à un seul compartiment et contient un contrôle de l'origine réseau et un autre de blocage de l'accès public. Vous pouvez créer un point d'accès avec un contrôle de l'origine réseau qui n'autorise l'accès au stockage que depuis votre cloud privé virtuel, qui est une section isolée de manière logique du cloud AWS. Vous pouvez également créer un point d'accès dont la politique de point d'accès est configurée pour n'autoriser l'accès qu'aux objets ayant des préfixes définis ou aux objets ayant des identifications spécifiques.

Vous pouvez accéder aux données dans les compartiments partagés par le biais d'un point d'accès de l'une des deux manières suivantes. Pour les opérations sur les objets S3, vous pouvez utiliser le point d'accès ARN à la place d'un nom de compartiment. Pour les demandes nécessitant un nom de compartiment au format standard de nom de compartiment S3, vous pouvez utiliser plutôt un alias de point d'accès. Les alias de points d'accès S3 sont automatiquement générés et interchangeables avec les noms de compartiments S3 partout où vous utilisez un nom de compartiment pour l'accès aux données. S3 génère automatiquement un nouvel alias de point d'accès chaque fois que vous créez un point d'accès pour un compartiment. Pour l'ensemble des opérations compatibles et des services AWS, consultez la documentation S3.

Q : Existe-t-il un quota de nombre de points d'accès qu'il est possible de créer ?

Par défaut, vous pouvez créer 1 000 points d'accès par région et par compte. Contrairement aux compartiments S3, il n'y a pas de limite matérielle au nombre de points d'accès par compte AWS. Si cette limite est trop restrictive, rendez-vous sur AWS Service Quotas pour la modifier.

Question : Quand un point d'accès est utilisé, comment les requêtes sont-elles autorisées ?

Les points d'accès S3 ont leur propre stratégie de point d'accès IAM. Les stratégies de point d'accès sont créées de façon similaire aux stratégies de compartiment, en utilisant l'ARN du point d'accès comme ressource. Les stratégies de point d'accès peuvent accorder ou limiter l'accès aux données S3 demandées à travers le point d'accès. Amazon S3 évalue toutes les stratégies pertinentes, y compris celles qui portent sur l'utilisateur, le compartiment, le point d'accès, le point de terminaison de VPC et les politiques de contrôle des services, ainsi que les listes de contrôle d'accès, pour décider d'autoriser ou non la requête.

Question : Comment écrire une stratégie de point d'accès ?

Vous pouvez écrire une stratégie de point d'accès exactement de la même manière qu'une stratégie de compartiment en utilisant des règles IAM pour le contrôle des autorisations et en spécifiant l'ARN du point d'accès dans le document de stratégie.

Question : Quelle est la différence entre le fait de limiter l'accès à des VPC spécifiques à l'aide de contrôles d'origine réseau sur des points d'accès et la limitation de l'accès à des VPC à l'aide de la stratégie de compartiment ?

Vous pouvez continuer d'utiliser des stratégies de compartiment pour limiter l'accès au compartiment aux VPC spécifiés. Les points d'accès constituent une méthode plus simple et auditable pour limiter un sous-ensemble ou la totalité du contenu d'un ensemble de données partagé au trafic par VPC pour toutes les applications dans votre organisation à l'aide de contrôles API. Vous pouvez utiliser une stratégie de contrôle de service (SCP) AWS Organizations pour exiger que tout point d'accès créé au sein de votre organisation utilise la valeur « vpc » pour le paramètre d'API « contrôle d'origine réseau ». Ainsi, les nouveaux points d'accès créés limitent automatiquement l'accès aux données au trafic par VPC. Aucune stratégie d'accès supplémentaire n'est requise pour garantir que les seules demandes de données traitées sont celles qui transitent par les VPC spécifiés.

Question : Puis-je appliquer une stratégie « Aucun accès aux données depuis Internet » pour tous les points d'accès dans mon organisation ?

Oui. Pour appliquer une stratégie « Aucun accès aux données depuis Internet » sur les points d'accès dans votre organisation, il faut veiller à ce que tous les points d'accès n'autorisent que l'accès par VPC. Pour ce faire, il faut créer une SCP AWS acceptant uniquement la valeur « vpc » pour le paramètre « contrôle d'origine réseau » dans l'API create_access_point(). Si des points d'accès accessibles depuis Internet existent déjà, ils peuvent être supprimés. Il faudra également modifier la stratégie de chaque compartiment pour restreindre davantage l'accès direct au compartiment par Internet à travers son nom d'hôte. Étant donné que d'autres services AWS peuvent potentiellement accéder directement à votre compartiment, veillez à bien configurer la stratégie d'accès de façon à autoriser les services AWS désirés. Consultez la documentation S3 pour découvrir comment procéder avec quelques exemples.

Question : Est-il possible de désactiver complètement l'accès direct à un compartiment à travers son nom d'hôte ?

Ce n'est actuellement pas possible, mais vous pouvez associer une politique de compartiment qui rejette les requêtes qui ne proviennent pas d'un point d'accès. Pour plus d'informations, consultez la documentation S3.

Question : Puis-je remplacer ou supprimer un point d'accès d'un compartiment ?

Oui. La suppression d'un point d'accès n'a pas d'impact sur l'accès au compartiment associé à travers d'autres points d'accès et à travers le nom d'hôte du compartiment.

Question : Combien coûtent les points d'accès Amazon S3 ?

Les points d'accès et les compartiments qui utilisent des points d'accès ne font pas l'objet de frais supplémentaires. Les tarifs habituels pour les requêtes Amazon S3 sont appliqués.

Question : Comment démarrer avec les points d'accès S3 ?

Vous pouvez commencer à créer des points d'accès S3 sur des compartiments nouveaux ou existants via la console de gestion AWS, l'interface de ligne de commande (CLI) AWS, l'interface de programmation d'applications (API) et le client kit de développement logiciel (SDK) AWS. Pour en savoir plus sur les points d'accès S3, consultez le guide de l'utilisateur.

Durabilité et protection des données

Question : Quelle est la durabilité d'Amazon S3 ?

Les classes de stockage Amazon S3 standard, S3 standard – Accès peu fréquent, S3 Intelligent-Tiering, S3 unizone – Accès peu fréquent, S3 Glacier et S3 Glacier Deep Archive sont toutes prévues pour fournir une durabilité de 99,999999999 % des objets sur une année donnée. Ce niveau de durabilité correspond à une perte moyenne annuelle prévue de 0,000000001 % des objets. Par exemple, si vous stockez 10 000 000 d'objets avec Amazon S3, vous pouvez vous attendre à perdre en moyenne un objet unique une fois tous les 10 000 ans. S3 sur Outposts est conçu pour stocker les données de manière durable et redondante sur plusieurs périphériques et serveurs dans votre Outpost. De plus, Amazon S3 Standard, S3 standard – Accès peu fréquent, S3 Glacier et S3 Glacier Deep Archive sont tous conçus pour prendre en charge des données en cas de perte d'une zone de disponibilité S3 complète.

Comme dans n'importe quel environnement, la bonne pratique en vigueur est de conserver une sauvegarde et de mettre en place des protections contre les suppressions accidentelles ou malveillantes. Pour les données stockées sur S3, cette bonne pratique inclut la gestion sécurisée des autorisations d'accès, la réplication sur plusieurs régions, la gestion des versions et le maintien de sauvegardes fonctionnelles et testées régulièrement. 

Question : Comment Amazon S3 et Amazon S3 Glacier sont-ils conçus pour atteindre une durabilité de 99,999999999 % ?

Les classes de stockage Amazon S3 Standard, S3 Standard – Accès peu fréquent et S3 Glacier stockent de façon redondante vos objets sur plusieurs appareils, dans un minimum de trois zones de disponibilité dans une région Amazon S3 avant de renvoyer un message SUCCESS. La classe de stockage S3 unizone – Accès peu fréquent stocke les données de façon redondante sur plusieurs appareils dans une seule zone de disponibilité. Ces services sont conçus pour prendre en charge des pannes de périphériques simultanées en détectant et réparant rapidement toute redondance perdue. De plus, ils vérifient régulièrement l'intégrité de vos données au moyen de totaux de contrôle.

Question : Quels totaux de contrôle Amazon S3 utilise-t-il pour détecter la corruption des données ?

Amazon S3 utilise une combinaison de totaux de contrôle Content-MD5 et de contrôles de redondance cycliques (CRC) pour détecter une éventuelle corruption des données. Amazon S3 exécute ces totaux de contrôle sur des données statiques et répare toute corruption en utilisant les données redondantes. En outre, le service calcule les totaux de contrôle sur tout le trafic de réseau pour détecter la corruption des paquets de données lors du stockage ou de la récupération des données.

Question : Qu'est-ce que la gestion des versions ?

Le contrôle de version permet de préserver, récupérer et restaurer toutes les versions de chacun des objets stockés dans un compartiment Amazon S3. Une fois le contrôle de version pour un compartiment activé, Amazon S3 préserve les objets existants à chaque fois que vous réalisez une opération PUT, POST, COPY ou DELETE sur ces objets. Par défaut, les demandes GET récupèrent la version écrite le plus récemment. Les versions plus anciennes d'un objet écrasé ou supprimé peuvent être récupérées en spécifiant une version dans la demande.

Question : Pourquoi devrais-je utiliser la gestion des versions ?

Amazon S3 fournit aux clients une infrastructure de stockage hautement durable. Le contrôle de version propose un niveau de protection supplémentaire en fournissant un moyen de récupération lorsque les clients écrasent ou suppriment accidentellement des objets. Ceci vous permet de récupérer facilement les objets perdus suite à des actions involontaires d'utilisateurs et des défaillances d'applications. Vous pouvez également utiliser le contrôle de version pour la rétention et l'archivage de données.

Question : Comment démarrer avec la gestion des versions ?

Vous pouvez commencer à utiliser le contrôle de version en activant un paramètre sur votre compartiment Amazon S3. Pour plus d'informations sur la manière d'activer le contrôle de version, consultez la documentation technique d'Amazon S3.

Question : Comment la gestion des versions me protège-t-elle d'une suppression accidentelle de mes objets ?

Lorsqu'un utilisateur effectue une opération DELETE sur un objet, les demandes simples (dont la gestion par version est annulée) ultérieures ne peuvent plus récupérer l'objet. Toutefois, toutes les versions de cet objet continueront d'être préservées dans votre compartiment Amazon S3 et pourront être récupérées ou restaurées. Seul le propriétaire d'un compartiment Amazon S3 peut supprimer une version de manière définitive. Vous pouvez définir des règles de cycle de vie pour gérer la durée de vie et le coût de stockage de plusieurs versions de vos objets.

Question : Puis-je configurer une corbeille ou une fenêtre de restauration sur mes objets Amazon S3 pour passer outre les suppressions et les écrasements ?

Vous pouvez utiliser les règles de cycle de vie avec la gestion des versions pour mettre en œuvre une fenêtre de restauration pour vos objets Amazon S3. Par exemple, avec votre compartiment avec gestion des versions, vous pouvez configurer une règle qui archive toutes vos versions antérieures dans la classe de stockage Glacier, moins chère, et les supprime après 100 jours, ce qui vous laisse un délai de 100 jours pour annuler des modifications apportées à vos données, tout en diminuant vos coûts de stockage.

Question : Comment puis-je assurer une protection maximale aux versions préservées ?

La fonctionnalité Delete de la Multi-Factor Authentication (MFA) (Authentification à plusieurs facteurs) de la gestion des versions peut être utilisée pour offrir une couche supplémentaire de sécurité. Par défaut, toutes les demandes vers votre compartiment Amazon S3 nécessitent vos identifiants de compte AWS. Si vous activez le contrôle de versions avec MFA Delete sur votre compartiment Amazon S3, deux formes d'authentification sont requises pour supprimer de manière permanente une version d'un objet : vos identifiants de compte AWS, et un code à six chiffres et un numéro de série valides émis par un périphérique d'authentification que vous détenez physiquement. Pour en savoir plus sur l'activation du contrôle de version avec MFA Delete, et notamment comment acheter et activer un périphérique d'authentification, consultez la documentation technique d'Amazon S3.

Question : Comment mon utilisation de la gestion des versions m'est-elle facturée ?

Les tarifs Amazon S3 standard sont appliqués à chaque version d'un objet stocké ou demandé. Par exemple, examinons le scénario suivant pour illustrer les coûts de stockage lors de l'utilisation du contrôle de version (supposons que le mois en cours fasse 31 jours) :

1) Jour 1 du mois : vous effectuez un PUT de 4 Go (4 294 967 296 octets) sur votre compartiment.
2) Jour 16 du mois : vous effectuez une opération PUT de 5 Go (5 368 709 120 octets) dans le même compartiment en utilisant la même clé que l'opération PUT d'origine du Jour 1.

Lorsque les coûts de stockage des opérations ci-dessus sont analysés, notez que l'objet de 4 Go du Jour 1 n'est pas supprimé du compartiment lorsque l'objet de 5 Go est écrit le Jour 15. À la place, l'objet de 4 Go est préservé en tant qu'ancienne version et l'objet de 5 Go devient la version la plus récemment écrite de l'objet au sein de votre compartiment. A la fin du mois :

Utilisation totale (en octet-heure)
[4 294 967 296 octets x 31 jours x (24 heures / jour)] + [5 368 709 120 octets x 16 jours x (24 heures / jour)] = 5 257 039 970 304 octet-heures.

Conversion en Go total-mois
5 257 039 970 304 octets/heure x (1 Go / 1 073 741 824 octets) x (1 mois / 744 heures) = 6 581 Go/mois

Le coût est calculé sur la base des tarifs en vigueur pour votre région indiqués sur la page de tarification Amazon S3.

Classes de stockage

S3 Intelligent-Tiering

Question : Qu'est-ce que S3 Intelligent-Tiering ?

La classe de stockage Amazon S3 Intelligent-Tiering est conçue pour optimiser les coûts en déplaçant automatiquement les données vers le niveau d'accès le plus économique, sans frais d'exploitation. Il s'agit de la seule classe de stockage dans le cloud qui permet de faire automatiquement des économies en déplaçant les données à un accès d'objets granulaire entre des niveaux d'accès lorsque les modèles d'accès changent. C'est la classe de stockage idéale lorsque vous souhaitez optimiser vos coûts de stockage pour les données ayant des modèles d'accès inconnus ou variables. Entraînant de faibles frais mensuels de surveillance et d'automatisation des objets, S3 Intelligent-Tiering contrôle les modèles d'accès et déplace automatiquement les objets d'un niveau d'accès à l'autre. Il n'y a aucun frais d'extraction dans S3 Intelligent-Tiering. Si un objet stocké dans le niveau Accès peu fréquent est accédé ultérieurement, il est automatiquement déplacé dans le niveau Accès fréquent. Aucun frais supplémentaire ne s'applique lorsque des objets sont déplacés entre des niveaux d'accès de la classe de stockage S3 Intelligent-Tiering.

Q : comment S3 Intelligent-Tiering fonctionne-t-il ?

La classe de stockage Amazon S3 Intelligent-Tiering est conçue pour optimiser les coûts de stockage en déplaçant automatiquement les données vers le niveau d'accès le plus économique lorsque les modèles d'accès changent. Entraînant de faibles frais mensuels de surveillance et d'automatisation des objets, S3 Intelligent-Tiering contrôle les modèles d'accès et déplace automatiquement les objets qui n'ont pas été accédés vers les niveaux d'accès de moindre coût. S3 Intelligent-Tiering permet des économies de coûts de stockage automatiques dans deux niveaux d'accès à faible latence et haut débit. Pour les données accessibles de façon asynchrone, les clients peuvent choisir d'activer les fonctionnalités d'archivage automatique dans la classe de stockage S3 Intelligent-Tiering. Il n'y a aucun frais d'extraction dans S3 Intelligent-Tiering. Si un objet stocké dans le niveau Accès peu fréquent est accédé ultérieurement, il est automatiquement déplacé dans le niveau Accès fréquent. Aucun frais de hiérarchisation ou de cycle de vie supplémentaire ne s'applique lorsque les objets sont déplacés entre les niveaux d'accès au sein de la classe de stockage S3 Intelligent-Tiering.

S3 Intelligent-Tiering fonctionne en stockant les objets dans quatre niveaux d'accès : deux niveaux d'accès à faible latence optimisés pour l'accès fréquent et peu fréquent, et deux niveaux d'accès d'archive optionnels conçus pour l'accès asynchrone et optimisés pour l'accès rare. Les objets chargés ou migrés dans S3 Intelligent-Tiering sont stockés automatiquement dans le niveau Accès fréquent. S3 Intelligent-Tiering déplace les objets qui n'ont pas été accédés pendant 30 jours consécutifs vers le niveau Accès peu fréquent. Une fois que vous avez activé l'un des niveaux d'accès d'archive ou les deux, S3 Intelligent-Tiering déplacera automatiquement les objets qui n'ont pas été accédés pendant 90 jours consécutifs vers le niveau Accès d'archive, et ceux qui n'ont pas été consultés pendant 180 jours consécutifs vers le niveau Accès Deep Archive. Si l'objet que vous voulez extraire est stocké dans les niveaux Accès Archive ou Accès Deep Archive, vous devez d'abord restaurer cet objet en utilisant RestoreObject avant de pouvoir effectuer l'extraction. Pour plus d'informations sur la restauration des objets archivés, consultez la section Restauration des objets archivés. Si les objets sont accédés ultérieurement, ils sont replacés dans le niveau Accès fréquent. Il n'y a aucun frais d'extraction, vous n'aurez donc pas d'augmentations imprévues dans les factures de stockage quand les modèles d'accès changent.

Q : pourquoi choisir d'utiliser S3 Intelligent-Tiering ?

S3 Intelligent-Tiering est la seule classe de stockage au monde à deux niveaux d'accès fréquent (Frequent Access) qui assurent un débit élevé et une latence faible lorsque vous avez besoin d'un accès immédiat à vos données, et deux niveaux d'archive (Archive) facultatifs facturés au prix modique de 1 USD par To lorsque vos données entrent en dormance. S3 Intelligent-Tiering est conçu pour les données ayant des modèles d'accès inconnus ou irréguliers. Pour les jeux de données avec des modèles d'accès irréguliers dont les sous-ensembles d'objets sont rarement sollicités sur de longues périodes, le niveau d'accès d'archive permet une réduction supplémentaire des coûts jusqu'à 95 %.

Question : Quelles performances le service S3 Intelligent-Tiering offre-t-il ?

Les niveaux à accès fréquent et peu fréquent de S3 Intelligent-Tiering offrent une faible latence et des performances de débit élevées. Le niveau Archive Access offre les mêmes performances que S3 Glacier, et le niveau Deep Archive Access offre les mêmes performances que la classe de stockage S3 Glacier Deep Archive. Vous ne devez activer les niveaux Archive Access que si votre application peut accéder de manière asynchrone à vos objets. Si l'objet que vous récupérez est stocké dans les niveaux Archive Access ou Deep Archive Access, avant de pouvoir récupérer l'objet, vous devez d'abord restaurer un objet en utilisant RestoreObject. Pour plus d'informations sur la restauration des objets archivés, consultez la section Restauration des objets archivés. Les objets du niveau Archive Access sont déplacés dans le niveau Frequent Access en 3 à 5 heures et ceux du niveau Deep Archive Access en l'espace de 12 heures. Si vous avez besoin d'un accès plus rapide à un objet stocké dans un niveau Archive Access, vous pouvez payer pour une récupération plus rapide en utilisant la console pour sélectionner l'option de vitesse de récupération accélérée.

Question : Quelles sont les performances de S3 Intelligent-Tiering en matière de durabilité et de disponibilité ?

S3 Intelligent-Tiering est conçu pour la même durabilité à 99,999999999 % que la classe de stockage S3 Standard. S3 Intelligent-Tiering est conçu pour offrir une disponibilité de 99,9 % et dispose d'un contrat de niveau de service (SLA) offrant des crédits de service en cas de disponibilité inférieure à notre engagement de service au cours de n'importe quel cycle de facturation.

Question : Comment puis-je transférer mes données vers S3 Intelligent-Tiering ?

Vous pouvez transférer vos données vers S3 Intelligent-Tiering de deux manières. Vous pouvez les placer (PUT) directement dans S3 Intelligent-Tiering en spécifiant INTELLIGENT_TIERING dans l'en-tête x-amz-storage-class, ou définir les stratégies de cycle de vie pour transférer des objets depuis S3 Standard ou S3 standard – Accès peu fréquent vers S3 INTELLIGENT_TIERING.

Q : comment le service S3 Intelligent-Tiering est-il facturé ?

Pour S3 Intelligent-Tiering, vous payez des frais mensuels pour le stockage, les requêtes et le transfert de données, ainsi que de faibles frais mensuels pour la surveillance et l'automatisation par objet. La classe de stockage S3 Intelligent-Tiering stocke les objets dans deux niveaux d'accès de stockage : un niveau Accès fréquent facturé aux tarifs de stockage S3 standard, et un niveau Accès peu fréquent facturé aux tarifs de stockage S3 Standard - Stockage avec accès peu fréquent. S3 Intelligent-Tiering dispose également de deux niveaux d'archivage optionnels, un niveau Accès d'archive facturé aux tarifs de stockage de S3 Glacier, et un niveau Accès d'archive profond facturé aux tarifs de stockage de S3 Glacier Deep Archive.

Il n'y a aucun frais d'extraction pour S3 Intelligent-Tiering. Entraînant de faibles frais mensuels de surveillance et d'automatisation des objets, S3 Intelligent-Tiering contrôle les modèles d'accès et déplace automatiquement les objets entre deux niveaux d'accès pour optimiser vos performances et vos coûts de stockage, avec deux niveaux d'accès aux archives asynchrones optionnels.

Il n'existe aucune taille d'objet facturable minimale dans S3 Intelligent-Tiering, mais les objets plus petits que 128 Ko ne sont pas éligibles pour la hiérarchisation automatique. Ces petits objets ne seront pas surveillés et seront toujours facturés aux tarifs du niveau Accès fréquent, sans frais de surveillance et d'automatisation. Pour chaque objet archivé au niveau Archive ou Deep Archive dans S3 Intelligent-Tiering, Amazon S3 utilise 8 Ko de stockage pour le nom de l'objet et d'autres métadonnées (facturés aux tarifs de stockage S3 Standard) et 32 Ko de stockage pour l'index et les métadonnées associées (facturés aux tarifs de stockage S3 Glacier et S3 Glacier Deep Archive).

Q : comment activer les niveaux d'accès d'archive S3 Intelligent-Tiering ?

Vous pouvez activer les niveaux d'accès Archive et Deep Archive en créant une configuration au niveau d'un compartiment, d'un préfixe ou d'une balise d'objet à l'aide de l'API Amazon S3, de l'interface de ligne de commande (CLI) ou de la console de gestion S3. Vous ne devez activer un ou les deux niveaux d'accès d'archive que si votre application peut accéder de manière asynchrone à vos objets.

Question : Puis-je étendre le délai d'archivage dans une classe de stockage S3 Intelligent-Tiering des objets non consultés ?

Oui. Dans la configuration du compartiment, du préfixe ou de la balise d'objet, vous pouvez étendre les délais d'archivage dans S3 Intelligent-Tiering à partir du dernier accès. Lorsque les niveaux sont activés, par défaut, les objets qui n'ont pas été consultés depuis 90 jours consécutifs au minimum sont automatiquement déplacés vers le niveau Archive. Les objets qui n'ont pas été consultés depuis 180 jours consécutifs au minimum sont automatiquement déplacés vers le niveau Deep Archive. La configuration par défaut du délai en jours consécutifs depuis le dernier accès avant l'archivage automatique dans S3 Intelligent-Tiering peut être étendue jusqu'à 2 ans.

Question : Comment accéder à un objet stocké au niveau d'archive Archive ou Deep Archive dans la classe de stockage S3 Intelligent-Tiering ?

Pour accéder à un objet stocké au niveau d'archive Archive ou Deep Archive, vous devez émettre une demande de restauration (RESTORE) et le déplacement vers le niveau Frequent Access de l'objet sera initialisé, le tout au sein de la classe de stockage S3 Intelligent-Tiering. Les objets du niveau d'accès Archive sont déplacés dans le niveau Frequent Access en 3 à 5 heures et ceux du niveau Deep Archive en l'espace de 12 heures. Une fois les objets dans le niveau Frequent Access, vous pouvez émettre une requête GET pour récupérer l'objet.

Q : Comment savoir à quel niveau d'accès S3 Intelligent-Tiering mes objets sont stockés ?

Vous pouvez utiliser Amazon S3 Inventory pour rapporter le niveau d'accès des objets stockés dans la classe de stockage S3 Intelligent-Tiering. Chaque jour ou chaque semaine, Amazon S3 Inventory crée des fichiers de sortie au format CSV, ORC ou Parquet qui listent vos objets et les métadonnées qui leur sont associées pour un compartiment S3 ou un préfixe commun. Vous pouvez également émettre une requête HEAD sur vos objets pour obtenir un rapport sur les niveaux d'accès d'archive S3 Intelligent-Tiering.

Question : Existe-t-il une durée de stockage minimale pour S3 Intelligent-Tiering ?

Non, la classe de stockage S3 Intelligent-Tiering n'a pas de durée de stockage minimale.

Q : existe-t-il une taille d'objet facturable minimale pour S3 Intelligent-Tiering ?

Non, la classe de stockage S3 Intelligent-Tiering n'a pas de taille d'objet facturable minimale, mais les objets inférieurs à 128 Ko ne sont pas éligibles pour la hiérarchisation automatique. Ces objets plus petits seront toujours facturés aux tarifs du niveau Accès fréquent, sans frais de surveillance et d'automatisation. Pour chaque objet archivé au niveau Archive ou Deep Archive dans S3 Intelligent-Tiering, Amazon S3 utilise 8 Ko de stockage pour le nom de l'objet et d'autres métadonnées (facturés aux tarifs de stockage S3 Standard) et 32 Ko de stockage pour l'index et les métadonnées associées (facturés aux tarifs de stockage S3 Glacier et S3 Glacier Deep Archive). Pour plus de détails, consultez la tarification https://aws.amazon.com/s3/pricing/.

S3 Standard-Infrequent Access (S3 Standard-IA)

Q : Qu'est-ce que S3 Standard – Infrequent Access ?

S3 Standard-Infrequent Access (S3 Standard-IA) est une classe de stockage d'Amazon S3 pour les données consultées moins fréquemment, mais nécessitant un accès rapide. S3 Standard – Accès peu fréquent offre la haute durabilité, le débit élevé et la faible latence d'une classe de stockage Amazon S3 Standard avec un prix de stockage au Go et des frais d'extraction par Go faibles. Ces performances élevées alliées à un faible coût font de S3 Standard – Accès peu fréquent l'outil idéal pour le stockage et les sauvegardes à long terme, ainsi qu'en tant que dépôt de données pour la reprise après sinistre. La classe de stockage de S3 Standard – Accès peu fréquent est définie au niveau de l'objet et peut occuper le même compartiment que les classes de stockage S3 Standard ou S3 unizone – Accès peu fréquent, ce qui vous permet d'utiliser des stratégies de gestion du cycle de vie S3 pour assurer le passage automatique des objets d'une classe de stockage à une autre sans changement pour les applications.

Q : Pourquoi choisir d'utiliser S3 Standard – IA ?

S3 Standard – Accès peu fréquent est idéal pour les données consultées peu fréquemment, mais nécessitant un accès rapide le cas échéant. S3 standard – Accès peu fréquent est particulièrement adapté au stockage de fichiers à long terme, au stockage d'anciennes données de synchronisation et de partage et d'autres données anciennes.

Q : Quelles performances S3 standard – Accès peu fréquent propose-t-il ?

S3 standard – Accès peu fréquent fournit la même latence et les mêmes performances de débit que la classe de stockage S3 standard. 

 

Question : Comment puis-je transférer mes données vers S3 standard – Accès peu fréquent ?

Vous pouvez transférer vos données vers S3 Standard – Accès peu fréquent de deux manières différentes. Vous pouvez exécuter directement une opération PUT sur vos données dans S3 Standard – Accès peu fréquent en indiquant STANDARD_IA dans l'en-tête x-amz-storage-class. Vous pouvez également définir des stratégies de cycle de vie pour faire passer des objets de S3 standard à la classe de stockage S3 standard – Accès peu fréquent.

Question : Quels frais devrai-je payer si je fais passer un objet de la classe de stockage S3 standard – Accès peu fréquent à la classe S3 standard au moyen d'une demande COPY ?

Vous serez facturé pour une demande COPY de S3 Standard – Accès peu fréquent et une extraction de données S3 Standard – Accès peu fréquent.

Question : Est-ce qu'il y a des frais de durée de stockage minimaux pour S3 Standard – Accès peu fréquent ?

S3 Standard – Accès peu fréquent est conçu pour les données à longue durée de vie consultées peu fréquemment et conservées pendant des mois ou des années. Les données supprimées de S3 Standard – Accès peu fréquent dans les 30 jours seront facturées 30 jours complets. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de la classe S3 Standard – Accès peu fréquent.

Question : Est-ce qu'il y a des frais de stockage d'objet minimaux pour S3 Standard – Accès peu fréquent ?

S3 Standard – Accès peu fréquent est conçu pour des objets plus importants et génère des frais de stockage d'objet minimum de 128 Ko. Les objets de taille inférieure à 128 Ko donneront lieu à des frais de stockage équivalents à ceux d'un objet de 128 Ko. Par exemple, un objet de 6 Ko dans S3 Standard – Accès peu fréquent entraîne les frais de stockage de S3 Standard – Accès peu fréquent pour 6 Ko, plus des frais supplémentaires correspondant à la taille minimale de l'objet équivalant à 122 Ko au coût de stockage de S3 standard – Accès peu fréquent. Veuillez consulter la page de tarification Amazon S3 pour plus d'informations sur la tarification de la classe S3 Standard – Accès peu fréquent.

Question : Puis-je faire passer des objets de S3 Standard – Accès peu fréquent à S3 unizone – Accès peu fréquent ou S3 Glacier ?

Oui. En plus d'utiliser des stratégies de cycle de vie pour faire migrer des objets depuis S3 Standard vers S3 Standard – Accès peu fréquent, vous pouvez définir des stratégies de cycle de vie pour faire passer des objets depuis S3 Standard – Accès peu fréquent vers S3 unizone – Accès peu fréquent ou S3 Glacier.

S3 One Zone – Infrequent Access (S3 unizone – Accès peu fréquent)

Question : Qu'est-ce que la classe de stockage S3 unizone – Accès peu fréquent ?

La classe de stockage S3 unizone – Accès peu fréquent est une classe de stockage Amazon S3 que les clients peuvent utiliser pour stocker des objets dans une seule zone de disponibilité. La classe de stockage S3 unizone – Accès peu fréquent stocke les données de façon redondante dans cette seule zone de disponibilité afin d'offrir une option de stockage à un prix 20 % inférieur à celui du stockage S3 Standard – Accès peu fréquent géographiquement redondant qui stocke des données de façon redondante sur plusieurs zones de disponibilité géographiquement distinctes.

S3 unizone – Accès peu fréquent offre un accord de niveau de service (SLA) disponible à 99 % et est également conçu pour une durabilité à onze 9 dans la zone de disponibilité. Cependant, les données dans la classe de stockage S3 unizone – Accès peu fréquent ne résistent pas aux pertes physiques d'une zone de disponibilité entière.

Le stockage S3 unizone – Accès peu fréquent offre les mêmes fonctions Amazon S3 que S3 standard et S3 standard – Accès peu fréquent et est utilisé par les API Amazon S3, par la console Amazon S3 et par l'interface de ligne de commande Amazon S3. La classe de stockage S3 unizone – Accès peu fréquent est définie au niveau de l'objet et peut occuper le même compartiment que les classes de stockage S3 Standard et S3 Standard – Accès peu fréquent. Vous pouvez occuper les stratégies de cycle de vie S3 afin de faire passer automatiquement des objets d'une classe de stockage à l'autre sans rien changer aux applications.

Question : Quels sont les cas d'utilisation les mieux adaptés à la classe de stockage S3 unizone – Accès peu fréquent ?

Les clients peuvent utiliser la classe S3 unizone – Accès peu fréquent pour un stockage peu consulté, comme les copies de sauvegarde, les copies de reprise après sinistre ou d'autres données faciles à récréer.

Question : Quelles sont les performances du stockage S3 unizone – Accès peu fréquent ?

La classe de stockage S3 unizone – Accès peu fréquent offre les mêmes performances en termes de latence et de débit que les classes S3 standard et S3 Standard - Stockage avec accès peu fréquent.

Question : Quelle est la durabilité de la classe de stockage S3 unizone – Accès peu fréquent ?

La classe de stockage S3 unizone – Accès peu fréquent est conçue pour offrir une durabilité de 99,999999999 % au sein d'une zone de disponibilité. Cependant, les données dans la classe de stockage S3 unizone – Accès peu fréquent ne résistent pas à la perte de disponibilité ou aux pertes physiques d'une zone de disponibilité. Au contraire, les stockages S3 standard, S3 Intelligent-Tiering, S3 standard – Accès peu fréquent et S3 Glacier sont conçus pour éviter la perte de disponibilité ou résister à la destruction de la zone de disponibilité. S3 unizone – Accès peu fréquent offre une durabilité et une disponibilité égales ou supérieures à celles de la plupart des centres de données physiques modernes tout en fournissant en plus l'avantage de l'élasticité du stockage et l'ensemble des fonctions Amazon S3.

Question : Est-ce qu'une « zone » S3 unizone – Accès peu fréquent est la même chose qu'une zone de disponibilité AWS ?

Oui. Chaque région AWS désigne une zone géographique séparée. Chaque région se compose de plusieurs emplacements isolés appelés zones de disponibilité. La classe de stockage Amazon S3 unizone – Accès peu fréquent utilise une seule zone de disponibilité AWS dans la région.

Question : En utilisant S3 unizone – Accès peu fréquent, à quelle protection de reprise après sinistre est-ce que je renonce ?

Chaque zone de disponibilité utilise une mise en réseau et une alimentation redondante. Au sein d'une région AWS, les zones de disponibilité se trouvent sur différentes plaines inondables et lignes d'activités sismiques et sont géographiquement séparées pour éviter les incendies. Les classes de stockage S3 standard et S3 standard – Accès peu fréquent offrent une protection contre ce genre de catastrophes en stockant vos données de façon redondante dans différentes zones de disponibilité. S3 unizone – Accès peu fréquent offre une protection contre les pannes d'équipement dans une zone de disponibilité, mais les données ne résistent pas à la perte physique de la zone de disponibilité liée à des catastrophes, comme des tremblements de terre et des inondations. Grâce aux options S3 unizone – Accès peu fréquent, S3 standard et S3 standard – Accès peu fréquent, vous pouvez choisir la classe de stockage qui répond au mieux aux besoins en durabilité et en disponibilité de votre stockage.

S3 sur Outposts

Question : Qu'est-ce qu'Amazon S3 sur Outposts ?

Amazon S3 sur Outposts fournit un stockage d'objets dans votre environnement sur site, à l'aide des fonctionnalités et API S3 que vous utilisez aujourd'hui sur AWS. AWS Outposts est un service entièrement géré qui permet d'étendre l'infrastructure, les services, les API et les outils API à pratiquement n'importe quels centres de données, espaces en colocation ou installations sur site. Grâce à S3 sur Outposts, vous pouvez traiter et stocker de manière sécurisée les données client générées sur site avant de les déplacer vers une région AWS. Vous pouvez également accéder aux données localement pour les applications qui s'exécutent sur site, ou stocker les données sur site pour les entreprises situées dans des zones avec exigences de résidence de données ou appartenant à des secteurs réglementés. Pour en savoir plus sur S3 sur Outposts, consultez la page de présentation.
 

Amazon S3 Glacier

Q : Qu'est-ce qu'Amazon S3 Glacier ?

S3 Glacier est une classe de stockage sûre, robuste et à faible coût pour l'archivage de données. Il vous offre un stockage fiable de n'importe quelle quantité de données à des tarifs compétitifs par rapport aux solutions sur site, voire moins cher que ces dernières. Afin de proposer des coûts bas tout en restant adapté à différents besoins, S3 Glacier offre trois options pour l'accès aux archives, avec des délais allant de quelques minutes à plusieurs heures. Vous pouvez directement charger des objets sur S3 Glacier ou vous pouvez utiliser les stratégies de cycle de vie S3 pour transférer des données entre toutes les classes de stockage S3 pour les données actives (S3 standard, S3 Intelligent-Tiering, S3 standard – Accès peu fréquent et S3 unizone – Accès peu fréquent) et S3 Glacier. 

Question : Amazon S3 comporte-t-il des fonctions permettant d'archiver des objets afin de réduire le coût des classes de stockage ?

Oui, Amazon S3 vous permet d'utiliser Amazon S3 Glacier et Amazon S3 Glacier Deep Archive pour le stockage à accès peu fréquent et l'archivage des données. Amazon S3 Glacier stocke les données pour à peine 0,004 USD par Go par mois. Pour proposer des coûts bas convenant à des besoins d'extraction variables, Amazon S3 Glacier offre trois options d'accès aux archives, avec des délais allant de quelques minutes à plusieurs heures. S3 Glacier Deep Archive est la classe de stockage la moins chère d'Amazon S3 et prend en charge la rétention à long terme et la préservation numérique de données qui seront consultées une ou deux fois dans l'année.  Voici quelques exemples d'utilisation d'archives : les archives multimédia numériques, les dossiers médicaux et financiers, les données brutes d'une séquence génomique, les sauvegardes de base de données à long terme, ainsi que les données devant être conservées à des fins réglementaires.

Question : Comment puis-je stocker mes données en utilisant la classe de stockage Amazon S3 Glacier ?

Si vous avez un stockage qui doit être immédiatement archivé ou si vous prenez des décisions commerciales en ce qui concerne le moment de transférer des objets vers S3 Glacier qui ne peuvent pas être exprimés via une stratégie de cycle de vie Amazon S3, S3 PUT vers Glacier vous permet d'utiliser les API S3 pour charger la catégorie de stockage S3 Glacier sur la base du principe objet par objet. Il n'y a pas de délai de transition et vous contrôlez le timing. C'est également une bonne option si vous souhaitez que votre application prenne des décisions concernant la catégorie de stockage sans avoir à définir une stratégie au niveau du compartiment.

Vous pouvez utiliser les règles de cycle de vie afin d'archiver automatiquement des ensembles d'objets Amazon S3 dans S3 Glacier en fonction de l'âge de l'objet. Utilisez la console de gestion d'Amazon S3, les kits de développement logiciel (SDK) AWS ou les API d'Amazon S3 pour définir des règles d'archivage. Ces règles définissent un préfixe et une période de temps. Le préfixe (ex. : « logs/ ») identifie les objets auxquels la règle s'applique. La période indique soit le nombre de jours à compter de la date de création (ex. : 180 jours), soit la date précise après laquelle les objets doivent être archivés. Tout objet S3 Standard ou S3 Standard – Accès peu fréquent ou S3 unizone – Accès peu fréquent dont le nom commence par le préfixe indiqué et dont l'ancienneté est supérieure la période spécifiée est archivé dans S3 Glacier. Pour extraire les données Amazon S3 stockées dans S3 Glacier, lancez une tâche d'extraction à l'aide des API ou de la console de gestion d'Amazon S3. Une fois cette tâche terminée, vous pouvez accéder à vos données au moyen d'une requête d'objet GET dans Amazon S3.

Pour plus d'informations sur l'utilisation des règles de cycle de vie pour l'archivage dans S3 Glacier, veuillez vous référer à la rubrique Archivage d'objet du Guide du développeur Amazon S3.

Question : Comment puis-je récupérer mes objets archivés dans Amazon S3 Glacier et serai-je averti lorsque l'objet sera restauré ?

Pour extraire les données Amazon S3 stockées dans la catégorie de stockage S3 Glacier, lancez une demande d'extraction à l'aide des API d'Amazon S3 ou de la console de gestion d'Amazon S3. La demande d'extraction crée une copie temporaire de vos données dans la classe de stockage S3 RRS ou S3 Standard – Accès peu fréquent tout en laissant les données archivées intactes dans S3 Glacier. Vous pouvez définir la période (en jours), pendant laquelle la copie temporaire est conservée dans S3. Vous pouvez ensuite accéder à votre copie temporaire dans S3, via une demande Amazon S3 GET sur l'objet archivé.

Avec les notifications de restauration, vous pouvez désormais recevoir une Notification d'événement S3 lorsqu'un objet a été restauré avec succès à partir de S3 Glacier et que la copie temporaire est mise à votre disposition. Le propriétaire du compartiment (ou d'autres personnes, comme le permet une stratégie IAM) peut faire en sorte que les notifications soient envoyées à Amazon Simple Queue Service (SQS) ou à Amazon Simple Notification Service (SNS). Les notifications peuvent également être envoyées à AWS Lambda pour être traitées par une fonction Lambda.

Question : Combien de temps faut-il pour restaurer mes objets archivés dans S3 Glacier et puis-je mettre à niveau une demande en cours pour atteindre une vitesse de restauration plus rapide ?

Lorsqu'il traite une tâche d'extraction, Amazon S3 extrait d'abord les données demandées de S3 Glacier, puis crée une copie temporaire des données demandées dans S3 (ce qui prend généralement quelques minutes). Le temps d'accès de votre demande dépend de l'option d'extraction que vous avez choisie : extraction rapide, standard ou en bloc. Les données consultées à l'aide des extractions rapides sont habituellement disponibles après 1 à 5 minutes, sauf pour les objets plus importants (plus de 250 Mo). L'extraction standard des objets prend généralement entre 3 et 5 heures. Les récupérations en bloc prennent généralement entre 5 et 12 heures. Pour plus d'informations sur les options d'extraction dans S3 Glacier, veuillez consulter la section Questions fréquentes relatives à S3 Glacier.

La mise à niveau de la vitesse de restauration S3 consiste à remplacer la restauration en cours par un niveau de restauration plus rapide, si l'accès aux données est urgent. Pour utiliser S3 Restore Speed Upgrade, envoyez une autre demande de restauration au même objet en utilisant un nouveau paramètre de tâche « Tier » (Niveau). Lorsque vous effectuez une mise à niveau de la vitesse de restauration S3, vous devez choisir une vitesse de restauration plus rapide que la restauration en cours. D'autres paramètres tels que Heure d'expiration de l'objet ne seront pas modifiés. Vous pouvez mettre à jour l'heure d'expiration de l'objet une fois la restauration terminée. Vous payez pour chaque demande de restauration ainsi que les frais de récupération par Go pour le niveau de restauration plus rapide. Par exemple, si vous avez envoyé une demande de restauration du niveau Bulk (En masse), puis une demande de mise à niveau de la vitesse de restauration S3 vers le niveau Expedited (Rapide) pour remplacer le niveau Bulk en cours, deux demandes vous seront facturées, ainsi que les frais d'extraction par Go pour le niveau Expedited.

Question : Comment les frais de stockage pour les objets Amazon S3 archivés dans Amazon S3 Glacier sont-ils calculés ?

Le volume de stockage facturé pour un mois dépend du volume de stockage moyen utilisé pendant le mois concerné. Il se mesure en gigaoctets par mois (Go-mois). Amazon S3 calcule la taille de l’objet correspondant à la quantité de données que vous avez stockée, à laquelle s’ajoutent 32 Ko de données Amazon S3 Glacier et 8 Ko de classe stockage S3 Standard supplémentaires. Amazon S3 Glacier a besoin de 32 Ko de données supplémentaires par objet pour l'index et les métadonnées de Glacier, afin que vous puissiez identifier et récupérer vos données. Amazon S3 requiert 8 Ko pour stocker et tenir à jour le nom défini par l'utilisateur et les métadonnées correspondant aux objets archivés dans Amazon S3 Glacier. Vous pouvez ainsi obtenir la liste en temps réel de tous vos objets Amazon S3, y compris ceux qui sont stockés à l'aide de la classe de stockage Amazon S3 Glacier, en utilisant l'API LIST d'Amazon S3 ou le rapport d'inventaire S3. Par exemple, si vous avez archivé 100 000 objets de 1 Go chacun, les frais applicables au stockage seront les suivants :

1,000032 gigaoctets par objet x 100 000 objets = 100 003,2 gigaoctets de stockage dans Amazon S3 Glacier.
0,000008 Go par objet x 100 000 objets = 0,8 Go de stockage Amazon S3 Standard.

Le coût est calculé sur la base des tarifs en vigueur pour votre Région AWS indiqués sur la page de tarification Amazon S3.

Q : quelle quantité de données puis-je extraire gratuitement d'Amazon S3 Glacier ?

Vous pouvez récupérer 10 Go de données Amazon S3 Glacier gratuitement par mois avec l'offre gratuite d'AWS. Le quota de l'offre gratuite peut être utilisé à tout moment pendant le mois et s'applique aux extractions standard d'Amazon S3 Glacier.

Q : comment les frais de suppression d'objets datant de moins de 90 jours dans Amazon S3 Glacier sont-ils calculés ?

Amazon S3 Glacier est conçu pour des cas d'utilisation dans lesquels les données sont conservées plusieurs mois, des années, voire des dizaines d'années. La suppression de données archivées dans Amazon S3 Glacier est gratuite si les objets supprimés ont été archivés dans Amazon S3 Glacier depuis au moins 90 jours. Si un objet archivé dans Amazon S3 Glacier est supprimé ou remplacé dans un délai de 90 jours suivant son archivage, des frais de suppression précoce vous seront facturés. Ces frais sont calculés au prorata. Si vous supprimez 1 Go de données 30 jours après leur téléchargement, des frais de suppression précoce correspondant à 60 jours de stockage dans Amazon S3 Glacier vous seront facturés. Si vous supprimez 1 Go de données 60 jours, des frais correspondant à 30 jours de stockage dans Amazon S3 Glacier vous seront facturés.

Q : combien coûte l'extraction de données d'Amazon S3 Glacier ? 

Il existe trois manières de restaurer des données à partir d'Amazon S3 Glacier : par extraction rapide, standard et en masse. Chacune a des frais d'extraction par Go et des frais de requête par archive différents (c'est-à-dire que la requête d'une archive compte comme une requête). Pour une tarification détaillée de S3 Glacier selon la Région AWS, veuillez consulter la page de tarification Amazon S3 Glacier.

Question : Comment l'infrastructure backend prend-elle en charge les classes de stockage S3 Glacier et S3 Glacier Deep Archive ?

Nous préférons nous concentrer sur les résultats pour le client en termes de performance, de durabilité, de disponibilité et de sécurité. Toutefois, cette question est souvent posée par nos clients. Nous utilisons un certain nombre de technologies différentes qui nous permettent de proposer les tarifs que nous pratiquons actuellement avec les clients. Nos services ont été élaborés à l'aide de technologies de stockage de données couramment utilisées : ces dernières sont spécifiquement regroupées dans des systèmes dédiés et optimisés en matière de coûts grâce aux logiciels développés par AWS. S3 Glacier optimise la séquence d'entrées et de sorties afin d'accroître l'efficacité de l'accès au stockage sous-jacent.

Amazon S3 Glacier Deep Archive

Question : Qu'est-ce qu'Amazon S3 Glacier Deep Archive ?

S3 Glacier Deep Archive est une classe de stockage Amazon S3 : elle offre un stockage d'objets durable et sécurisé pour la conservation des données sur le long terme et un accès à ces dernières une ou deux fois par an. Avec un tarif de départ de 0,00099 USD par Go-mois seulement (moins d'un centième de centime, soit un peu moins de 1 USD par To-mois), S3 Glacier Deep Archive propose le stockage dans le cloud le moins cher, à des prix bien moins élevés que si vous stockiez et entreteniez vos données dans des bibliothèques de bandes magnétiques sur site ou que si vous archiviez vos données hors site.

Question : Quels sont les cas d'utilisation les mieux adaptés à la classe de stockage S3 Glacier Deep Archive ?

S3 Glacier Deep Archive est la classe de stockage idéale pour offrir une protection hors ligne aux ressources de données de votre entreprise les plus importantes. Elle permet également de conserver les données à long terme lorsque la politique de l'entreprise, des exigences contractuelles ou des règlements l'imposent. Les clients considèrent que S3 Glacier Deep Archive est un excellent choix pour protéger les principaux droits de propriété intellectuelle, les dossiers financiers et médicaux, les résultats de la recherche, les documents juridiques, les études d'exploration sismique, les sauvegardes à long terme, principalement dans les industries hautement règlementées comme les services financiers, la santé, le pétrole et le gaz, et le secteur public. De plus, certaines organisations, comme les sociétés multimédia et de divertissement, veulent conserver une copie de sauvegarde des principaux droits de propriété intellectuelle. Bien souvent, les clients S3 Glacier Deep Archive sont en mesure de réduire ou de supprimer l'utilisation des bibliothèques de bandes magnétiques sur site et des services d'archives sur bandes hors site.

Question : En quoi la technologie S3 Glacier Deep Archive est-elle différente de S3 Glacier ?

Grâce à S3 Glacier Deep Archive, nos offres d'archivage de données sont étendues : vous pouvez sélectionner la classe de stockage optimale en fonction des coûts de stockage et d'extraction, ainsi que des délais d'extraction. Choisissez S3 Glacier lorsque vous avez besoin de récupérer des données archivées généralement entre 1 et 5 minutes à l'aide de la fonction de récupération accélérée. La technologie S3 Glacier Deep Archive, quant à elle, a été conçue pour les données froides auxquelles vous accéderez peu ou pas du tout, mais qui ont quand même besoin d'un stockage durable sur le long terme. S3 Glacier Deep Archive revient jusqu'à 75 % moins cher que S3 Glacier, et permet une extraction en 12 heures à vitesse standard. Pour réduire les coûts d'extraction, vous pouvez sélectionner l'extraction en masse qui renvoie les données dans un délai de 48 heures.

Question : Comment puis-je commencer à utiliser S3 Glacier Deep Archive ?

Pour stocker des données dans S3 Glacier Deep Archive, le moyen le plus simple est de charger directement des données à l'aide de l'API S3. Il vous suffit de spécifier « S3 Glacier Deep Archive » en tant que classe de stockage. Pour ce faire, vous pouvez vous servir de la console de gestion AWS, l'API REST S3, les kits SDK AWS ou l'interface de ligne de commande AWS.

Vous pouvez également commencer à utiliser S3 Glacier Deep Archive en créant des politiques de migration des données à l'aide du cycle de vie S3. Grâce à ce dernier, vous pouvez définir le cycle de vie de votre objet et réduire le coût de stockage. Ces politiques peuvent être configurées de manière à migrer les objets dans S3 Glacier Deep Archive en fonction de l'âge de l'objet. Vous pouvez définir la politique pour un compartiment S3 ou pour des préfixes spécifiques. Les transitions du cycle de vie sont facturées au prix du chargement S3 Glacier Deep Archive.

La passerelle de bande, une fonctionnalité de bibliothèque de bandes virtuelles basée sur le cloud au sein de AWS Storage Gateway, s'intègre désormais à S3 Glacier Deep Archive. Grâce à cette intégration, vous pouvez stocker à long terme vos sauvegardes et archives basées sur des bandes virtuelles dans S3 Glacier Deep Archive. Il s'agit de la solution de stockage dans le cloud la moins coûteuse pour ces données. Pour commencer, créez une nouvelle bande virtuelle à l'aide de la console ou de l'API AWS Storage Gateway, puis définissez la cible de stockage d'archivage sur S3 Glacier ou S3 Glacier Deep Archive. Lorsque votre application de sauvegarde éjecte la bande, celle-ci est archivée dans la cible de stockage sélectionnée.

Question : Quelles sont les recommandations pour migrer des données depuis des archives sur bandes existantes vers S3 Glacier Deep Archive ?

Il existe différentes façons de migrer des données depuis des archives sur bandes existantes vers S3 Glacier Deep Archive. Pour l'intégration avec des applications de sauvegarde existantes, vous pouvez utiliser la passerelle de bandes AWS à l'aide de l'interface de la bibliothèque de bandes virtuelles (VTL). Cette interface présente des bandes virtuelles à l'application de sauvegarde. Celles-ci peuvent être immédiatement utilisées pour stocker des données dans Amazon S3, S3 Glacier et S3 Glacier Deep Archive.

Pour migrer les données, vous pouvez également utiliser AWS Snowball ou AWS Snowmobile. Snowball et Snowmobile accélèrent le transfert de téraoctets et de pétaoctets de données vers et depuis AWS à l'aide d'appareils de stockage sécurisés pour le transport. Grâce à Snowball et Snowmobile, vous pouvez résoudre les problèmes qui se présentent lors d'importants transferts de données, en particulier les coûts de réseau élevés, la durée des transferts et les risques de sécurité.

Pour finir, vous pouvez utiliser AWS Direct Connect pour établir des connexions réseau dédiées depuis vos locaux vers AWS. Généralement, AWS Direct Connect peut réduire les coûts de réseau, augmenter le débit de bande passante et fournir une expérience réseau plus constante que les connexions basées sur Internet.

Question : Comment puis-je récupérer mes objets stockés dans S3 Glacier Deep Archive ?

Pour extraire les données stockées dans S3 Glacier Deep Archive, vous pouvez lancer une demande de restauration à l'aide des API Amazon S3 ou de la console de gestion Amazon S3. La restauration crée une copie temporaire de vos données dans la classe de stockage « S3 unizone – Accès peu fréquent » tout en laissant les données archivées intactes dans S3 Glacier Deep Archive. Vous pouvez définir la période (en jours), durant laquelle la copie temporaire est conservée dans S3. Vous pouvez ensuite accéder à votre copie temporaire dans S3, via une demande Amazon S3 GET sur l'objet archivé.

Lors de la restauration d'un objet archivé, vous pouvez spécifier l'une des options suivantes dans l'élément « Tier » (Niveau) du corps de la demande : « Standard » est le niveau par défaut qui vous permet d'accéder à tous vos objets archivés pendant 12 heures ; « Bulk » (En masse) est le niveau qui vous permet d'extraire de grandes quantités de données (même des pétaoctets) à moindre prix dans un délai de 48 heures.

Question : Comment l'utilisation de S3 Glacier Deep Archive est-elle facturée ?

Le stockage S3 Glacier Deep Archive est facturé en fonction de la quantité de données stockées en Go, du nombre de demandes de transition PUT ou de cycle de vie, des extractions en Go, et du nombre de demandes de restauration. Le modèle tarifaire est similaire à celui de S3 Glacier. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de S3 Glacier Deep Archive.

Question : Comment mon utilisation de S3 Glacier Deep Archive sera-t-elle présentée sur ma facture AWS et dans l'outil Gestion des coûts AWS ?

L'utilisation de S3 Glacier Deep Archive et le coût qui en résulte s'affichent sur une ligne de service indépendante dans votre facture mensuelle AWS. Cet élément tarifaire est donc séparé de l'utilisation et des coûts liés à Amazon S3. En revanche, dans les rapports détaillés sur les dépenses mensuelles générés par l'outil Gestion des coûts AWS, l'utilisation et les coûts de S3 Glacier Deep Archive sont inclus dans l'utilisation et les coûts généraux d'Amazon S3. Ils ne font donc pas l'objet d'une ligne de service séparée.

Question : Existe-t-il une durée minimale de stockage et des frais de stockage d'objets minimum pour S3 Glacier Deep Archive ?

S3 Glacier Deep Archive a été conçu pour des données à longue durée de vie, d'une conservation de 7 à 10 ans voire plus, mais auxquelles on accède rarement. Les objets archivés dans S3 Glacier Deep Archive sont stockés pendant 180 jours au minimum, et les objets supprimés avant le délai de 180 jours font l'objet de frais appliqués au prorata équivalents aux frais de stockage pour les jours restants. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de S3 Glacier Deep Archive.

Pour la facturation S3 Glacier Deep Archive, la taille minimale des objets stockés est de 40 Ko. Les objets plus petits peuvent être stockés, mais ils seront facturés pour 40 Ko de stockage. Consultez la page de tarification Amazon S3 pour obtenir des informations sur la tarification de S3 Glacier Deep Archive.

 

Question : Comment S3 Glacier Deep Archive s'intègre-t-il aux autres services AWS ?

S3 Glacier Deep Archive s'intègre aux fonctionnalités Amazon S3, dont S3 Object Tagging, les stratégies de cycle de vie S3, S3 Object Lock et S3 Replication. Grâce aux fonctionnalités de gestion du stockage S3, vous pouvez utiliser un seul compartiment Amazon S3 pour stocker une combinaison de données S3 Glacier Deep Archive, S3 standard, S3 standard – Accès peu fréquent, S3 unizone – Accès peu fréquent et S3 Glacier. Les administrateurs du stockage peuvent ainsi prendre des décisions en fonction de la nature des données et des tendances d'accès à ces dernières. Les clients peuvent utiliser les politiques de cycle de vie d'Amazon S3 pour migrer automatiquement les données vers des classes de stockage plus économiques à mesure que les données prennent de l'âge, ou les politiques de réplication entre régions S3 ou à l'intérieur d'une même région pour répliquer les données dans une autre région ou dans la même région.

Le service AWS Storage Gateway intègre désormais la passerelle de bande avec la classe de stockage Amazon S3 Glacier Deep Archive. Vous pouvez donc stocker des bandes virtuelles dans la classe de stockage Amazon S3 au coût le plus bas, réduisant ainsi jusqu'à 75 % le coût mensuel de stockage de vos données à long terme dans le cloud. Avec cette fonctionnalité, la passerelle de bande prend en charge l'archivage de vos nouvelles bandes virtuelles directement dans S3 Glacier et S3 Glacier Deep Archive, ce qui vous permet de répondre à vos exigences en matière de sauvegarde, d'archivage et de restauration. La passerelle de bande vous aide à déplacer des sauvegardes sur bande vers AWS sans apporter de modification à vos flux de travail de sauvegarde existants. Elle est compatible avec la plupart des applications de sauvegarde comme Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (sur le système d'exploitation Windows) et Microsoft Data Protection Manager.

Gestion du stockage

Balises d'objet S3

Question : Que sont les balises d'objet S3 ?

Les balises d'objet S3 sont des paires clé-valeur appliquées aux objets S3 pouvant être créées, téléchargées ou supprimées à tout moment de la durée de vie de l'objet. Elles vous donnent la possibilité de créer des stratégies Identity and Access Management (IAM), de configurer des stratégies de gestion du cycle de vie S3 et de personnaliser les mesures de stockage. Ces balises au niveau de l'objet peuvent ensuite gérer les transitions entre les classes de stockage et les objets d'expiration en arrière-plan. Vous pouvez ajouter des balises à de nouveaux objets lorsque vous les chargez ou les ajoutez à des objets existants. Jusqu'à dix balises peuvent être ajoutées à chaque objet S3. De plus, vous pouvez utiliser la console de gestion AWS, l'API REST, l'interface de ligne de commande AWS ou les kits SDK AWS pour ajouter des balises d'objet. 

Pour en savoir plus, consultez le guide de l'utilisateur de balises d'objet S3.

Question : Pourquoi utiliser les balises d'objet ?

Les balises d'objet sont un outil qui vous permet de profiter d'une gestion simplifiée de votre stockage S3. Vous avez la possibilité de créer, de mettre à jour et de supprimer les balises à tout moment pendant la durée de vie de l'objet. Ainsi, votre stockage peut s'adapter aux besoins de votre entreprise. Ces balises vous permettent de contrôler l'accès aux objets étiquetés avec des paires clé-valeur spécifiques, et de protéger ainsi les données confidentielles d'un groupe ou d'un utilisateur particulier. Des balises d'objet peuvent également être utilisées pour étiqueter des objets qui appartiennent à un projet ou à une unité opérationnelle spécifique. Ces balises peuvent être associées à des stratégies de cycle de vie S3 pour gérer les transitions vers d'autres classes de stockage (S3 Standard – Accès peu fréquent, S3 Unizone – Accès peu fréquent et S3 Glacier) ou avec la réplication S3 pour répliquer des données de manière sélective entre des régions AWS.

Q : Comment mettre à jour les balises d'objet appliquées à mes objets ?

Les balises d'objet peuvent être modifiées à tout moment pendant la durée de vie de votre objet S3. Pour ce faire, utilisez la console de gestion AWS, l'API REST, l'interface de ligne de commande AWS ou les kits SDK AWS. Notez que toutes les modifications apportées aux balises en dehors de la console de gestion AWS sont appliquées à l'ensemble complet de balises. Si cinq balises sont associées à un objet particulier et si vous souhaitez en ajouter une sixième, vous devez inclure les cinq balises d'origine dans votre demande.

Question : Combien coûtent les balises d'objet ?

Le prix des balises d'objet est basé sur la quantité de balises à laquelle s'ajoute le coût de la demande d'ajout de balises. Les demandes associées à l'ajout et à la mise à jour de balises d'objet sont facturées de la même manière que les demandes existantes. Pour plus d'informations, consultez la page de tarification Amazon S3.

Question : Comment démarrer avec la fonction d'analyse de la classe de stockage ?

Vous pouvez utiliser la console de gestion AWS ou l'API PUT Bucket Analytics S3 pour configurer une stratégie d'analyse de classe de stockage afin qu'elle identifie les stockages auxquels on accède peu souvent et qui peuvent être transférés vers une classe de stockage S3 Standard – Accès peu fréquent ou S3 Unizone – Accès peu fréquent, ou archivés dans la classe de stockage Amazon S3 Glacier. Vous pouvez accéder à l'onglet « Management » dans la console S3 pour gérer les fonctions d'analyse de classe de stockage, S3 Inventory, ainsi que les métriques CloudWatch relatives à S3.

S3 Inventory

Question : Qu'est-ce que la fonction S3 Inventory ?

La fonction S3 Inventory constitue une alternative planifiée à l'API List synchrone d'Amazon S3. Vous pouvez configurer la fonction d'inventaire S3 pour fournir, chaque jour ou chaque semaine, un fichier de sortie au format CSV, ORC ou Parquet à partir de vos objets, et des métadonnées qui sont associées à ceux-ci, pour un compartiment S3 ou un préfixe. Vous pouvez simplifier et accélérer les flux de travail d'entreprise et les tâches de Big Data à l'aide de la fonction S3 Inventory. Vous pouvez utiliser la fonction S3 Inventory pour vérifier le chiffrement et l'état de la réplication de vos objets, afin de répondre aux besoins commerciaux, de conformité et de réglementation. Pour en savoir plus, consultez le guide de l'utilisateur d'Amazon S3 Inventory.

Question : Comment démarrer avec la fonction S3 Inventory ?

Vous pouvez utiliser la console de gestion AWS ou l'API PUT Bucket Inventory Configuration pour configurer un rapport d'inventaire quotidien ou hebdomadaire pour tous les objets de votre compartiment S3 ou un sous-ensemble des objets sous un préfixe partagé. Dans le cadre de la configuration, vous pouvez préciser un compartiment S3 de destination pour votre rapport d'inventaire S3, le format du fichier de sortie (CSV, ORC ou Parquet) et les métadonnées objet spécifiques nécessaires à votre application d'entreprise (par ex. : nom d'objet, taille, date de la dernière modification, classe de stockage, ID de version, marqueur de suppression, balise d'ancienne version, indicateur de chargement partitionné, état de la réplication ou état du chiffrement). Vous pouvez utiliser la fonction S3 Inventory comme saisie directe dans vos flux de travail d'application ou vos tâches Big Data. Vous pouvez également interroger la fonction S3 Inventory en utilisant le langage SQL standard avec Amazon Athena, Amazon Redshift Spectrum et d'autres outils comme Presto, Hive et Spark.

Pour en savoir plus, consultez le guide de l'utilisateur d'Amazon S3 Inventory.

Question : Comment l'utilisation de la fonction S3 Inventory m'est-elle facturée ?

Consultez la page de tarification Amazon S3 pour connaître la tarification de la fonction Inventory S3. Une fois que vous avez configuré le chiffrement à l'aide de SSE-KMS, vous encourez des frais KMS pour le chiffrement. Pour en savoir plus, consultez la page de tarification de KMS.

S3 Batch Operations

Question : Qu'est-ce que S3 Batch Operations ?

S3 Batch Operations (Opérations par lots) est une fonctionnalité que vous pouvez utiliser pour automatiser l'exécution d'une seule opération (comme copier un objet ou exécuter une fonction AWS Lambda) entre plusieurs objets. Avec S3 Batch Operations, vous pouvez, en seulement quelques clics, dans la console S3 ou dans une demande d'API unique, apporter des modifications à des milliards d'objets sans devoir écrire du code d'application personnalisé ou exécuter des clusters de calcul pour les applications de gestion du stockage. S3 Batch Operations n'administre pas seulement les opérations de stockage pour de nombreux objets ; il gère aussi les nouvelles tentatives, affiche la progression, envoie des notifications, fournit un rapport d'achèvement et il envoie des événements à AWS CloudTrail pour toutes les opérations effectuées sur vos objets cibles. S3 Batch Operations peut être utilisé depuis la console S3 ou via l'interface de ligne de commande et le kit SDK AWS. 

Pour en savoir plus, visitez la page de S3 Batch Operations ou le guide de l'utilisateur.

Question : Comment démarrer avec S3 Batch Operations ?

Vous pouvez démarrer avec S3 Batch Operations en accédant à la console Amazon S3, ou à l'aide de l'interface de ligne de commande ou du kit SDK AWS pour créer votre première tâche S3 Batch Operations. Une tâche S3 Batch Operations est constituée de la liste des objets sur lesquels agir et du type d'opération à effectuer (voir la liste complète d'opérations disponibles). Commencez par sélectionner un rapport S3 Inventory ou par fournir votre propre liste personnalisée d'objets sur lesquels S3 Batch Operations doit agir. Un rapport d'inventaire S3 Batch Operations est un fichier qui répertorie tous les objets stockés dans un compartiment ou un préfixe S3. Ensuite, vous choisissez parmi un ensemble d'opérations S3 prises en charge par S3 Batch Operations, par exemple, le remplacement d'ensembles de balises, la modification de listes ACL, la copie du stockage d'un compartiment vers un autre ou l'initiation d'une restauration depuis Glacier vers S3. Vous pouvez personnaliser vos tâches S3 Batch Operations avec des paramètres spécifiques comme des valeurs de balise, des octrois de liste ACL et une durée de restauration. Pour personnaliser encore davantage vos actions de stockage, vous pouvez écrire votre propre fonction Lambda et appeler ce code à l'aide de S3 Batch Operations.

Une fois que vous avez créé votre tâche S3 Batch Operations, S3 Batch Operations traitera votre liste d'objets et enverra la tâche vers l'état « en attente de conformation », le cas échéant. Une fois que vous avez confirmé les détails de la tâche, S3 Batch Operations lance l'exécution de l'opération que vous avez spécifiée. Vous pouvez consulter la progression de votre tâche par programme ou via la console S3, et, une fois les opérations terminées, recevoir des notifications d'achèvement et consulter le rapport de fin qui détaille les modifications apportées à votre stockage.

Si vous souhaitez en savoir plus sur S3 Batch Operations regardez les didacticiels et consultez la documentation.

S3 Object Lock

Question : Qu'est-ce qu'Amazon S3 Object Lock ?

Amazon S3 Object Lock est une fonctionnalité Amazon S3 qui empêche la version d'un objet d'être supprimée ou remplacée pendant une période de temps fixe ou indéfinie. Cette période vous permet d'appliquer des stratégies de conservation en tant que couche supplémentaire de protection des données ou à des fins de conformité réglementaire. Vous pouvez migrer des charges de travail depuis des systèmes WORM (Write Once Read Many, une seule écriture et plusieurs lectures) existants vers Amazon S3, et configurer S3 Object Lock aux niveaux de l'objet et du compartiment pour empêcher les suppressions de version d'objet avant les dates de fin de conservation définies ou indéfinies (dates de détention légale). La protection S3 Object Lock est conservée quelle que soit la classe de stockage de la version de l'objet lors des transitions de cycle de vie S3 entre les classes de stockage. 

Vous devez utiliser S3 Object Lock si vous avez des exigences réglementaires qui stipulent que vos données doivent avoir une protection WORM, ou si vous voulez ajouter une autre couche de protection aux données dans Amazon S3. S3 Object Lock peut vous aider à respecter des exigences réglementaires qui stipulent que les données doivent être stockées dans un format immuable, et peut également vous protéger contre la suppression accidentelle ou malveillante de données dans Amazon S3.

Pour en savoir plus, consultez le guide de l'utilisateur de S3 Object Lock.

Question : Comment Amazon S3 Object Lock fonctionne-il ?

Amazon S3 Object Lock empêche la suppression de la version d'un objet pendant la durée d'une période de conservation fixe ou indéfinie jusqu'à ce que la détention légale soit levée. S3 Object Lock vous permet de vous assurer que la version d'un objet reste immuable tant que la protection WORM s'applique. Vous pouvez appliquer la protection WORM en attribuant une date de fin de conservation ou une détention légale à la version d'un objet à l'aide du kit SDK AWS, de l'interface de ligne de commande, de l'API REST ou de la console de gestion S3. Vous pouvez appliquer des paramètres de conservation au sein d'une demande PUT, ou les appliquer à un objet existant après sa création.

La date de fin de conservation définit la durée pendant laquelle la version d'un objet reste immuable. Une fois qu'une date de fin de conservation a été attribuée à la version d'un objet, cet objet ne peut pas être modifié ou supprimé jusqu'à cette date. Si un utilisateur tente de supprimer un objet avant la date de fin de conservation, l'opération est refusée.

Sinon, vous pouvez rendre un objet immuable en appliquant une détention légale. Une détention légale empêche la modification ou la suppression indéfinie de la version d'un objet jusqu'à sa suppression explicite. Pour placer et supprimer des détentions légales, votre compte AWS doit avoir l'autorisation en écriture pour l'action PutObjectLegalHold. Une détention légale peut être appliquée à tout objet dans un compartiment avec S3 Object Lock, que cet objet soit soumis actuellement ou non à une protection WORM par une période de conservation.

S3 Object Lock peut être configuré dans deux modes. Lorsqu'ils sont déployés en mode de gouvernance, les comptes AWS avec des autorisations IAM spécifiques peuvent supprimer la protection WORM de la version d'un objet. Si vous avez besoin d'une immuabilité plus forte pour vous conformer à des réglementations, vous pouvez utiliser le mode de conformité. En mode de conformité, la protection WORM ne peut être supprimée par aucun utilisateur, y compris le compte racine.

Question : Quels services de stockage électronique AWS ont été évalués selon la réglementation sur les services financiers ?

Pour les clients du secteur des services financiers, S3 Object Lock offre un support supplémentaire aux courtiers-négociants qui doivent conserver les enregistrements dans un format non effaçable et non réinscriptible pour satisfaire aux exigences des réglementations SEC 17a-4(f), FINRA 4511 ou CFTC 1.31. Vous pouvez facilement définir le délai de conservation des enregistrements pour conserver les archives réglementaires sous leur forme originale pendant la durée requise, et placer des suspensions juridiques pour conserver indéfiniment les données tant que la suspension n'est pas supprimée.

Question : Quelle documentation AWS soutient les exigences SEC 17a-4(f)(2)(i) et CFTC 1.31(c) pour notifier mon organisme de réglementation ?

Notifiez l'organisme de réglementation de votre choix sur l'utilisation d'Amazon S3 pour le stockage électronique, avec une copie de l'évaluation Cohasset. Aux fins de ces exigences, AWS n'est pas un tiers désigné. Veillez à sélectionner un tiers désigné et à inclure ces informations dans votre notification à l'organisme de réglementation.

Métriques CloudWatch relatives à S3

Question : Comment démarrer avec les métriques CloudWatch relatives à S3 ?

Vous pouvez utiliser la console de gestion AWS pour activer la génération de métriques CloudWatch d'une minute pour votre compartiment S3 ou configurer des filtres pour les métriques à l'aide d'un préfixe ou d'une balise d'objet. Vous pouvez également appeler l'API S3 PUT Bucket Metrics pour activer et configurer la publication de métriques de stockage S3. Les métriques de demande CloudWatch sont disponibles dans CloudWatch dans les 15 minutes suivant leur activation. Les métriques de stockage CloudWatch sont activées par défaut pour tous les compartiments et rapportés une fois par jour. En savoir plus sur les métriques Amazon CloudWatch pour Amazon S3.

Question : Quelles alertes puis-je définir pour mes métriques de stockage ?

Vous pouvez utiliser CloudWatch pour définir des seuils pour n'importe quel décompte, minuteur ou taux de métriques de stockage et déclencher une action en cas de dépassement des seuils. Par exemple, vous pouvez définir un seuil pour le pourcentage de réponses d'erreur 4xx et, lorsqu'au moins 3 points de données dépassent le seuil, vous pouvez déclencher une alarme CloudWatch pour avertir un ingénieur DevOps.

Q : Comment l'utilisation des métriques CloudWatch relatives à S3 m'est-elle facturée ?

Les métriques de stockage CloudWatch sont fournies gratuitement. Les métriques CloudWatch relatives à des demandes sont facturées comme les métriques personnalisées pour Amazon CloudWatch. Consultez la page relative à la tarification d'Amazon CloudWatch pour obtenir des informations générales sur la tarification des métriques CloudWatch relatives à S3.

Gestion du cycle de vie S3

Question : Qu'est-ce que la gestion du cycle de vie S3 ?

La gestion du cycle de vie S3 permet de définir le cycle de vie de votre objet avec une stratégie prédéfinie et de réduire vos frais de stockage. Vous pouvez définir une stratégie de transition de cycle de vie afin de faire automatiquement migrer des objets présents dans la classe de stockage S3 Standard vers les classes de stockage S3 Standard – Accès peu fréquent, S3 Unizone – Accès peu fréquent et/ou S3 Glacier en fonction de l'ancienneté des données. Vous pouvez également définir des stratégies d'expiration du cycle de vie pour supprimer automatiquement les objets en fonction de leur ancienneté. Vous pouvez définir une stratégie d'expiration des chargements partitionnés afin de définir une date d'expiration pour les chargements partitionnés incomplets en fonction de leur ancienneté.

Pour en savoir plus, consultez le guide de l'utilisateur du cycle de vie S3.

Question : Comment définir une stratégie de gestion du cycle de vie S3 ?

Vous pouvez définir et administrer des stratégies de gestion du cycle de vie dans la console de gestion AWS, l'API REST S3, les kits SDK AWS ou la CLI (interface de ligne de commande) AWS. Vous pouvez spécifier la stratégie au niveau du préfixe ou du compartiment.

Question : comment exploiter la stratégie d'Amazon S3 relative au cycle de vie pour réduire mes coûts de stockage dans Amazon S3 ?

Avec les stratégies de cycle de vie Amazon S3, vous pouvez configurer vos objets pour qu'ils migrent depuis la classe de stockage S3 Standard vers la classe de stockage S3 Standard – Accès peu fréquent ou S3 Unizone – Accès peu fréquent, et/ou pour qu'ils soient archivés dans S3 Glacier. Vous pouvez également définir une stratégie de cycle de vie S3 visant à supprimer des objets après un délai bien précis. Vous pouvez utiliser les options d'automatisation basées sur ces stratégies afin de réduire rapidement et facilement vos coûts de stockage, mais également pour gagner du temps. Dans chaque règle, vous pouvez définir un préfixe, une période, une transition vers S3 Standard – Accès peu fréquent, S3 Unizone – Accès peu fréquent ou S3 Glacier, et/ou un délai d'expiration. Par exemple, vous pouvez créer une règle afin que tous les objets dotés du préfixe commun « logs/ » soient archivés dans S3 Glacier 30 jours après leur création et expirent après 365 jours. Vous pouvez également créer une règle distincte spécifiant que seuls les objets dotés du préfixe « backups/ » expirent 90 jours après leur création. Les stratégies de cycle de vie S3 s'appliquent aux objets S3 nouveaux et existants. Ainsi, vous pouvez optimiser le stockage et réaliser des économies maximales en termes de coûts pour toutes les données existantes et les nouvelles données placées dans S3, sans avoir besoin d'effectuer manuellement la vérification et la migration des données. Au sein d'une règle de cycle de vie, le champ de préfixe identifie l'objet auquel la règle s'applique. Pour appliquer la règle à un objet individuel, spécifiez le nom de clé. Pour appliquer la règle à un ensemble d'objets, spécifiez leur préfixe commun (e.g. « logs/ »). Vous pouvez définir une action de transition pour que vos objets soient archivés, et une action d'expiration pour les supprimer. Pour définir une période, indiquez la date de création (par ex. : 31 janvier 2015) ou précisez le délai après lequel vous souhaitez que vos objets soient archivés ou supprimés, en spécifiant un nombre de jours à compter de la date de création (par ex. : 30 jours). Vous pouvez créer plusieurs règles pour différents préfixes.

Q : Comment est facturée l'utilisation de la gestion du cycle de vie S3 ?

Aucun frais supplémentaire n'est facturé pour la définition et l'application de stratégies de gestion du cycle de vie. Une demande de transition est facturée par objet lorsqu'un objet devient éligible à une transition en fonction de la règle de cycle de vie. Consultez la page Tarification S3 pour en savoir plus sur la tarification.

Question : Pourquoi devrais-je utiliser une stratégie de cycle de vie S3 pour gérer l'expiration des chargements partitionnés incomplets ?

La stratégie de gestion du cycle de vie S3 gérant l'expiration des chargements partitionnés incomplets vous permet de faire des économies en limitant la durée de stockage des chargements partitionnés incomplets. Par exemple, si votre application charge plusieurs composants d'objet en plusieurs parties sans jamais les exécuter, vous serez tout de même facturé pour leur stockage. Cette stratégie réduit vos frais de stockage S3 en éliminant automatiquement les chargements partitionnés incomplets et l'espace de stockage associé après un nombre de jours prédéfini.

En savoir plus sur l'utilisation des cycles de vie S3 pour gérer l'expiration des chargements partitionnés »

Analyses et informations sur le stockage

Question : Quelles fonctionnalités sont disponibles pour analyser mon utilisation du stockage sur Amazon S3 ?

S3 Storage Lens offre une visibilité à l'échelle de l'organisation sur l'utilisation du stockage d'objets et les tendances de l'activité. Il formule des recommandations concrètes pour améliorer la rentabilité et appliquer les bonnes pratiques de protection des données. S3 Storage Class Analysis vous permet de surveiller les modèles d'accès à travers les objets pour vous aider à décider quand transférer les données vers la bonne classe de stockage pour optimiser les coûts. Vous pouvez alors utiliser ces informations pour configurer une stratégie de Cycle de vie S3 et opérer le transfert de données. Amazon S3 Inventory fournit un rapport de vos objets et de leurs métadonnées correspondantes sur une base quotidienne ou hebdomadaire pour un compartiment ou un préfixe S3. Ce rapport peut être utilisé pour répondre aux besoins métier, de conformité et réglementaires en vérifiant le chiffrement et l'état de la réplication de vos objets.

Question : Qu'est-ce qu'Amazon S3 Storage Lens ?

Amazon S3 Storage Lens offre une visibilité à l'échelle de l'organisation sur l'utilisation du stockage d'objets et les tendances de l'activité, ainsi que des recommandations exploitables pour améliorer la rentabilité et appliquer les meilleures pratiques en matière de protection des données. Storage Lens propose un tableau de bord interactif comprenant une vue unique de votre utilisation et de votre activité de stockage d'objets sur des dizaines ou des centaines de comptes de votre organisation, et vous permet d'effectuer des analyses en profondeur pour générer des informations au niveau du compte, du compartiment ou même du préfixe. Cela inclut des métriques telles que les octets, le nombre d'objets et les demandes, ainsi que des métriques détaillant l'utilisation des fonctionnalités S3, telles que le nombre d'objets chiffrés et le nombre de marqueurs de suppression. S3 Storage Lens fournit également des recommandations contextuelles pour trouver des moyens de réduire les coûts de stockage et appliquer les meilleures pratiques en matière de protection des données sur des dizaines ou des centaines de comptes et de compartiments.

Pour en savoir plus, consultez le guide de l'utilisateur de S3 Storage Lens.

Question : Comment fonctionne S3 Storage Lens ?

S3 Storage Lens regroupe les métriques d'utilisation et d'activité de votre stockage sur une base quotidienne pour les afficher dans le tableau de bord interactif de S3 Storage Lens, ou les rendre disponibles sous forme d'export de métriques au format de fichier CVS ou Parquet. Un tableau de bord par défaut est créé automatiquement pour vous au niveau du compte et vous pouvez créer des tableaux de bord personnalisés supplémentaires adaptés à votre organisation AWS ou à des comptes, régions ou compartiments spécifiques. Lors de la configuration de votre tableau de bord, vous pouvez utiliser la sélection de métriques par défaut ou choisir de recevoir des métriques et des recommandations avancées moyennant un coût supplémentaire. S3 Storage Lens fournit des recommandations contextuelles avec des métriques de stockage dans le tableau de bord, afin de vous permettre de prendre certaines mesures pour optimiser votre stockage en fonction des métriques.

Question : À quelles questions clés les métriques de S3 Storage Lens peuvent-elles répondre ?

Le tableau de bord S3 Storage Lens est organisé autour de trois principaux types de questions portant sur votre stockage auxquelles vous pouvez répondre. Dans la vue Résumé, les questions de niveau supérieur liées à l'utilisation globale du stockage et aux tendances de l'activité peuvent être consultées. Par exemple, « à quelle vitesse mon nombre global d'octets et de demandes augmente-t-il au fil du temps ? » Dans la vue Rentabilité, vous pouvez explorer les questions liées à la réduction des coûts de stockage. Par exemple, « puis-je économiser de l'argent en conservant moins de versions non actuelles ? » Enfin, dans la vue Protection des données, vous pouvez répondre à des questions sur la sécurisation de vos données. Par exemple, « Mon stockage est-il protégé contre toute suppression accidentelle ou intentionnelle ? » Chacune de ces questions représente un premier niveau d'enquête qui conduirait probablement à une analyse approfondie.

Question : Quelles métriques sont disponibles dans S3 Storage Lens ?

S3 Storage Lens contient plus de 30 métriques, regroupées par métriques d'utilisation (résultant d'un instantané quotidien des objets dans le compte) et métriques d'activité (qui suivent les demandes et les octets récupérés). Les métriques sont organisées en trois catégories principales : résumé, rentabilité et protection des données. De plus, des métriques dérivées, combinant toutes les métriques de base, sont également fournies. Par exemple, la métrique « Taux de récupération » est calculée en divisant le « Nombre d'octets téléchargés » par le « Nombre total d'octets ». Pour obtenir la liste complète des métriques, veuillez consulter la documentation de S3 Storage Lens.

Question : Quelles sont les options de configuration de mon tableau de bord ?

Un tableau de bord par défaut est configuré automatiquement pour l'ensemble de votre compte, et vous avez la possibilité de créer des tableaux de bord personnalisés supplémentaires qui peuvent être étendus à votre organisation AWS, à des régions spécifiques ou à des compartiments au sein d'un compte. Vous pouvez configurer plusieurs tableaux de bord personnalisés. Cela peut être utile si vous avez besoin d'une séparation logique dans votre analyse de stockage, telle que la segmentation sur des compartiments pour représenter diverses équipes internes. Par défaut, votre tableau de bord recevra les métriques gratuites de S3 Storage Lens, mais vous avez la possibilité d'effectuer une mise à niveau pour recevoir les métriques et recommandations avancées de S3 Storage Lens. En outre, pour chaque tableau de bord, vous pouvez activer l'exportation des métriques, avec des options supplémentaires pour spécifier le compartiment de destination et le type de chiffrement.

Question : Quelle est la quantité de données historiques disponibles dans S3 Storage Lens ?

Pour les métriques affichées dans le tableau de bord interactif, les métriques gratuites de Storage Lens conservent 14 jours de données historiques, et les métriques et recommandations avancées conservent 15 mois de données historiques. Pour l'exportation de métriques facultative, vous pouvez configurer la période de conservation de votre choix et des frais de stockage S3 standard s'appliqueront.

Question : Comment S3 Storage Lens me sera-t-il facturé ?

S3 Storage Lens propose deux niveaux de métriques. Les métriques gratuites sont disponibles sans frais supplémentaires pour tous les clients. Les prix détaillés des métriques et recommandations avancées de S3 Storage Lens sont disponibles sur la page de tarification de S3. Avec les métriques gratuites de S3 Storage Lens, vous recevez des métriques d'utilisation au niveau du compartiment et fournissez 14 jours de données historiques dans le tableau de bord. Avec les métriques et recommandations avancées de S3 Storage Lens, vous recevez des métriques d'utilisation au niveau du préfixe, des métriques d'activité, des recommandations et vous fournissez 15 mois de données historiques dans le tableau de bord.

Question : Quelle est la différence entre S3 Storage Lens et S3 Inventory ?

S3 Inventory fournit une liste de vos objets et leurs métadonnées correspondantes pour un compartiment S3 ou un préfixe partagé, qui peuvent être utilisés pour effectuer une analyse de votre stockage au niveau de l'objet. S3 Storage Lens fournit des métriques agrégées par organisation, compte, région, classe de stockage, compartiment et niveau de préfixe, ce qui offre une meilleure visibilité de votre stockage à l'échelle de l'organisation.

Question : Quelle est la différence entre S3 Storage Lens et S3 Storage Class Analysis (SCA) ?

S3 Storage Class Analysis fournit des recommandations pour une classe de stockage optimale en créant des groupes d'âges d'objet basés sur des modèles d'accès au niveau de l'objet dans un compartiment / préfixe / balise pour les 30 à 90 jours précédents. S3 Storage Lens fournit des recommandations quotidiennes au niveau de l'organisation sur les moyens d'améliorer la rentabilité et d'appliquer les meilleures pratiques de protection des données, avec des recommandations granulaires supplémentaires par compte, région, classe de stockage, compartiment ou préfixe.  

Analyse des classes de stockage

Question : Qu'est-ce que la fonction d'analyse des classes de stockage ?

Avec la fonction d'analyse des classes de stockage, vous pouvez analyser les modèles d'accès au stockage afin de déterminer la classe de stockage la mieux adaptée à votre stockage. Cette fonctionnalité d'analyse S3 détecte automatiquement les modèles d'accès peu fréquents pour vous aider à transférer vos données vers la classe de stockage S3 standard – Accès peu fréquent. Vous pouvez configurer une stratégie d'analyse des classes de stockage de façon à surveiller un compartiment complet, un préfixe ou une balise d'objet. Lorsqu'un modèle d'accès peu fréquent est observé, vous pouvez facilement créer une nouvelle stratégie de cycle de vie S3 en fonction des résultats. La fonction d'analyse des classes de stockage vous fournit également des affichages quotidiens sur votre utilisation du stockage dans la console de gestion AWS. Vous pouvez également exporter un rapport vers un compartiment S3 afin de l'analyser à l'aide des outils d'informatique décisionnelle de votre choix tels qu'Amazon QuickSight.

Pour en savoir plus et démarrer, visitez le guide de l'utilisateur d'analyse des classes de stockage S3.

Question : À quelle fréquence la fonction d'analyse des classes de stockage est-elle mise à jour ?

L'analyse des classes de stockage est mise à jour quotidiennement dans la console de gestion S3, mais les recommandations initiales pour les transitions de classes de stockage sont données après 30 jours.

Exécution de requêtes sur place

Question : Qu'est-ce que la fonctionnalité « Exécution de requêtes sur place » ?

Amazon S3 permet aux clients d'exécuter des requêtes avancées sur les données stockées sans devoir déplacer ces dernières dans une plate-forme d'analyse distincte. La capacité à effectuer des requêtes sur place sur ces données dans Amazon S3 peut améliorer considérablement les performances et réduire les coûts pour les solutions d'analyse utilisant S3 en tant que lac de données. S3 propose plusieurs options d'exécution de requêtes sur place, notamment S3 Select, Amazon Athena et Amazon Redshift Spectrum. Vous pouvez ainsi choisir celle qui s'adapte le mieux à votre cas. Vous pouvez même utiliser Amazon S3 Select avec AWS Lambda pour développer des applications sans serveur capables de tirer parti des capacités de traitement sur place offertes par S3 Select.

Q : Qu'est-ce que S3 Select ?

S3 Select est une fonctionnalité d'Amazon S3 qui vous permet d'extraire facilement des données spécifiques du contenu d'un objet à l'aide de directives SQL simples, sans avoir besoin d'extraire la totalité de l'objet. S3 Select simplifie et permet d'améliorer les performances d'analyse et de filtrage du contenu d'objets en un plus petit ensemble de données ciblé jusqu'à 400 %. Avec S3 Select, vous pouvez également mener des enquêtes opérationnelles sur des fichiers journaux présents dans Amazon S3, sans avoir besoin d'exploiter ni de gérer un cluster de calcul. 

Vous pouvez utiliser S3 Select pour extraire un sous-ensemble de données à l'aide de clauses SQL, comme SELECT et WHERE, depuis des objets stockés au format CSV, JSON ou Apache Parquet. Cela fonctionne également avec des objets compressés au format GZIP ou BZIP2 (pour les objets CSV et JSON uniquement), ainsi que des objets chiffrés côté serveur.

Vous pouvez utiliser S3 Select avec AWS Lambda pour développer des applications sans serveur utilisant S3 Select pour extraire facilement et efficacement des données depuis Amazon S3 plutôt que d'extraire et de traiter un objet entier. Vous pouvez également utiliser S3 Select avec des cadres Big Data, comme Presto, Apache Hive et Apache Spark pour scanner et filtrer les données dans Amazon S3.

Pour en savoir plus, consultez le guide de l'utilisateur de S3 Select.

Question : Qu'est-ce qu'Amazon Athena ?

Amazon Athena est un service de requêtes interactif qui facilite l'analyse des données dans Amazon S3 grâce aux requêtes SQL standard. Athena ne requiert aucun serveur et vous pouvez commencer à analyser les données immédiatement, sans avoir à configurer ni gérer d'infrastructure. Vous n'avez même pas à charger vos données dans Athena car le service fonctionne directement avec les données stockées dans une classe de stockage S3. Pour démarrer, connectez-vous à la console de gestion Athena, définissez votre schéma et lancez la requête. Amazon Athena utilise Presto, avec la prise en charge complète de la syntaxe SQL standard, et fonctionne avec de nombreux formats de données tels que CSV, JSON, ORC, Apache Parquet et Avro. Athena est la solution idéale pour exécuter des requêtes ponctuelles rapides et s'intègre à Amazon QuickSight pour faciliter l'affichage des données? Il peut également gérer des analyses complexes, et notamment des jonctions, des fonctions de fenêtrage et des tableaux.

Question : Qu'est-ce qu'Amazon Redshift Spectrum ?

Amazon Redshift Spectrum est une fonction d'Amazon Redshift qui vous permet d'exécuter des requêtes sur des exaoctets de données non structurées dans Amazon S3, sans qu'aucun chargement ou ETL soit requis. Lorsque vous envoyez une requête, elle est dirigée vers le point de terminaison SQL d'Amazon Redshift, qui génère et optimise un plan de requête. Amazon Redshift détermine si les données sont stockées en local ou dans Amazon S3, génère un plan pour réduire le volume de données d'Amazon S3 qui doivent être lues et demande à des programmes d'exécution Amazon Redshift Spectrum au sein d'un groupe de ressources partagées de lire et traiter les données en provenance d'Amazon S3.

Le cas échéant, Redshift Spectrum peut déployer des milliers d'instances pour que les requêtes soient exécutées rapidement, quel que soit le volume de données. Par ailleurs, vous pouvez utiliser exactement la même syntaxe SQL pour les données d'Amazon S3 que celle que vous utilisez actuellement pour vos requêtes Amazon Redshift, et vous connecter au même point de terminaison Amazon Redshift à l'aide des mêmes outils d'informatique décisionnelle. Redshift Spectrum vous permet de séparer les ressources de stockage et de calcul, et de les dimensionner indépendamment les unes des autres. Vous pouvez configurer autant de clusters Amazon Redshift que nécessaire afin de lancer des demandes sur votre lac de données Amazon S3, profitant ainsi de la haute disponibilité et de la simultanéité illimitée. Redshift Spectrum vous permet de stocker les données où vous le souhaitez, dans n'importe quel format et prêtes à être traitées quand vous en avez besoin.

Réplication

Q : qu'est-ce que la réplication Amazon S3 ?

La réplication Amazon S3 permet la copie automatique et asynchrone d'objets dans les compartiments Amazon S3. Les compartiments configurés pour la réplication d'objets peuvent appartenir au même compte AWS ou à des comptes différents. Vous pouvez copier des objets sur un ou plusieurs compartiments de destination entre différentes régions AWS (S3 Cross-Region Replication) ou au sein de la même région AWS (S3 Same-Region Replication). Pour en savoir plus, consultez le guide de l'utilisateur de S3 Replication.

Question : Qu'est-ce que la réplication entre régions Amazon S3 (CRR) ?

La réplication entre régions (CRR) est une fonctionnalité Amazon S3 qui réplique automatiquement les données entre des compartiments de régions AWS différentes. Avec la réplication entre régions, vous pouvez configurer la réplication au niveau d'un compartiment, au niveau d'un préfixe partagé ou au niveau d'un objet à l'aide de balises d'objet S3. Vous pouvez utiliser cette fonctionnalité pour fournir un accès aux données à latence plus faible dans diverses régions géographiques. La réplication entre régions peut également être utile si vous devez répondre aux exigences de conformité concernant le stockage de copies de données à plusieurs centaines de kilomètres l'une de l'autre. La fonctionnalité CRR permet de changer de propriétaire de compte pour les objets répliqués afin de protéger les données contre une suppression accidentelle. Pour en savoir plus, consultez le guide de l'utilisateur de S3 CRR.

Question : Qu'est-ce que la réplication au sein d'une même région Amazon S3 (SRR) ?

La réplication au sein d'une même région (SRR) est une fonction Amazon S3 qui réplique automatiquement les données dans la même région AWS. Avec SRR, vous pouvez configurer la réplication au niveau d'un compartiment, au niveau d'un préfixe partagé ou au niveau d'un objet à l'aide de balises d'objet S3. Vous pouvez utiliser SRR pour créer une ou plusieurs copies de vos données dans la même région AWS. SRR vous aide à répondre aux exigences de souveraineté et de conformité des données en conservant une copie de vos données dans un compte AWS distinct dans la même région que l'original. Cette fonctionnalité permet de changer de propriétaire de compte pour les objets répliqués afin de protéger les données contre une suppression accidentelle. Vous pouvez également utiliser SRR pour agréger aisément les journaux de différents compartiments S3 pour le traitement dans la région ou pour configurer la réplication dynamique entre les environnements de test et de développement. Pour en savoir plus, consultez le guide de l'utilisateur de S3 SRR.

Question : Comment activer la réplication Amazon S3 (réplication entre régions et réplication au sein d'une même région) ?

La réplication Amazon S3 (CRR et SRR) est configuré au niveau d'un compartiment S3, au niveau d'un préfixe partagé ou au niveau d'un objet à l'aide de balises d'objet S3. Vous ajoutez une configuration de réplication sur votre compartiment source en spécifiant un compartiment de destination dans une autre région ou la même région AWS pour la réplication.

Vous pouvez utiliser la console de gestion S3, l'API, la CLI AWS, les kits SDK AWS ou AWS CloudFormation pour activer la réplication. La gestion des versions doit être activée sur les compartiments source et de destination pour permettre la réplication. Pour en savoir plus, consultez la section Présentation de la configuration de la réplication dans le Guide du développeur Amazon S3.

Question : Puis-je utiliser la réplication S3 (CRR et SRR) avec les règles du cycle de vie S3 ?

Avec la réplication S3 (CRR et SRR), vous pouvez établir des règles de réplication pour faire des copies de vos objets dans une autre classe de stockage, dans la même région ou dans une autre. Les actions du cycle de vie ne sont pas répliquées et si vous voulez que la même configuration du cycle de vie soit appliquée aux compartiments source et destination, activez la même configuration du cycle de vie sur les deux. 

Par exemple, vous pouvez configurer une règle de cycle de vie pour faire migrer des données depuis la classe de stockage S3 Standard vers la classe de stockage S3 Standard – Accès peu fréquent ou S3 Unizone – Accès peu fréquent ou pour archiver des données dans S3 Glacier dans le compartiment de destination.

Pour plus d'informations sur la configuration et la réplication du cycle de vie, reportez-vous au Guide du développeur de S3 Replication

Question : Puis-je utiliser S3 Replication pour répliquer vers plusieurs compartiments de destination ?

Oui. S3 Replication permet aux clients de répliquer leurs données vers plusieurs compartiments de destination dans la même région AWS ou dans différentes régions AWS. Lors de la configuration, spécifiez simplement le nouveau compartiment de destination dans votre configuration de réplication existante, ou créez une configuration de réplication avec plusieurs compartiments de destination. Pour chaque nouvelle destination que vous spécifiez, vous avez la possibilité de choisir la classe de stockage du compartiment de destination, le type de chiffrement, les métriques et les notifications de réplication, S3 Replication Time Control (RTC) et d'autres propriétés.

Question : Puis-je utiliser S3 Replication pour configurer la réplication bidirectionnelle entre les compartiments S3 ?

Oui. Pour configurer la réplication bidirectionnelle, vous créez une règle de réplication du compartiment A vers le compartiment B et vous configurez une autre règle de réplication du compartiment B vers le compartiment A. Assurez-vous d'activer la synchronisation des modifications de réplica sur les deux compartiments A et B pour répliquer les modifications des métadonnées de réplica comme les listes de contrôle d'accès (ACL) à l'objet, les identifications d'objet ou les verrouillages d'objet sur les objets répliqués.

Q : Puis-je utiliser la réplication entre plusieurs comptes AWS afin de mettre en place une protection contre la suppression accidentelle ou malveillante ?

Oui. Pour CRR et SRR, vous pouvez configurer la réplication entre régions avec plusieurs comptes AWS afin de stocker vos données répliquées dans un autre compte situé dans la région cible. Vous pouvez utiliser le remplacement de propriété dans votre configuration de réplication pour gérer une pile de propriété distincte entre la source et la destination, et accorder la propriété du compte de destination au stockage dupliqué.

Question : Mes balises d'objet seront-elles répliquées si j'utilise la réplication entre régions ?

Les balises d'objet peuvent être répliquées d'une région AWS à l'autre grâce à la réplication entre régions. Pour les clients pour lesquels la réplication entre régions est déjà activée, de nouvelles autorisations sont nécessaires pour la réplication des balises. Pour plus d'informations sur la configuration de la réplication entre régions, consultez la section Comment configurer la réplication entre régions du Guide du développeur Amazon S3.

Question : Puis-je répliquer des marqueurs de suppression d'un compartiment vers un autre ?

Oui, vous pouvez répliquer les marqueurs de suppression de la source à la destination si vous avez activé la réplication des marqueurs de suppression dans votre configuration de réplication. Lorsque vous répliquez les marqueurs de suppression, Amazon S3 se comporte comme si l'objet était supprimé dans les deux compartiments. Vous pouvez activer la réplication des marqueurs de suppression pour une règle de réplication nouvelle ou existante. Vous pouvez appliquer la réplication du marqueur de suppression à l'ensemble du compartiment ou aux objets Amazon S3 qui ont un préfixe spécifique, avec des règles de réplication basées sur le préfixe. La réplication Amazon S3 ne prend pas en charge la réplication du marqueur de suppression pour les règles de réplication basées sur les balises d'objets. Pour en savoir plus sur l'activation de la réplication des marqueurs de suppression, consultez Réplication des marqueurs de suppression d'un compartiment vers un autre.

Question : Puis-je répliquer des données à partir d'autres régions AWS vers la Chine ? Un client peut-il répliquer un compartiment d'une région de Chine en dehors des régions de Chine?

Non, la réplication Amazon S3 n'est pas disponible entre les régions AWS Chine et les régions AWS en dehors de la Chine. Vous ne pouvez effectuer de réplication que dans les régions de Chine.

Q : Quelle est la tarification pour la réplication de données entre comptes ?

S3 Replication permet de configurer une réplication inter-comptes dans laquelle les compartiments source et de destination appartiennent à des comptes AWS différents. À l'exclusion du stockage S3 et des frais d'extraction applicables, les clients paient les requêtes PUT de réplication et les transferts OUT de données interrégionaux entre S3 et votre région de destination lorsqu'ils utilisent S3 Replication. Si vous avez activé S3 Replication Time Control (S3 RTC) sur vos règles de réplication, vous remarquerez un transfert OUT de données différent et des frais de requête PUT de réplication spécifiques à S3 RTC. Pour la réplication inter-comptes, le compte source paie tous les transferts de données (S3 RTC et S3 CRR) tandis que le compte de destination paie pour les requêtes PUT de réplication. Les frais de transfert de données ne s'appliquent qu'à S3 Cross Region Replication (S3 CRR) et S3 Replication Time Control (S3 RTC). Il n'y a aucun frais de transfert de données pour S3 Same Region Replication (S3 SRR). Rendez-vous sur la page de tarification S3 pour obtenir davantage de détails sur la tarification de S3 Replication.

S3 Replication Time Control

Question : Qu'est-ce que la fonction Amazon S3 Replication Time Control ?

Amazon S3 Replication Time Control offre des performances de réplication prévisibles et vous aide à répondre aux exigences de conformité ou de l'entreprise. S3 Replication Time Control est conçu pour répliquer la plupart des objets en quelques secondes, 99 % des objets en l'espace de 5 minutes, et 99,99 % des objets en l'espace de 15 minutes. S3 Replication Time Control est soutenu par un Contrat de niveau de service (SLA) qui prévoit que 99,9 % des objets seront répliqués dans les 15 minutes pour chaque paire de régions durant chaque mois de facturation. Replication Time fonctionne avec toutes les fonctionnalités de réplication S3. Pour en savoir plus, consultez le Guide du développeur de réplication.

Question : Comment activer Amazon S3 Replication Time Control ?

Amazon S3 Replication Time Control est proposé en tant qu'option pour chaque règle de réplication. Vous pouvez créer une nouvelle stratégie S3 Replication avec S3 Replication Time Control ou activer cette fonctionnalité sur une politique existante.

Vous pouvez utiliser la console de gestion S3, l'API, la CLI AWS, les kits SDK AWS ou AWS CloudFormation pour configurer la réplication. Pour en savoir plus, consultez la section Vue d'ensemble de la configuration de la réplication dans le Guide du développeur Amazon S3.

Question : Que sont les métriques et les événements de réplication Amazon S3 ?

Les métriques et événements de la réplication Amazon S3 fournissent une visibilité sur la réplication Amazon S3. Avec les métriques de réplication S3, vous pouvez surveiller le nombre total d'opérations et la taille des objets en attente de réplication, ainsi que la latence de réplication entre les compartiments sources et de destination pour chaque règle de réplication S3. Les paramètres de réplication sont disponibles via la console de gestion Amazon S3 et via Amazon CloudWatch. Les événements de réplication S3 vous informent des échecs de réplication afin que vous puissiez rapidement diagnostiquer et corriger les problèmes. Si le contrôle du délai de réplication S3 (S3 RTC) est activé, vous recevez des notifications lorsqu'un objet prend plus de 15 minutes à se répliquer, et lorsque cet objet se réplique avec succès vers leur destination. Comme les autres événements Amazon S3, les événements de réplication S3 sont disponibles via Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) ou AWS Lambda.

Question : Comment activer les métriques et événements Amazon S3 Replication ?

Les métriques et les événements d'Amazon S3 Replication peuvent être activés pour chaque règle de réplication nouvelle ou existante, et sont activés par défaut pour les règles S3 Replication Time Control. Vous pouvez accéder aux métriques S3 Replication via la console de gestion Amazon S3 et Amazon CloudWatch. Comme les autres événements Amazon S3, les événements de réplication S3 sont disponibles via Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) ou AWS Lambda. Pour en savoir plus, consultez Surveillance de la progression avec des métriques de réplication et des notifications d'événements Amazon S3 dans le Guide du développeur Amazon S3.

Question : Qu'est-ce que l'Accord sur les niveaux de service du contrôle du délai de réplication Amazon S3 ?

Le contrôle du temps de réplication Amazon S3 est conçu pour répliquee 99,99 % de vos objets en 15 minutes et il est soutenu par un contrat de niveau de service. Si moins de 99,9 % de vos objets sont répliqués en 15 minutes pour chaque paire de régions de réplication au cours d'un cycle de facturation mensuel, le SLA S3 RTC prévoit un crédit de service sur tout objet dont la réplication a duré plus de 15 minutes. Le crédit de service couvre un pourcentage de tous les frais liés à la réplication associés aux objets qui n'ont pas respecté le SLA, y compris les frais RTC, la bande passante de réplication et les frais de requête, ainsi que le coût associé au stockage de votre réplica dans la région de destination dans le cycle de facturation mensuel affecté. Pour en savoir plus, consultez l'entente de niveau de service de S3 Replication Time Control.

Q : quelle est la tarification de S3 Replication et de S3 Replication Time Control ?

Pour S3 Replication (Réplication inter-régionale et Réplication au sein de la même Région), vous payez les frais S3 pour le stockage dans la classe de stockage S3 de destination sélectionnée, les frais de stockage pour la copie principale, les requêtes PUT de réplication et les frais applicables d'extraction du stockage d'accès peu fréquent. Pour l'option CRR, vous payez également pour les transferts OUT de données inter-régionaux depuis S3 vers votre région de destination. Les métriques S3 Replication sont facturées au même tarif que les métriques personnalisées Amazon CloudWatch. De plus, lorsque vous utilisez S3 Replication Time Control, vous payez également des frais de transfert de données Replication Time Control. Pour plus d'informations, veuillez consulter la page de tarification Amazon S3.

Si l'objet source est chargé à l'aide de la fonctionnalité de chargement en plusieurs composants, alors il est répliqué et l'on conserve à la fois le nombre de composants et la taille de l'objet. Par exemple, un objet de 100 Go chargé à l'aide de la fonctionnalité de chargement en plusieurs composants (800 composants de 128 Mo chacun) entraîne des frais correspondant à 802 demandes (800 demandes de chargement de composant + 1 demande de lancement de téléchargement en plusieurs composants + 1 demande de fin de téléchargement en plusieurs composants) pour sa réplication. Cela entraîne des frais de demande atteignant 0,00401 USD (802 demandes x 0,005 USD par 1 000 demandes), (si la réplication a eu lieu entre des régions AWS différents) ainsi que 2 USD (0,02 USD par Go transféré x 100 Go) pour le transfert inter-régional. Après la réplication, vous payez des frais de stockage pour les 100 Go basés sur la région de destination.

Points d'accès multi-régionaux S3

Q : que sont les points d'accès multi-régionaux S3 ?

Les points d'accès multi-régionaux Amazon S3 accélèrent les performances jusqu'à 60 % lors de l'accès à des ensembles de données répliqués dans plusieurs Régions AWS. Basés sur AWS Global Accelerator, les points d'accès multi-régionaux S3 prennent en compte des facteurs tels que la congestion du réseau et l'emplacement de l'application d'origine de la requête pour acheminer dynamiquement vos requêtes sur le réseau AWS vers la copie de vos données présentant la plus faible latence. Ce routage automatique vous permet de profiter de l'infrastructure mondiale d'AWS tout en conservant une architecture d'application simple.

Q : quels avantages entraîne l'utilisation des points d'accès multi-régionaux S3 ?

Les points d'accès multi-régionaux S3 accélèrent et simplifient le stockage pour vos applications multi-régionales. En acheminant dynamiquement les requêtes S3 vers un ensemble de données répliquées, les points d'accès multi-régionaux S3 réduisent la latence des requêtes de sorte que les applications s'exécutent jusqu'à 60 % plus rapidement. De plus, vous pouvez tirer parti de l'infrastructure mondiale d'AWS tout en conservant une architecture simple et indépendante des régions pour vos applications.

Q : comment fonctionnent les points d'accès multi-régionaux S3 ?

Les points d'accès multi-régionaux acheminent dynamiquement les requêtes des clients vers un ou plusieurs compartiments S3 sous-jacents. Vous pouvez configurer votre point d'accès multi-régional pour qu'il achemine à travers un compartiment par Région AWS, dans un maximum de 20 Régions AWS. Lorsque vous créez un point d'accès multi-régional, S3 génère automatiquement un nom compatible DNS. Ce nom est utilisé comme point de terminaison global pouvant être utilisé par vos clients. Lorsque vos clients envoient des requêtes à ce point de terminaison, S3 les achemine dynamiquement vers l'un des compartiments sous-jacents spécifiés dans la configuration de votre point d'accès multi-régional.

Par défaut, les points d'accès multi-régionaux S3 acheminent les requêtes vers le compartiment sous-jacent le plus proche du client, en fonction de la latence du réseau. Par exemple, vous pouvez configurer un point d'accès multi-régional avec des compartiments sous-jacents dans US-EAST-1 et AP-SOUTH-1. Avec cette configuration, vos clients en Amérique du Nord seront acheminés vers US-EAST-1 et vos clients en Asie vers AP-SOUTH-1. Cela réduit la latence de vos requêtes adressées à S3, améliorant les performances de votre application.

Si votre application accède à S3 via Internet, les performances seront encore améliorées par les points d'accès multi-régionaux S3, car S3 acheminera vos requêtes via l'emplacement AWS le plus proche de votre client, puis via le réseau AWS privé mondial vers S3. Les requêtes éviteront les segments de réseau encombrés sur Internet, ce qui réduira la latence et la gigue du réseau, tout en améliorant les performances.

Q : comment démarrer avec les points d'accès multi-régionaux S3 ?

La Console de gestion S3 fournit un flux guidé qui vous permet de configurer simplement et rapidement, en seulement trois étapes, tout ce dont vous avez besoin pour exécuter le stockage multi-régional sur S3. Tout d'abord, un nom d'hôte global unique pour votre point d'accès multi-régional sera automatiquement généré pour vous. Vous pouvez connecter vos clients et applications sans avoir à spécifier une Région AWS. Deuxièmement, vous sélectionnerez un ou plusieurs compartiments dans S3 que vous souhaitez acheminer derrière ce nouveau nom d'hôte. Vous pouvez choisir des compartiments existants ou de bénéficier de nouveaux compartiments créés pour vous. Troisièmement, vous spécifierez les règles de réplication inter-régionale S3.

Vous pouvez également utiliser CloudFormation pour automatiser votre configuration de stockage multi-régional. Tous les composants de base requis pour configurer le stockage multi-régional sur S3, y compris les points d'accès multi-régionaux S3, sont pris en charge par CloudFormation, ce qui vous permet d'automatiser facilement un processus de configuration reproductible en dehors de la Console de gestion S3.

Q : quelle est la différence entre la réplication inter-régionale S3 (CRR S3) et les points d'accès multi-régionaux S3 ?

CRR S3 et les points d'accès multi-régionaux S3 sont des fonctions complémentaires qui fonctionnent ensemble pour répliquer les données à travers les Régions AWS, puis pour acheminer automatiquement les requêtes vers la copie répliquée avec la latence la plus faible. Les points d'accès multi-régionaux S3 vous aident à gérer les requêtes à travers les Régions AWS, tandis que le CRR vous permet de déplacer des données entre les Régions AWS pour créer des réplicas isolés. Vous utilisez les points d'accès multi-régionaux S3 et le CRR ensemble pour créer un jeu de données multi-régional répliqué qui est adressable par un seul point de terminaison global.

Q : combien coûtent les points d'accès multi-régionaux S3 ?

Lorsque vous utilisez un point d'accès multi-régional S3 pour acheminer des requêtes au sein d'AWS, vous payez de faibles frais de routage de données par Go pour chaque gigaoctet (Go) traité, ainsi que des frais standard pour les requêtes S3, le stockage, le transfert de données et la réplication. Si votre application s'exécute en dehors d'AWS et accède à S3 via Internet, les points d'accès multi-régionaux S3 augmentent les performances en acheminant automatiquement vos requêtes via un emplacement périphérique AWS, sur le réseau AWS privé mondial, vers la copie la plus proche de vos données en fonction de la latence d'accès. Lorsque vous accélérez les requêtes effectuées sur Internet, vous payez les frais de routage de données et des frais d'accélération d'Internet. La tarification de l'accélération d'Internet des points d'accès multi-régionaux S3 varie selon que le client source se trouve au même emplacement de la Région AWS de destination ou dans un emplacement différent, et s'ajoute à la tarification standard du transfert de données S3. Consultez la page de tarification S3 et l'onglet de transfert de données pour plus d'informations sur la tarification.

Q : en quoi S3 Transfer Acceleration est-il différent des points d'accès multi-régionaux S3 ?

Vous pouvez utiliser S3 Transfer Acceleration pour accélérer les transferts de contenu vers et depuis un seul compartiment S3 centralisé à l'aide du réseau mondial AWS. Ceci est particulièrement utile pour les transferts longue distance d'objets plus volumineux, ou pour supprimer des applications web ou mobiles. Avec les points d'accès multi-régionaux S3, vous pouvez effectuer des transferts accélérés similaires à l'aide du réseau mondial AWS à travers de nombreux compartiments S3 dans plusieurs Régions AWS pour les requêtes sur site, basées sur Internet ou basées sur VPC, vers et depuis S3. Lorsque vous combinez les points d'accès multi-régionaux S3 avec S3 Cross Replication, vous offrez aux points d'accès multi-régionaux S3 la possibilité d'acheminer dynamiquement vos requêtes vers la copie de latence la plus faible de vos données pour les applications provenant de clients dans plusieurs emplacements.

Traitement de données

Object Lambda

Question : Qu'est-ce que S3 Object Lambda ?

S3 Object Lambda vous permet d'intégrer votre propre code aux requêtes GET S3 afin de modifier et de traiter les données lorsqu'elles sont renvoyées vers une application. Pour la première fois, vous pouvez utiliser du code personnalisé pour modifier les données renvoyées par des requêtes GET S3 standard afin de filtrer les lignes, de redimensionner les images de manière dynamique, de supprimer des données confidentielles et plus encore. S3 Object Lambda vous aide à respecter les exigences uniques de format de données des applications sans avoir à développer et opérer d'infrastructure supplémentaire, telle qu'une couche proxy, ou avoir à créer et maintenir plusieurs copies dérivées de vos données. S3 Object Lambda utilise les fonctions AWS Lambda pour traiter automatiquement la sortie d'une requête GET S3 standard. AWS Lambda est un service de calcul sans serveur qui exécute le code défini par le client sans nécessiter de gestion des ressources de calcul sous-jacentes. 

En quelques clics seulement dans la console de gestion AWS, vous pouvez configurer une fonction Lambda et l'attacher à un point de terminaison de service S3 Object Lambda. Désormais, S3 invoquera automatiquement votre fonction Lambda pour traiter les données extraites via le point de terminaison S3 Object Lambda, renvoyant un résultant transformé à l'application. Vous pouvez écrire et exécuter vos propres fonctions Lambda personnalisées, ajustant la transformation des données de S3 Object Lambda à votre cas d'utilisation spécifique.

Pour démarrer avec S3 Object Lambda, vous pouvez utiliser la console de gestion S3, le kit SDK ou l'API. Pour en savoir plus, consultez la page S3 Object Lambda ou le Guide de l'utilisateur S3 Object Lambda..

Question : Pourquoi devrais-je utiliser S3 Object Lambda ?

Vous devez utiliser S3 Object Lambda pour partager une copie unique de vos données sur de nombreuses applications. Cela vous permet d'éviter de développer et de traiter une infrastructure de traitement personnalisée ou de stocker des copies dérivées de vos données. Par exemple, en utilisant S3 Object Lambda pour traiter des requêtes GET S3 normales, vous pouvez masquer les données sensibles à des fins de conformité, restructurer les données brutes à des fins de compatibilité avec les applications de machine learning, filtrer les données pour limiter l'accès au contenu spécifique au sein d'un objet S3, ou pour traiter une large gamme de cas d'utilisation supplémentaires. S3 Object Lambda peut être configuré en quelques clics seulement dans la console de gestion Amazon S3. Consultez le guide de l'utilisateur pour en savoir plus.

Question : Comment fonctionne S3 Object Lambda ?

S3 Object Lambda utilise les fonctions AWS Lambda que vous avez spécifiées pour traiter la sortie d'une requête GET standard. Une fois que vous avez défini une fonction Lambda pour traiter les données demandées, vous pouvez attacher cette fonction à un point d'accès S3 Object Lambda. Les requêtes GET effectuées via un point d'accès S3 Object Lambda appelleront désormais la fonction Lambda spécifiée. Lambda récupérera ensuite l'objet S3 demandé par le client et traitera cet objet. Une fois le traitement effectué, Lambda diffusera l'objet traité vers le client qui a appelé. Consultez le guide de l'utilisateur S3 Object Lambda pour en savoir plus.

Question : Comment démarrer avec S3 Object Lambda ?

S3 Object Lambda peut être configuré dans la console de gestion S3, en trois étapes simples. Premièrement, accédez à l'onglet Object Lambda Access Point (Point d'accès Object Lambda) dans la console. Deuxièmement, créez un point d'accès S3 Object Lambda et dans sa configuration, indiquez un nom pour cette ressource, la fonction Lambda à appeler que vous souhaitez que S3 exécute sur vos requêtes GET et un point d'accès S3 de support. La documentation AWS contient des exemples d'implémentations de fonctions Lambda pour vous aider à essayer le service. Enfin, mettez à jour votre kit SDK et votre application afin d'utiliser le nouveau point d'accès S3 Object Lambda pour récupérer des données depuis S3 à l'aide du kit SDK de langage de votre choix. S3 Object Lambda commencera à traiter vos requêtes GET. Consultez le guide de l'utilisateur S3 Object Lambda pour en savoir plus.

Question : Quel genre d'opérations puis-je effectuer avec S3 Object Lambda ?

Toute opération prise en charge dans une fonction Lambda est prise en charge avec S3 Object Lambda. Cela vous offre une large gamme d'options disponibles pour traiter vos requêtes. Vous alimentez votre propre fonction Lambda afin qu'elle exécute des calculs personnalisés sur des requêtes GET, ce qui vous permet de traiter les données de manière flexible selon les besoins de votre application. Le temps de traitement Lambda est limité à un maximum de 60 secondes. Pour en savoir plus, veuillez consulter la documentation S3 Object Lambda ici.

Question : Quels types de requêtes S3 sont pris en charge par S3 Object Lambda ?

S3 Object Lambda prend en charge les requêtes GET. Les autres appels d'API S3 effectués vers un point d'accès S3 Object Lambda renverront la réponse d'API S3 standard. Pour en savoir plus, consultez le guide de l'utilisateur S3 Object Lambda.

Question : Que se passe-t-il lors de l'échec d'une fonction S3 Object Lambda ?

Lors de l'échec d'une fonction S3 Object Lambda, vous recevrez une réponse de requête détaillant l'échec. Comme les autres appels de fonctions Lambda, AWS surveille automatiquement les fonctions à votre place et rend compte des métriques via Amazon CloudWatch. Pour vous aider à régler les problèmes d'échecs, Lambda journalise toutes les requêtes traitées par votre fonction et stocke automatiquement les journaux générés par votre code avec Amazon CloudWatch Logs. Pour en savoir plus sur l'accès à CloudWatch Logs pour AWS Lambda, veuillez consulter la documentation CloudWatch.

Question : Est-ce que S3 Object Lambda affecte le contrat de niveau de service (SLA) de disponibilité S3 ou la durabilité S3 ?

S3 Object Lambda connecte Amazon S3, AWS Lambda et éventuellement d'autres services AWS de votre choix pour fournir des objets pertinents pour vos applications de requêtes. Tous les services AWS utilisés en lien avec S3 Object Lambda continueront d'être gouvernés par leurs contrats de niveau de service (SLA) respectifs. Par exemple, au cas où un service AWS ne respecte pas son engagement de service, vous pourrez recevoir un crédit de service, tel que décrit dans le contrat de niveau de service de ce service. La création d'un point d'accès S3 Object Lambda n'affecte pas la durabilité de vos objets. Cependant, S3 Object Lambda appelle votre fonction AWS Lambda spécifiée et vous devez vous assurer que votre fonction Lambda spécifiée est prévue et correcte. Consultez le dernier contrat de niveau de service Amazon S3 ici.

Q : combien coûte S3 Object Lambda ?

Lorsque vous utilisez S3 Object Lambda, vous payez des frais par Go pour chaque gigaoctet de données renvoyé vers vous via S3 Object Lambda. Vous payez également pour la requête GET S3 et les frais de calcul AWS Lambda pour la durée durant laquelle votre fonction spécifiée est exécutée et traite les données demandées. Pour consultez les informations et un exemple de tarification, consultez la page de tarification S3.

Prêt à vous lancer ?

Standard Product Icons (Features) Squid Ink
Contrôlez les fonctions du produit

En savoir plus sur les fonctions de gestion des données, de sécurité, de gestion des accès, d'analyse, et plus encore.

En savoir plus 
Sign up for a free account
Créer gratuitement un compte

Accédez instantanément à l'offre gratuite AWS et commencez à explorer Amazon S3. 

S'inscrire 
Standard Product Icons (Start Building) Squid Ink
Commencez à créer sur la console

Commencez à créer sur la console AWS avec Amazon S3.

Prise en main