S3 – Häufig gestellte allgemeine Fragen
Regionen | Fakturierung | Amazon S3 und IPv6 | S3-Ereignisbenachrichtigungen | Amazon S3 Transfer Acceleration
F: Was ist Amazon S3?
Amazon S3 ist ein Objektspeicher zum Speichern und Abrufen beliebiger Datenmengen aus allen Speicherorten. S3 ist ein einfacher Speicherservice, der branchenführende Haltbarkeit, Verfügbarkeit, Leistung, Sicherheit und praktisch unbegrenzte Skalierbarkeit zu sehr geringen Kosten bietet.
F: Was kann ich mit Amazon S3 tun?
Amazon S3 ist eine einfache Web-Service-Schnittstelle, mit der beliebige Datenmengen jederzeit und überall im Web gespeichert und abgerufen werden können. Mit diesem Web-Service können Sie unkompliziert Anwendungen erstellen, die Cloudspeicher nutzen. Da Amazon S3 hochgradig skalierbar ist und leistungsbasiert bezahlt wird, können Sie klein anfangen und Ihre Anwendung nach Bedarf erweitern, ohne Kompromisse in Bezug auf die Leistung und die Zuverlässigkeit eingehen zu müssen.
Amazon S3 ist außerdem noch sehr flexibel. Speichern Sie beliebige Datentypen und so viele Daten, wie Sie möchten, rufen Sie dieselben Daten beliebig oft oder nur für die Notfallwiederherstellung ab, erstellen Sie eine einfache FTP-Anwendung oder eine anspruchsvolle Webanwendung wie die Website von amazon.com. Mit Amazon S3 können Sie sich auf Innovationen konzentrieren, anstatt Zeit damit zu verbringen, herauszufinden, wie Sie Ihre Daten speichern können.
F: Was sind die ersten Schritte mit Amazon S3?
Um sich für Amazon S3 anzumelden, besuchen Sie die S3-Konsole. Um diesen Service nutzen zu können, benötigen Sie ein Amazon-Web-Services-Konto. Wenn Sie noch kein Konto haben, werden Sie aufgefordert, eines zu erstellen, wenn Sie mit dem Anmeldeprozess für Amazon S3 beginnen. Lesen Sie nach der Anmeldung die Amazon-S3-Dokumentation, sehen Sie sich die S3-Einstiegsmaterialien an, und sehen Sie sich die zusätzlichen Ressourcen im Ressourcenzentrum an, um mit der Nutzung von Amazon S3 zu beginnen.
F: Welche Möglichkeiten bietet Amazon S3, die sie mit einer On-Premises-Speicherlösung nicht haben?
Mit Amazon S3 profitieren Sie von den Amazon-Vorteilen, wie hohe Skalierbarkeit ohne Vorleistungen oder keine Kompromisse bei der Leistung. Durch die Verwendung von Amazon S3 können Sie kostengünstig und einfach sicherstellen, dass Ihre Daten schnell zugänglich, immer verfügbar und sicher sind.
F: Welche Art von Daten können in Amazon S3 gespeichert werden?
Sie können praktisch alle Dateitypen in jedem Format speichern. Weitere Informationen finden Sie in der Lizenzvereinbarung von Amazon Web Services.
F: Welche Datenmenge kann in Amazon S3 gespeichert werden?
Das speicherbare Gesamtvolumen an Daten sowie die Anzahl der Objekte, die Sie in Amazon S3 speichern können, sind unbegrenzt. Einzelne Amazon-S3-Objekte variieren in ihrer Größe von minimal 0 Bytes bis maximal 5 TB. Das größte Objekt, das in einem einzelnen PUT hochgeladen werden kann, kann bis zu 5 GB groß sein. Für Objekte, die größer als 100 MB sind, sollten Kunden die Funktion mehrteiliger Upload in Erwägung ziehen.
F: Was ist ein S3-Allzweck-Bucket?
Ein Bucket ist ein Container für Objekte, die in Amazon S3 gespeichert sind, und Sie können eine beliebige Anzahl von Objekten in einem Bucket speichern. Allzweck-Buckets sind der ursprüngliche S3-Bucket-Typ, und ein einziger Allzweck-Bucket kann Objekte enthalten, die in allen Speicherklassen außer S3 Express One Zone gespeichert sind. Sie werden für die meisten Anwendungsfälle und Zugriffsmuster empfohlen.
F: Was ist ein S3-Directory-Bucket?
Ein Bucket ist ein Container für Objekte, die in Amazon S3 gespeichert sind, und Sie können eine beliebige Anzahl von Objekten in einem Bucket speichern. S3-Verzeichnis-Buckets lassen nur Objekte zu, die in der Speicherklasse S3 Express One Zone gespeichert sind, was eine schnellere Datenverarbeitung innerhalb einer einzelnen Availability Zone ermöglicht. Sie werden für Anwendungsfälle mit geringer Latenz empfohlen. Jeder S3-Verzeichnis-Bucket kann Hunderttausende von Transaktionen pro Sekunde (TPS) unterstützen, unabhängig von der Anzahl der Verzeichnisse innerhalb des Buckets.
F: Was ist der Unterschied zwischen einem Allzweck-Bucket und einem Directory-Bucket?
Ein Bucket ist ein Container für Objekte, die in Amazon S3 gespeichert sind, und Sie können eine beliebige Anzahl von Objekten in einem Bucket speichern. Allzweck-Buckets sind der ursprüngliche S3-Bucket-Typ, und ein einziger Allzweck-Bucket kann Objekte enthalten, die in allen Speicherklassen außer S3 Express One Zone gespeichert sind. Sie werden für die meisten Anwendungsfälle und Zugriffsmuster empfohlen. S3-Verzeichnis-Buckets lassen nur Objekte zu, die in der Speicherklasse S3 Express One Zone gespeichert sind, was eine schnellere Datenverarbeitung innerhalb einer einzelnen Availability Zone ermöglicht. Sie werden für Anwendungsfälle mit geringer Latenz empfohlen. Jeder S3-Verzeichnis-Bucket kann Hunderttausende von Transaktionen pro Sekunde (TPS) unterstützen, unabhängig von der Anzahl der Verzeichnisse innerhalb des Buckets.
F: Was macht Amazon mit den in Amazon S3 gespeicherten Daten?
Für Fakturierungszwecke speichert Amazon Ihre Daten und ermittelt die damit verbundene Nutzung. Amazon S3 greift außerhalb dieses Rahmens nicht auf Ihre Daten zu, es sei denn, dies ist aus rechtlichen Gründen erforderlich. Weitere Informationen finden Sie in der Lizenzvereinbarung von Amazon Web Services.
F: Speichert Amazon eigene Daten in Amazon S3?
Ja. Amazon-Organisationen nutzen Amazon S3 für zahlreiche unterschiedliche Projekte. Viele dieser Projekte verwenden Amazon S3 als autoritativen Datenspeicher, den sie für geschäftskritische Vorgänge verwenden.
F: Wie werden die Daten in Amazon S3 organisiert?
Bei Amazon S3 handelt es sich um einen einfachen, schlüsselbasierten Objektspeicher. Beim Speichern von Daten vergeben Sie einen einmaligen Objektschlüssel, der später für die Datenabfrage verwendet werden kann. Schlüssel können aus einer beliebigen Zeichenfolge bestehen und für die Imitation hierarchischer Attribute erstellt werden. Alternativ können Sie S3-Objekt-Tagging nutzen, um die Daten in allen Ihren S3-Buckets bzw. mit allen Präfixen zu organisieren.
F: Über welche Schnittstelle kann ich auf Amazon S3 zugreifen?
Amazon S3 umfasst benutzerfreundliche, auf Standards basierende REST-Schnittstellen für Web-Services, die mit jedem beliebigen Toolkit für die Internetentwicklung kompatibel sind. Die Abläufe wurden bewusst einfach gehalten, um das Hinzufügen neuer Verteilungsprotokolle und funktionaler Ebenen unkompliziert zu gestalten.
F: Wie zuverlässig ist Amazon S3?
Über Amazon S3 erhalten Sie Zugriff auf dieselbe hochgradig skalierbare, hoch verfügbare, schnelle und kostengünstige Datenspeicher-Infrastruktur, mit der Amazon sein eigenes globales Website-Netzwerk betreibt. Die Speicherklasse S3 Standard ist für eine Verfügbarkeit von 99,99 % konzipiert, die Speicherklassen S3-Standard-IA, S3 Intelligent-Tiering und S3 Glacier Instant Retrieval für eine Verfügbarkeit von 99,9 % und die Speicherklasse S3-One-Zone-IA für eine Verfügbarkeit von 99,5 %. Die Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive sind für eine Verfügbarkeit von 99,99 % und ein SLA von 99,9 % ausgelegt. Alle Speicherklassen werden durch das Amazon-S3-Service-Level-Agreement gestützt.
F: Wie wirken sich plötzlich auftretende Spitzen beim Datenverkehr von meiner Anwendung auf die Leistung von Amazon S3 aus?
Amazon S3 wird von Grund auf für den Umgang mit dem Datenverkehr jeder beliebigen Internetanwendung entwickelt. Durch nutzungsbasierte Zahlung und eine unbegrenzte Kapazität wird sichergestellt, dass sich Ihre Grenzkosten nicht ändern und Sie Ihren Service unterbrechungsfrei anbieten können. Die enorme Skalierung von Amazon S3 ermöglicht die gleichmäßige Verteilung der Last, damit Datenverkehrsspitzen nicht nur einzelne Anwendungen betreffen.
F: Umfasst Amazon S3 ein Service Level Agreement (SLA)?
Ja. Wenn in einem Abrechnungszeitraum die monatliche Betriebszeit kürzer ist, als im SLA zugesagt, sieht das Amazon-S3-SLA eine Service-Gutschrift vor.
F: Was ist das Konsistenzmodell für Amazon S3?
Amazon S3 bietet automatisch hohe Read-after-Write-Konsistenz, ohne Änderungen an der Leistung oder Verfügbarkeit, ohne Abstriche bei der regionalen Isolierung für Anwendungen und ohne zusätzliche Kosten.
Nach dem erfolgreichen Schreiben eines neuen Objekts oder dem Überschreiben eines vorhandenen Objekts, erhält jede nachfolgende Leseanforderung sofort die neueste Version des Objekts. S3 bietet auch hohe Konsistenz für Listenvorgänge, sodass Sie nach einem Schreibvorgang sofort eine Auflistung der Objekte in einem Bucket durchführen können, bei der Änderungen berücksichtigt werden.
Welche Vorteile bietet die hohe Read-after-Write-Konsistenz?
Die hohe Read-after-Write-Konsistenz hilft, wenn Sie sofort lesen und Einspruch nach dem Schreibvorgang erheben müssen; z. B. wenn Sie oft lesen und sofort nach dem Schreibvorgang Ojekte auflisten. Hochleistungs-Computing-Workloads profitieren auch davon, dass, wenn ein Objekt überschrieben und dann viele Male gleichzeitig gelesen wird, eine hohe Read-after-Write-Konsistenz die Sicherheit bietet, dass der letzte Schreibvorgang über alle Lesevorgänge hinweg gelesen wird. Diese Anwendungen profitieren automatisch und umgehend von einer hohen Read-after-Write-Konsistenz. Die hohe Konsistenz von S3 senkt außerdem die Kosten, da keine zusätzliche Infrastruktur erforderlich ist, um eine hohe Konsistenz zu gewährleisten.
AWS-Regionen
F: Wo werden meine Daten gespeichert?
Bei der Erstellung Ihres Amazon-S3-Buckets legen Sie eine AWS-Region fest. Bei den Speicherklassen S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive werden Ihre Objekte automatisch auf mehreren Geräten gespeichert, die jeweils mindestens drei Availability Zones (AZs) voneinander entfernt sind. Die AZs sind physisch durch eine große Entfernung, vieler Kilometer, von jeder anderen AZ getrennt, obwohl alle innerhalb von 100 km voneinander liegen. Objekte, die in der Speicherklasse S3 One Zone-IA gespeichert werden, werden redundant innerhalb einer einzigen Availability Zone in der gewählten AWS-Region gespeichert. Für S3 in Outposts werden Ihre Daten in Ihrer Outpost-On-Premises-Umgebung gespeichert, es sei denn, Sie entscheiden sich manuell für die Übertragung in eine AWS Region. In der Liste der regionalen AWS-Services finden Sie Details zur Verfügbarkeit der Amazon S3-Services nach AWS-Region.
F: Was ist eine AWS-Region?
Eine AWS Region ist ein physischer Standort auf der ganzen Welt, an dem AWS Rechenzentren clustert. Jede Gruppe logischer Rechenzentren innerhalb einer Region wird als Availability Zone (AZ) bezeichnet. Jede AWS-Region besteht aus mindestens drei isolierten und physisch getrennten AZs innerhalb eines geographischen Bereichs. Im Gegensatz zu anderen Cloud-Anbietern, die eine Region oft als einzelnes Rechenzentrum definieren, bietet das Konzept mehrerer AZs pro AWS-Region klare Vorteile. Jede AZ verfügt über unabhängige Stromversorgung, Kühlung sowie physische Sicherheit und ist über redundante, extrem latenzarme Netzwerke verbunden.
F: Was ist eine AWS Availability Zone (AZ)?
Eine Availability Zone (AZ) ist ein oder mehrere diskrete Rechenzentren mit redundanter Stromversorgung, Vernetzung und Konnektivität in einer AWS Region. Mithilfe dieser Availability Zones (AZs) können Sie Produktionsanwendungen und Datenbanken betreiben, die verfügbarer, fehlertoleranter und skalierbarer sind, als dies von einem einzigen Rechenzentrum aus möglich wäre. Alle AZs in einer AWS-Region sind mit einem Netzwerk mit hoher Bandbreite und niedriger Latenz über eine vollständig redundante, dedizierte Metro-Glasfaser-Leitung miteinander verbunden, die einen hohen Durchsatz und eine niedrige Latenz zwischen den AZ ermöglicht.
Die Speicherklassen Amazon S3 Standard, S3 Standard-Infrequent Access, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive replizieren Daten auf mindestens drei AZs, damit sie geschützt sind, falls eine ganze AZ ausfällt. Das gilt auch für Regionen, in denen weniger als drei AZs öffentlich verfügbar sind. Der Zugriff auf die in diesen Speicherklassen gespeicherten Objekte ist von allen AZs in der AWS-Region aus möglich.
Die Speicherklasse Amazon-S3-One-Zone-IA repliziert Daten innerhalb einer einzigen AZ. Die in S3 One Zone-IA gespeicherten Daten sind nicht resistent gegen den physischen Verlust einer Availability Zone infolge von Katastrophen wie Erdbeben, Brände oder Überschwemmungen.
F: Wie entscheide ich, in welcher AWS Region meine Daten gespeichert werden sollen?
Es sind verschiedene Faktoren zu berücksichtigen, die von der betreffenden Anwendung abhängen. Sie möchten zum Beispiel Ihre Daten in einer Region speichern, die sich in der Nähe Ihrer Kunden, Ihrer Rechenzentren oder anderen AWS-Ressourcen befindet, um die Latenz beim Datenzugriff zu verrigern. Vielleich möchten Sie Ihre Daten in einer Region speichern, die sich nicht in der Nähe Ihrer sonstigen Tätigkeit befindet, aus Gründen der geografischen Redundanz und für Notfallwiederherstellungszwecke. Sie sollten auch Regionen in Betracht ziehen, die es Ihnen ermöglichen, bestimmte rechtliche und behördliche Anforderungen zu erfüllen und/oder Ihre Speicherkosten verringern. Um Geld zu sparen, können Sie eine Region mit einem niedrigeren Preisniveau wählen. Informationen zu den Preisen in China finden Sie auf der Amazon-S3-Preisseite.
F: Wo auf der Welt ist Amazon S3 verfügbar?
Amazon S3 ist in allen AWS-Regionen weltweit verfügbar und Sie können Amazon S3 unabhängig von Ihrem Standort verwenden. Sie müssen nur festlegen, in welcher bzw. welchen AWS-Region(en) Ihre Amazon S3-Daten gespeichert werden sollen. In der Liste der regionalen AWS-Services finden Sie eine Liste der AWS-Regionen, in denen S3 heute verfügbar ist.
Fakturierung
F: Wie viel kostet Amazon S3?
Mit Amazon S3 zahlen Sie nur das, was Sie tatsächlich nutzen. Es gibt keine Mindestgebühr. Kalkulieren Sie Ihre voraussichtliche Monatsrechnung mit dem AWS-Preisrechner.
In Regionen, in denen uns niedrigere Kosten entstehen, erhebt AWS auch niedrigere Gebühren. Einige Preise sind in den einzelnen Amazon-S3-Regionen unterschiedlich. Die abgerechneten Preise richten sich nach dem Standort Ihres S3-Buckets. Für Daten, die innerhalb einer Amazon S3-Region über eine COPY-Anforderung übertragen werden, fallen keine Datenübertragungsgebühren an. Daten, die über eine COPY-Anforderung zwischen AWS-Regionen übertragen werden, werden zu den auf der Preisseite zu Amazon S3 angegebenen Tarifen berechnet. Für Daten, die innerhalb derselben Region zwischen Amazon EC2 (oder jedem beliebigen AWS-Service) und Amazon S3 übertragen werden, z. B. Daten, die innerhalb der Region USA Ost (Nord-Virginia) übertragen werden, werden keine Datenübertragungsgebühren berechnet. Daten, die zwischen Amazon EC2 (oder jedem beliebigen AWS-Service) und Amazon S3 in allen anderen Regionen übertragen werden, werden gemäß den Preisen auf der Preisseite zu Amazon S3 in Rechnung gestellt, z. B. Daten, die zwischen der Region Amazon EC2 USA Ost (Nord-Virginia) und der Region Amazon S3 USA West (Nordkalifornien) übertragen werden. Die Kosten für die Datenübertragung werden dem Eigentümer des Quell-Buckets in Rechnung gestellt.
Informationen zu den Preisen für S3 in Outposts finden Sie auf der Preisseite für Outposts.
F: Wie wird mir die Nutzung von Amazon S3 in Rechnung gestellt?
Sie können mit der Verwendung von Amazon S3 beginnen, ohne dass Ihnen Einrichtungsgebühren oder sonstige Verpflichtungen entstehen. Am Monatsende werden Ihnen die Nutzungsgebühren für den betreffenden Monat automatisch in Rechnung gestellt. Sie können die Gebühren für den aktuellen Abrechnungszeitraum jederzeit einsehen. Melden Sie sich hierzu bei Ihrem Amazon Web Services-Konto an und wählen Sie das mit Ihrem Konsolenprofil verbundene „Billing Dashboard“ aus.
Mit dem kostenlosen Nutzungskontingent für AWS* können Sie Amazon S3 in allen Regionen außer der Region „AWS GovCloud“ kostenlos nutzen. Bei der Anmeldung erhalten AWS-Neukunden ein Jahr lang monatlich 5 GB Amazon-S3-Standard-Speicher, 20 000 GET-Anforderungen, 2 000 PUT-Anforderungen und 100 GB für ausgehende Datenübertragungen (ins Internet, andere AWS-Regionen oder Amazon CloudFront). Ungenutzte monatliche Nutzung wird nicht auf den nächsten Monat übertragen.
Amazon S3 rechnet für folgende Verwendungsarten Gebühren ab. Beachten Sie, dass in den folgenden Berechnungen davon ausgegangen wird, dass keine kostenlosen AWS-Kontingente vorliegen.
Verwendeter Speicher:
Eine Übersicht der Preise für Amazon S3-Speicher finden Sie auf der Preisseite zu Amazon S3.
Bei der Anzahl des in einem Monat abgerechneten Speicherplatzes handelt es sich um die durchschnittliche, im Laufe des Monats verwendete Speichermenge. Darin enthalten sind alle Objektdaten sowie Metadaten, die in den Buckets Ihres AWS-Kontos gespeichert werden. Die gemessenen „TimedStorage-ByteHrs“ werden am Monatsende summiert, um Ihre monatliche Gebühr zu ermitteln.
Speicherbeispiel:
Angenommen, Sie speichern im März für 15 Tage, 100 GB (107,374,182,400 Bytes) an Amazon-S3-Standard-Daten in Ihrem Bucket und 100 TB (109,951,162,777,600 Bytes) an Amazon S3 Standard-Daten für die letzten 16 Tage im März.
Ende März ergibt sich die folgende in Byte-Stunden ausgedrückte Nutzung: Gesamtzahl der Byte-Stunden = [107 374 182 400 Bytes x 15 Tage x (24 Stunden/Tag)] + [109 951 162 777 600 Bytes x 16 Tage x (24 Stunden/Tag)] = 42 259 901 212 262 400 Byte-Stunden. Berechnen Sie die Stunden auf der Grundlage der tatsächlichen Anzahl von Tagen in einem gegebenen Monat. In unserem Beispiel wird beispielsweise der März verwendet, der 31 Tage oder 744 Stunden hat.
Umgerechnet in GB-Monate ergibt dies: 42 259 901 212 262 400 Byte-Stunden/1 073 741 824 Bytes pro GB/744 Stunden pro Monat = 52 900 GB-Monate
Dieses Verwendungsvolumen verteilt sich über zwei Volumenkontingente. Nachfolgend werden die monatlichen Speichergebühren berechnet (unter der Annahme, dass die Daten in der Region USA Ost (Nord-Virginia) gespeichert werden): 50 TB-Kontingent: 51 200 GB x 0,023 USD = 1 177,60 USD; 50 TB- bis 450 TB-Kontingent: 1 700 GB x 0,022 USD = 37,40 USD
Gesamtspeicherkosten = 1.177,60 USD + 37,40 USD = 1.215,00 USD
Übertragene eingehende Netzwerkdaten:
Die Preise für eingehende Amazon S3-Datenübertragungen sind auf der Preisseite zu Amazon S3 aufgeführt. Dies gilt für an Ihre Amazon S3-Buckets gesendete Daten.
Übertragene ausgehende Netzwerkdaten:
Die Preise für ausgehende Amazon-S3-Datenübertragungen sind auf der Preisseite zu Amazon S3 aufgeführt. Bei Amazon S3 fällt diese Gebühr an, wenn Daten in Ihren Buckets an einem Standort außerhalb der angegebenen Amazon S3-Region gelesen werden.
Gebührenstufen für ausgehende Datenübertragungen umfassen Ihre gesammelten ausgehenden Datenübertragungen aus einer bestimmten Region in das Internet für Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS und Amazon VPC. Diese Gebührenstufen gelten nicht für ausgehende Datenübertragungen aus Amazon S3 aus einer AWS-Region in eine andere AWS-Region.
Beispiel für die ausgehende Datenübertragung:
Angenommen, Sie befinden sich in der Region USA Ost (Nord-Virginia) und übertragen in einem Monat mit 31 Tagen, täglich 1 TB Daten aus Amazon S3 in das Internet. Weiterhin soll angenommen werden, dass Sie in derselben Region aus einer Amazon-EC2-Instance im selben Monat mit 31 Tagen, täglich 1 TB Daten in das Internet übertragen.
Ihre gesammelte Datenübertragung beträgt dann 62 TB (31 TB von Amazon S3 und 31 TB von Amazon EC2). Dies entspricht 63.488 GB (62 TB * 1.024 GB/TB).
Dieses Verwendungsvolumen erstreckt sich auf drei verschiedene Volumenstufen. Die monatliche Gebühr für ausgehende Datenübertragung ist im Folgenden aufgeführt. Dabei wird davon ausgegangen, dass die Datenübertragung in der Region USA Ost (Nord-Virginia) stattfindet.
Stufe 10 TB: 10.239 GB (10 × 1.024 GB/TB) x 0,09 USD – 1 (kostenlos) = 921,51 USD
Stufe 10 TB bis 50 TB: 40 960 GB (40×1 024) x 0,085 USD = 3 481,60 USD
Stufe 50 TB bis 150 TB: 12.288 GB (Rest) x 0,070 USD = 860,16 USD
Gesamtsumme: = 921,51 USD + 3.481,60 USD + 860,16 USD = 5.263,27 USD
Datenanforderungen:
Die Preisgestaltung der Amazon-S3-Anforderungen ist auf der Preisseite zu Amazon S3 aufgeführt.
Anforderungsbeispiel:
Nehmen wir an, Sie übertragen im Monat März täglich 10.000 Daten in Amazon S3 und 20.000 aus Amazon S3. Am 31. März löschen Sie 5 000 Dateien.
PUT-Anforderungen gesamt = 10.000 Anforderungen x 31 Tage = 310.000 Anforderungen
GET-Anforderungen gesamt = 20.000 Anforderungen x 31 Tage = 620.000 Anforderungen
DELETE-Anforderungen gesamt = 5.000 x 1 Tag = 5.000 Anforderungen
Die Gebühren für Anforderungen sind im Folgenden aufgeführt. Dabei wird davon ausgegangen, dass sich Ihr Bucket in der USA Ost (Nord-Virginia) befindet.
310.000 PUT-Anforderungen: 310.000 Anforderungen x 0,005 USD/1.000 = 1,55 USD
620 000 GET-Anforderungen: 620 000 Anforderungen x 0,004 USD/10 000 Anforderungen = 0,25 USD
5 000 DELETE-Anforderungen = 5 000 Anforderungen x 0,00 USD (keine Gebühr) = 0,00 USD
Datenabruf:
Die Preise für den Amazon-S3-Datenabruf gelten für alle Speicherklassen, mit Ausnahme von S3 Standard und S3 Intelligent-Tiering und sind auf der S3-Preisseite zusammengefasst.
Beispiel für Datenabrufe:
Angenommen, Sie rufen in einem Monat 300 GB aus S3 Standard-IA ab. Davon gehen 100 GB ins Internet, 100 GB zu EC2 in derselben AWS-Region und 100 GB zu Amazon CloudFront in derselben AWS-Region.
Ihre Datenabrufgebühren für den Monat würden wie folgt berechnet: 300 GB x 0,01 USD/GB = 3,00 USD. Beachten Sie, dass Sie auch die Datenübertragungskosten für den Anteil zahlen, der an das Internet gesendet wurde.
* * Ihre Nutzung des kostenlosen Nutzungskontingent wird jeden Monat für alle Regionen außer der Region AWS GovCloud berechnet und automatisch auf die Rechnung angewandt. Unverwendete monatliche Nutzung wird nicht prolongiert. Es gelten Beschränkungen. Weitere Informationen finden Sie unter Angebotsbedingungen.
F: Warum unterscheiden sich die Preise je nach ausgewählter Amazon S3-Region?
In Regionen, in denen uns niedrigere Kosten entstehen, erhebt AWS auch niedrigere Gebühren. Beispielsweise sind unsere Kosten in der Region USA Ost (Nord-Virginia) niedriger als in der Region USA West (Nordkalifornien).
F: Wie wird mir die Nutzung von Versioning in Rechnung gestellt?
Normale Amazon S3-Tarife fallen für jede Version eines gespeicherten oder angeforderten Objekts an. Betrachten wir beispielsweise das folgende Szenario, um die Speicherkosten bei der Nutzung von Versioning zu veranschaulichen (unter der Annahme, dass der aktuelle Monat 31 Tage hat).
1) Tag 1 des Monats: Sie führen eine PUT-Anforderung von 4 GB (4.294.967.296 Bytes) für Ihren Bucket aus.
2) Tag 16 des Monats: Sie führen eine PUT-Anfrage von 5 GB (5 368 709 120 Bytes) innerhalb desselben Buckets aus und verwenden denselben Schlüssel wie bei der ursprünglichen PUT-Anfrage an Tag 1.
Bei der Analyse der Speicherkosten der obigen Vorgänge beachten Sie, dass das 4-GB-Objekt von Tag 1 nicht aus dem Bucket gelöscht wird, wenn das 5-GB-Objekt am Tag 15 geschrieben wird. Das 4-GB-Objekt wird hingegen als ältere Version gespeichert und das 5-GB-Objekt wird zur zuletzt geschriebenen Version des Objekts in Ihrem Bucket. Am Ende des Monats:
Gesamtzahl verwendeter Byte-Stunden
[4 294 967 296 Bytes x 31 Tage x (24 Stunden/Tag)] + [5 368 709 120 Bytes x 16 Tage x (24 Stunden/Tag)] = 5 257 039 970 304 Byte-Stunden
Umrechnung in Gesamtzahl GB-Monate:
5.257.039.970.304 Byte-Stunden x (1 GB/1.073.741.824 Bytes) x (1 Monat/744 Stunden) = 6.581 GB-Monate
Die Kosten errechnen sich aus den aktuellen Tarifen für Ihre Region, die Sie auf der Preisseite zu Amazon S3 finden.
F: Wie wird der Zugriff auf Amazon S3 über die AWS-Managementkonsole in Rechnung gestellt?
Beim Zugriff auf den Service über die AWS-Managementkonsole gelten die normalen Preise für Amazon S3. Für eine verbesserte Benutzerfreundlichkeit kann die AWS-Managementkonsole Anforderungen proaktiv ausführen. Einige interaktive Vorgänge führen ebenfalls zur Ausgabe mehrerer Anforderungen an den Service.
F: Wie wird abgerechnet, wenn über ein anderes AWS-Konto auf meine Amazon S3-Buckets zugegriffen wird?
Normale Amazon S3-Preise gelten, wenn auf Ihren Speicher über ein anderes AWS-Konto zugegriffen wird. Sie können Ihren Bucket auch als „Zahlung durch den Anforderer“-Bucket einrichten. In diesem Fall bezahlt der Anforderer die Kosten für die Anforderungen und Downloads Ihrer Amazon S3-Daten.
Weitere Informationen über die „Zahlung durch den Anforderer“-Bucketkonfigurationen finden Sie in der Amazon S3-Dokumentation.
F: Sind Steuern bereits in den Preisen enthalten?
Falls nicht anders angegeben, gelten unsere Preise zuzüglich anfallender Steuern und Abgaben, darunter MwSt. und Umsatzsteuer. Bei Kunden mit japanischer Rechnungsadresse unterliegt die Nutzung von AWS-Services der japanischen Verbrauchssteuer.
F: Fallen für die Datenübertragung ins Internet Gebühren an, wenn ich meine Daten aus AWS verschiebe?
AWS bietet berechtigten Kunden eine kostenlose Datenübertragung ins Internet an, wenn sie alle ihre Daten aus AWS übertragen, wie unten beschrieben.
F: Ich möchte meine Daten aus AWS verschieben. Wie beantrage ich eine kostenlose Datenübertragung ins Internet?
Führen Sie die folgenden Schritte aus:
1) Wenn Sie ein eigenes AWS-Kontenteam haben, wenden Sie sich zuerst an dieses und informieren Sie es über Ihre Pläne. In einigen Fällen sollten Sie, wenn Sie eine ausgehandelte Vereinbarung mit AWS getroffen haben, Ihre Optionen mit Ihrem AWS-Kundenbetreuungsteam besprechen.
2) Überprüfen Sie die auf dieser Seite beschriebenen Kriterien und Verfahren.
3) Wenden Sie sich an den AWS-Kundensupport und geben Sie an, dass es sich bei Ihrer Anfrage um eine „kostenlose Datenübertragung bei einem Umzug aus AWS“ handelt. Der AWS-Kundensupport wird Sie um die Angabe von Informationen bitten, damit er Ihre Umzugspläne überprüfen kann, beurteilen kann, ob Sie für eine kostenlose Datenübertragung in Frage kommen, und einen angemessenen Kreditbetrag berechnen kann.
4) Wenn der AWS-Kundensupport Ihren Umzug genehmigt, erhalten Sie eine vorübergehende Gutschrift für die Kosten für die ausgehende Datenübertragung auf der Grundlage des Volumens aller Daten, die Sie zum Zeitpunkt der AWS-Berechnung in allen AWS-Services gespeichert haben. Der AWS-Kundensupport benachrichtigt Sie, wenn Sie eine Genehmigung erhalten, und Sie haben dann 60 Tage Zeit, um Ihren Umzug von AWS abzuschließen. Das Guthaben wird nur auf die Nutzung der ausgehenden Datenübertragung angerechnet, nicht auf die Nutzung anderer Dienste. Nachdem Sie die AWS-Services verlassen haben, müssen Sie innerhalb des Zeitraums von 60 Tagen alle verbleibenden Daten und Workloads von Ihrem AWS-Konto löschen, oder Sie können Ihr AWS-Konto schließen.
Kostenlose Datenübertragungen für IT-Anbieter, die umziehen, unterliegen ebenfalls den folgenden Kriterien:
a) Nur Kunden mit einem aktiven AWS-Konto mit einem guten Ruf haben Anspruch auf eine kostenlose ausgehende Datenübertragung.
b) Wenn in Ihrem AWS-Konto weniger als 100 GB an Daten gespeichert sind, können Sie diese Daten im Rahmen des bestehenden monatlichen AWS-Kontingents von 100 GB für ausgehende Datenübertragungen kostenlos aus AWS verschieben. Kunden mit weniger als 100 GB an Daten, die in ihrem AWS-Konto gespeichert sind, haben keinen Anspruch auf zusätzliche Gutschriften.
c) AWS bietet Ihnen eine kostenlose Datenübertragung ins Internet, wenn Sie alle Ihre Daten von AWS entfernen. Wenn Sie nur Ihre Gesamtnutzung eines einzelnen Services, aber nicht alles, übertragen möchten, wenden Sie sich an den AWS-Kundensupport.
d) Wenn sich Ihre Pläne ändern oder Sie Ihren Umzug von AWS nicht innerhalb von 60 Tagen abschließen können, müssen Sie den AWS-Kundensupport benachrichtigen.
e) Die Gebühren für Standardservices für die Nutzung von AWS-Services sind nicht enthalten. Nur Gebühren für ausgehende Datenübertragungen zur Unterstützung Ihres Umzugs von AWS sind gutgeschrieben. Datenübertragungen von speziellen Datenübertragungsservices wie Amazon CloudFront, AWS Direct Connect, AWS Snowball und AWS Global Accelerator sind jedoch nicht enthalten.
f) AWS kann Ihre Servicenutzung überprüfen, um die Einhaltung dieser Anforderungen zu überprüfen. Wenn wir feststellen, dass Sie die ausgehende Datenübertragung zu einem anderen Zweck als dem Verlassen von AWS verwendet haben, können wir Ihnen die gutgeschriebene ausgehende Datenübertragung in Rechnung stellen.
g) AWS kann jederzeit Änderungen in Bezug auf kostenlose Datenübertragungen ins Internet vornehmen.
F: Warum muss ich die Vorabgenehmigung von AWS für die kostenlose Datenübertragung ins Internet einholen, bevor ich meine Daten aus AWS verschiebe?
AWS-Kunden führen täglich Hunderte Millionen von Datenübertragungen durch, und wir kennen im Allgemeinen nicht den Grund für eine bestimmte Datenübertragung. Beispielsweise können Kunden Daten zu Backup-Zwecken an einen Endbenutzer ihrer Anwendung, an einen Besucher ihrer Website oder an eine andere Cloud- oder On-Premises-Umgebung übertragen. Daher können wir nur dann wissen, dass Ihre Datenübertragung dazu dient, Ihren Umzug von AWS zu unterstützen, wenn Sie uns dies im Voraus mitteilen.
Amazon S3 und IPv6
F: Was ist IPv6?
Alle Server und Geräte, die mit dem Internet verbunden sind, müssen eine eindeutige Adresse haben. Internet Protocol Version 4 (IPv4) war das Originalschema für 32-Bit-Adressen. Das anhaltende Wachstum des Internets würde jedoch dazu führen, dass alle verfügbaren IPv4-Adressen nach einiger Zeit in Gebrauch sind. Internet Protocol Version 6 (IPv6) ist ein Adressierungsmechanismus, der dazu konzipiert wurde, die globalen Adresseinschränkungen von IPv4 zu überwinden.
F: Was kann ich mit IPv6 tun?
Mit der IPv6-Unterstützung für Amazon S3 können Anwendungen eine Verbindung zu Amazon S3 herstellen, ohne Software oder Systeme für die Übersetzung von IPv6 in IPv4 zu benötigen. Sie können Compliance-Anforderungen erfüllen, eine Integration mit bestehenden Vor-Ort-Anwendungen auf IPv6-Basis einfacher durchführen und die Notwendigkeit teurer Netzwerkausrüstung zum Verarbeiten der Adressenübersetzung eliminieren. Sie können jetzt außerdem die vorhandenen Features zum Filtern von Quelladressen in IAM-Richtlinien und Bucket-Richtlinien mit IPv6-Adressen nutzen, um Ihre Optionen zum Schützen von Anwendungen bei der Zusammenarbeit mit Amazon S3 zu erweitern.
F: Was sind die ersten Schritte mit IPv6 mit Amazon S3?
Sie können damit beginnen, Ihre Anwendung auf den „Dual Stack“-Endpunkt von Amazon S3 zu verweisen, der Zugriff sowohl über IPv4 als auch über IPv6 unterstützt. In den meisten Fällen wird für den Zugriff über IPv6 keine weitere Konfiguration benötigt, da die meisten Netzwerk-Clients standardmäßig IPv6-Adressen bevorzugen. Anwendungen, die durch die Verwendung von IPv6 beeinträchtigt werden, können jederzeit auf die standardmäßigen nur IPv4-fähigen Endpunkte zurückgeschaltet werden. IPv6 für Amazon S3 wird in allen kommerziellen AWS-Regionen unterstützt, einschließlich der Regionen AWS GovCloud (USA) und der Amazon-Web-Services-Regionen China (Peking), die von Sinnet betrieben wird, und China (Ningxia), die von NWCD betrieben wird.
F: Muss ich mit einer Änderung der Amazon-S3-Leistung rechnen, wenn ich IPv6 nutze?
Nein, die Leistung von Amazon S3 ist mit IPv4 und IPv6 gleich.
S3-Ereignisbenachrichtigungen
F: Was sind Amazon-S3-Ereignisbenachrichtigungen?
Sie können das Feature Amazon-S3-Ereignisbenachrichtigungen verwenden, um Benachrichtigungen zu erhalten, wenn bestimmte Ereignisse in Ihrem S3-Bucket auftreten, z.B. PUT-, POST-, COPY- und DELETE-Ereignisse. Sie können diese Benachrichtigungen in Amazon EventBridge, Amazon SNS, Amazon SQS oder direkt in AWS Lambda veröffentlichen.
F: Was kann ich mit Amazon-S3-Ereignisbenachrichtigungen tun?
Amazon-S3-Ereignisbenachrichtigungen ermöglichen Ihnen das Auslösen von Workflows, das Versenden von Warnungen und andere Aktionen als Reaktion auf Änderungen Ihrer Objekte, die in S3 gespeichert sind. Mit S3-Ereignisbenachrichtigungen können Sie Auslöser für die Ausführung von Aktionen einrichten, zum Beispiel für die Transkodierung von Mediendateien beim Hochladen, die Verarbeitung von Datendateien, wenn diese verfügbar werden, und die Synchronisierung von S3-Objekten mit anderen Datenspeichern. Sie können außerdem Ereignisbenachrichtigungen anhand von Objektnamenpräfixen und -suffixen einrichten. Zum Beispiel können Sie wahlweise Benachrichtigungen über Objektnamen erhalten, die mit „images/“ beginnen.
F: Was ist in Amazon-S3-Ereignisbenachrichtigungen enthalten?
Eine detaillierte Beschreibung der Informationen, die in den Amazon-S3-Ereignisbenachrichtigungen enthalten sind, finden Sie in der Dokumentation zur Konfiguration von Amazon-S3-Ereignisbenachrichtigungen.
F: Wie kann ich Amazon-S3-Ereignisbenachrichtigungen einrichten?
Eine detaillierte Beschreibung der Konfiguration von Ereignisbenachrichtigungen finden Sie in der Dokumentation Konfiguration von Amazon-S3-Ereignisbenachrichtigungen. Weitere Informationen über AWS-Messaging-Services finden Sie in der Amazon-SNS-Dokumentation und der Amazon SQS-Dokumentation.
F: Was kostet die Nutzung von Amazon-S3-Ereignisbenachrichtigungen?
Für die Nutzung von Amazon-S3-Ereignisbenachrichtigungen werden keine zusätzlichen Gebühren berechnet. Sie zahlen lediglich für die Nutzung von Amazon SNS oder Amazon SQS für die Lieferung von Ereignisbenachrichtigungen oder für die Ausführung einer AWS Lambda-Funktion. Besuchen Sie die Seiten mit den Preisen für Amazon SNS, Amazon SQS oder AWS Lambda, um Einzelheiten zu den Preisen für diese Services zu finden.
Amazon S3 Transfer Acceleration
F: Was ist S3 Transfer Acceleration?
Amazon S3 Transfer Acceleration ermöglicht die schnelle, einfache und sichere Übertragung von Dateien über große Entfernungen zwischen Ihrem Client und Ihrem Amazon-S3-Bucket. S3 Transfer Acceleration nutzt die weltweit verteilten AWS-Edge-Standorte von Amazon CloudFront. Wenn Daten an einem AWS-Edge-Standort eintreffen, werden sie über einen optimierten Netzwerkpfad an Ihren Amazon-S3-Bucket weitergeleitet.
F: Was sind die ersten Schritte bei S3 Transfer Acceleration?
Um mit der Nutzung von S3 Transfer Acceleration zu beginnen, aktivieren Sie S3 Transfer Acceleration in einem S3-Bucket mithilfe der Amazon-S3-Konsole, der Amazon-S3-API oder der AWS CLI. Nachdem S3 Transfer Acceleration aktiviert wurde, können Sie mit Ihren Amazon S3-PUT- und -GET-Anforderungen auf den Endpunkt-Domain-Namen „s3-accelerate“ verweisen. Ihre Anwendung für die Datenübertragung muss einen der beiden folgenden Endpunkttypen verwenden, um auf den Bucket für schnellere Datenübertragung zuzugreifen: .s3-accelerate.amazonaws.com oder .s3-accelerate.dualstack.amazonaws.com für den „Dual Stack“-Endpunkt. Wenn Sie die Standard-Datenübertragung verwenden möchten, können Sie weiterhin die regulären Endpunkte verwenden.
Es gibt bestimmte Einschränkungen dazu, welche Buckets S3 Transfer Acceleration unterstützen. Einzelheiten finden Sie in der Dokumentation zu Amazon S3.
F: Wie schnell ist S3 Transfer Acceleration?
Mit S3 Transfer Acceleration können Sie Ihre Bandbreite voll nutzen, die Auswirkungen der Entfernung auf den Durchsatz minimieren und die gleichbleibend schnelle Datenübertragung zu Amazon S3 unabhängig vom Standort des Clienten sicherstellen. Die Beschleunigung hängt dabei vor allem von der verfügbaren Bandbreite, der Entfernung zwischen Quelle und Ziel und den Paketverlustraten im Netzwerkpfad ab. Allgemein ist die Beschleunigung höher, wenn die Quelle weiter vom Ziel entfernt ist, wenn es mehr verfügbare Bandbreite gibt und/oder wenn das Objekt größer ist.
Ein Kunde hat eine Reduzierung der Durchschnittszeit von 50 % für die Aufnahme von 300 MB an Dateien von einer globalen Benutzerbasis, die in den USA, in Europa und in Teilen Asiens verteilt ist, zu einem Bucket in der Region Asien Pazifik (Sydney) gemessen. Ein anderer Kunde hat Fälle beobachtet, in denen die Leistung für Benutzer in Südostasien und Australien beim Hochladen von 250 MB an Dateien (zu jeweils 50 MB) in einen S3-Bucket in der Region USA Ost (Nord-Virginia) um 500 % erhöht wurde.
Greifen Sie auf das Geschwindigkeitsvergleichstool von S3 Transfer Acceleration zu, um eine Vorschau auf den Leistungsvorteil an Ihrem Standort zu erhalten.
F: Wer sollte S3 Transfer Acceleration verwenden?
S3 Transfer Acceleration wurde entwickelt, um die Übertragungsgeschwindigkeiten aus aller Welt in S3-Buckets zu optimieren. Wenn Sie Daten in einen zentralisierten Bucket von geografisch verteilten Standorten aus hochladen oder wenn Sie regelmäßig mehrere GB oder TB an Daten über Kontinente hinweg übertragen, können Sie mit S3 Transfer Acceleration Stunden oder Tage an Datenübertragungszeit sparen.
F: Wie sicher ist S3 Transfer Acceleration?
S3 Transfer Acceleration bietet die gleiche Sicherheit wie reguläre Übertragungen zu Amazon S3. Alle Amazon S3-Sicherheitsfeatures, zum Beispiel Zugriffsbeschränkungen basierend auf der IP-Adresse eines Clients, werden ebenfalls unterstützt. S3 Transfer Acceleration kommuniziert mit Clients über Standard-TCP und erfordert keine Firewall-Änderungen. An AWS-Edge-Standorten werden keine Daten gespeichert.
F: Was geschieht, wenn S3 Transfer Acceleration nicht schneller ist als eine reguläre Amazon S3-Übertragung?
Jedes Mal, wenn Sie S3 Transfer Acceleration zum Hochladen eines Objekts verwenden, überprüfen wir, ob S3 Transfer Acceleration wahrscheinlich schneller als eine reguläre Amazon S3-Übertragung sein wird. Wenn wir ermitteln, dass S3 Transfer Acceleration wahrscheinlich nicht schneller als eine reguläre Amazon S3-Übertragung des gleichen Objekts in die gleiche AWS-Zielregion sein wird, erheben wir für die Verwendung von S3 Transfer Acceleration für diese Übertragung keine Gebühr und umgehen möglicherweise das S3 Transfer Acceleration-System für diesen Upload.
F: Kann ich S3 Transfer Acceleration für mehrteilige Uploads verwenden?
Ja, S3 Transfer Acceleration unterstützt alle Features auf Bucket-Ebene, einschließlich mehrteiliger Uploads.
F: Wie kann ich mich zwischen S3 Transfer Acceleration und PUT/POST von Amazon CloudFront entscheiden?
S3 Transfer Acceleration optimiert das TCP-Protokoll und fügt zusätzliche Informationen zwischen dem Client und dem S3-Bucket hinzu, sodass S3 Transfer Acceleration die bessere Wahl ist, wenn ein höherer Durchsatz gewünscht wird. Wenn Sie Objekte haben, die kleiner als 1 GB sind, oder wenn der gesamte Datensatz kleiner als 1 GB ist, sollten Sie für eine optimale Leistung die PUT-/POST-Befehle von Amazon CloudFront verwenden.
F: Kann S3 Transfer Acceleration AWS Direct Connect ergänzen?
AWS Direct Connect ist eine gute Wahl für Kunden, die ein privates Netzwerk benötigen oder Zugriff auf den AWS Direct Connect-Datenaustausch haben. S3 Transfer Acceleration eignet sich vor allem für das Versenden von Daten von verteilten Client-Standorten über das öffentliche Internet oder in Fällen, in denen der Durchsatz aufgrund variabler Netzwerkbedingungen schlecht ist. Einige AWS-Direct-Connect-Kunden verwenden S3 Transfer Acceleration für Übertragungen an Filialen, die möglicherweise unter einer schlechten Internetleistung leiden.
F: Kann S3 Transfer Acceleration AWS Storage Gateway oder das Gateway eines Drittanbieters ergänzen?
Wenn Sie das Bucket-Ziel im Gateway Ihres Drittanbieters mit dem Domänennamen eines S3-Transfer-Acceleration-Endpunkts konfigurieren können, können Sie diesen Vorteil nutzen.
Weitere Informationen zur AWS-Implementierung erhalten Sie unter Dateiabschnitt: Storage Gateway – Häufig gestellte Fragen.
F: Kann S3 Transfer Acceleration integrierte Software von Drittanbietern ergänzen?
Ja. Softwarepakete, die eine direkte Verbindung mit Amazon S3 herstellen, können S3 Transfer Acceleration nutzen, wenn sie ihre Aufträge an Amazon S3 senden.
F: Ist S3 Transfer Acceleration HIPAA-fähig?
Ja, AWS hat sein HIPAA-Compliance-Programm auf S3 Transfer Acceleration als HIPAA-fähigen Service ausgeweitet. Wenn Sie ein aktives Business Associate Agreement (BAA) mit AWS haben, können Sie S3 Transfer Acceleration verwenden, um die schnelle, einfache und sichere Übertragung von Dateien, darunter auch geschützte Gesundheitsinformationen (Protected Health Information, PHI), über weite Entfernungen zwischen Ihrem Client und Ihrem Amazon-S3-Bucket zu ermöglichen.
Sicherheit
F: Wie sicher sind meine Daten in Amazon S3?
Amazon S3 ist standardmäßig sicher. Nach der Erstellung haben nur Sie Zugriff auf die von Ihnen erstellten Amazon S3-Buckets, und Sie haben die vollständige Kontrolle darüber, wer Zugriff auf Ihre Daten hat. Amazon S3 unterstützt Funktionen zur Benutzerauthentifizierung, um den Zugriff auf die Daten zu kontrollieren. Sie haben Zugriff auf die Kontrollmechanismen wie die Bucket-Richtlinien, um bestimmten Benutzern und Benutzergruppen selektiv Zugriffsrechte zu erteilen. Die Amazon S3-Konsole hebt Ihre öffentlich zugänglichen Buckets hervor, zeigt die Quelle des öffentlichen Zugangs an und warnt Sie außerdem, wenn durch Änderungen an Bucket-Richtlinien oder Bucket-Zugriffssteuerungslisten Ihr Bucket öffentlich zugänglich wird. Sie sollten Amazon S3 Block Public Access für alle Konten und Buckets aktivieren, von denen Sie nicht möchten, dass sie öffentlich zugänglich sind. Bei allen neuen Buckets ist Block Public Access standardmäßig aktiviert.
Über SSL-Endpunkte, die das HTTPS-Protokoll verwenden, können Sie sicher Ihre Daten in Amazon S3 hoch- bzw. herunterladen. Amazon S3 verschlüsselt automatisch alle Objekt-Uploads in Ihren Bucket (ab dem 5. Januar 2023). Alternativ können Sie mit Ihren eigenen Verschlüsselungsbibliotheken Daten vor dem Speichern in Amazon S3 verschlüsseln.
Weitere Informationen zur Sicherheit in AWS finden Sie auf der Seite AWS Security. Sicherheitsinformationen zu S3 finden Sie auf der Seite S3 Security und dem Leitfaden zu bewährten AWS-Sicherheitsmethoden.
F: Wie kann ich den Zugriff auf meine über Amazon S3 gespeicherten Daten kontrollieren?
Kunden können eine Reihe von Mechanismen zur Kontrolle des Zugriffs auf Amazon-S3-Ressourcen verwenden, einschließlich AWS-IAM (Identity and Access Management)-Richtlinien, Bucket-Richtlinien, Zugriffspunktrichtlinien, Zugriffssteuerungslisten (ACLs), Abfrage-String-Authentifizierung, Amazon-VPC (Virtual Private Cloud)-Endpunktrichtlinien, Service-Kontrollrichtlinien (SCPs) in AWS Organizations und Amazon S3 Block Public Access.
IAM
IAM ermöglicht es Unternehmen mit mehreren Mitarbeitern, eine Vielzahl an Benutzern in einem einzigen AWS-Konto zu erstellen und zu verwalten. Mit IAM-Richtlinien können Kunden IAM-Benutzern umfangreiche Kontrollfunktionen für den Zugriff auf ihren Amazon S3-Bucket oder auf Amazon S3-Objekte bieten und verfügen gleichzeitig über die vollständige Kontrolle über sämtliche Aktionen, die die Benutzer durchführen.
Bucket und Zugriffspunktrichtlinien
Bei Bucket- und Zugriffspunktrichtlinien definieren Kunden Regeln, die umfassend für alle Anfragen an ihre Amazon-S3-Ressourcen angewandt werden. So kann beispielsweise festgelegt werden, dass für ein Subset von Amazon-S3-Ressourcen Schreibberechtigungen gewährt werden. Kunden können den Zugriff auch basierend auf bestimmten Aspekten der Anforderung, z. B. HTTP-Referrer und IP-Adresse, einschränken.
ACLs
Amazon S3 unterstützt das ursprüngliche Zugriffskontrollverfahren von S3; Zugriffssteuerungslisten (ACLs). Mit ACLs können Kunden spezifische Genehmigungen (d. h. READ (Lesen), WRITE (Schreiben), und FULL_CONTROL (volle Kontrolle)) für bestimmte Nutzer und einzelne Buckets oder Objekte festlegen. Für Kunden, die es vorziehen, ausschließlich Richtlinien für die Zugriffskontrolle zu verwenden, bietet Amazon S3 das Feature S3 Object Ownership zur Deaktivierung von ACLs. Sie können S3 Inventory verwenden, um die ACLs-Nutzung in Ihren Buckets zu überprüfen, bevor Sie S3 Object Ownership aktivieren, wenn Sie auf IAM-basierte Buckets-Richtlinien migrieren.
Abfrage-String-Authentifizierung
Bei der Abfrage-String-Authentifizierung haben Kunden die Möglichkeit, eine URL zu einem Amazon-S3-Objekt zu erstellen, die nur für einen begrenzten Zeitraum gültig ist. Weitere Informationen zu den verschiedenen Zugriffskontrollrichtlinien, die in Amazon S3 verfügbar sind, finden Sie in der Dokumentation zur Zugriffskontrolle.
Amazon VPC
Wenn Kunden einen Amazon-VPC-Endpunkt erstellen, können sie diesem eine Endpunktrichtlinie zuordnen, die den Zugriff auf die Amazon-S3-Ressourcen steuert, mit denen sie sich verbinden. Kunden können auch Amazon-S3-Bucket-Richtlinien verwenden, um den Zugriff auf Buckets von bestimmten Endpunkten oder bestimmten VPCs aus zu steuern.
Service-Kontrollrichtlinien
Service-Kontrollrichtlinien (SCPs) sind eine Art von AWS-Organizations-Richtlinie, die Kunden zur Verwaltung von Berechtigungen in ihrer Organisation verwenden können. SCPs bieten eine zentrale Kontrolle über die maximal verfügbaren Berechtigungen für alle Konten in einer Organisation. Mit SCPs können Kunden sicherstellen, dass ihre Konten die Zugriffskontrollrichtlinien des Unternehmens einhalten.
S3 Block Public Access
Amazon S3 Block Public Access bietet Einstellungen für Zugriffspunkte, Buckets und Konten, um Kunden bei der Verwaltung des öffentlichen Zugriffs auf Amazon-S3-Ressourcen zu unterstützen. Mit S3 Block Public Access können Kontoadministratoren und Bucket-Besitzer ganz einfach zentrale Kontrollen einrichten, um den öffentlichen Zugriff auf ihre Amazon-S3-Ressourcen einzuschränken, die unabhängig davon gelten, wie die Ressourcen erstellt wurden. In allen neuen Buckets ist die Option Block Public Access standardmäßig aktiviert, um die Sicherheit zu gewährleisten.
Weitere Informationen zu Richtlinien und Berechtigungen entnehmen Sie der AWS-IAM-Dokumentation.
F: Unterstützt Amazon S3 Funktionen zur Datenzugriffsprüfung?
Ja, Kunden können optional Amazon S3-Buckets konfigurieren, um Zugriffsprotokolle für sämtliche Zugriffe zu erstellen. Alternativ können Kunden, die IAM-Informationen/Informationen über die Identität von Benutzern in ihren Protokollen erfassen müssen, AWS CloudTrail-Datenereignisse konfigurieren.
Diese Zugriffsprotokolle können für die Durchführung von Audits verwendet werden und enthalten Details zu den jeweiligen Datenabrufen, wie beispielsweise die Art des Abrufs, die bei dem Abruf verwendeten Dateien oder die das Datum und die Uhrzeit des Abrufs.
F: Welche Möglichkeiten der Datenverschlüsselung stehen mir in Amazon S3 zur Verfügung?
Amazon S3 verschlüsselt alle neuen Daten-Uploads in einen beliebigen Bucket. Amazon S3 wendet die von S3 verwaltete serverseitige Verschlüsselung (SSE-S3) als Basisverschlüsselung für alle Objekt-Uploads an (ab dem 5. Januar 2023). SSE-S3 bietet eine vollständig verwaltete Lösung, wobei Amazon wichtige Aspekte von Management und Schutz übernimmt und mehrere Sicherheitsebenen verwendet. Wenn Sie möchten, dass sich Amazon um die Verwaltung Ihrer Schlüssel kümmert, sollten Sie SSE-S3 weiterhin verwenden. Darüber hinaus können Sie Daten mit SSE-C, SSE-KMS, DSSE-KMS oder einer Client-Bibliothek wie dem Amazon S3 Encryption Client verschlüsseln. Mit jeder Option können Sie vertrauliche Daten während der Speicherung auf Amazon S3 verschlüsseln.
Mit SSE-C kann Amazon S3 die Ver- und Entschlüsselung von Objekten durchführen, während Sie die Kontrolle über die Verschlüsselungsschlüssel behalten. Mit SSE-C brauchen Sie keine clientseitige Bibliothek zu implementieren oder zu verwenden, um die Verschlüsselung und Entschlüsselung von Objekten durchzuführen, die Sie auf Amazon S3 speichern. Sie müssen aber die Schlüssel verwalten, die Sie an Amazon S3 senden, um Objekte zu ver- und entschlüsseln. Verwenden Sie SSE-C, wenn Sie Ihre eigenen Verschlüsselungscodes verwalten möchten, aber keine clientseitige Verschlüsselungsbibliothek implementieren oder nutzen möchten.
SSE-KMS lässt AWS Key Management Service (AWS KMS) Ihre Verschlüsselungscodes verwalten. Die Verwendung von AWS KMS zum Verwalten Ihrer Schlüssel bietet mehrere zusätzliche Vorteile. Mit AWS KMS gibt es separate Berechtigungen für die Verwendung des KMS-Schlüssels. Dies bietet eine zusätzliche Kontrollebene und Schutz gegen nicht autorisierten Zugriff auf die in Amazon S3 gespeicherten Objekte. AWS KMS bietet einen Audit-Trail, sodass Sie sehen können, wer Ihren Schlüssel wann benutzt hat, um auf welches Objekt zuzugreifen, und welche fehlgeschlagenen Versuche es von Benutzern ohne Berechtigung gab, die Daten zu entschlüsseln. Außerdem bietet AWS KMS zusätzliche Sicherheitskontrollen zur Unterstützung der Kunden beim Einhalten der Branchenanforderungen PCI-DSS, HIPAA/HITECH und FedRAMP.
DSSE-KMS vereinfacht den Prozess der Anwendung zweier Verschlüsselungsebenen auf Ihre Daten, ohne dass Sie in die für die clientseitige Verschlüsselung erforderliche Infrastruktur investieren müssen. Jede Verschlüsselungsebene verwendet eine andere Implementierung des 256-Bit-Algorithmus „Advanced Encryption Standard with Galois Counter Mode“ (AES-GCM) und wird für die Verwendung bei streng geheimen Workloads überprüft und akzeptiert. DSSE-KMS verwendet AWS KMS zum Generieren von Datenschlüsseln und lässt AWS KMS Ihre Verschlüsselungsschlüssel verwalten. Mit AWS KMS gibt es separate Berechtigungen für die Verwendung des KMS-Schlüssels. Dies bietet eine zusätzliche Kontrollebene und Schutz gegen nicht autorisierten Zugriff auf die in Amazon S3 gespeicherten Objekte. AWS KMS bietet einen Audit-Trail, sodass Sie sehen können, wer Ihren Schlüssel wann benutzt hat, um auf welches Objekt zuzugreifen, und welche fehlgeschlagenen Versuche es von Benutzern ohne Berechtigung gab, die Daten zu entschlüsseln. Außerdem bietet AWS KMS zusätzliche Sicherheitskontrollen zur Unterstützung der Kunden beim Einhalten der Branchenanforderungen PCI-DSS, HIPAA/HITECH und FedRAMP.
Bei Verwendung einer Client-Verschlüsselungsbibliothek behalten Sie die Kontrolle über die Schlüssel und vervollständigen Sie die Ver- und Entschlüsselung von Objekten auf der Client-Seite mit einer Verschlüsselungsbibliothek Ihrer Wahl. Manche Kunden möchten die vollständige Kontrolle über die Verschlüsselung und Entschlüsselung von Objekten behalten. In diesem Fall werden nur verschlüsselte Objekte über das Internet zu Amazon S3 gesendet. Verwenden Sie eine clientseitige Bibliothek, wenn Sie die Kontrolle über Ihre Verschlüsselungscodes behalten wollen, eine clientseitige Verschlüsselungsbibliothek implementieren oder verwenden können und Ihre Objekte verschlüsseln müssen, bevor sie zur Speicherung zu Amazon S3 gesendet werden.
Weitere Informationen zur Verwendung von Amazon S3 SSE-S3, SSE-C oder SSE-KMS finden Sie in der Dokumentation Schutz von Daten durch Verschlüsselung.
F: Kann ich bei Nutzung von Amazon S3 die europäischen Datenschutzbestimmungen einhalten?
Kunden können alle Daten in Europa speichern, indem Sie die Region Europa (Frankfurt), Europa (Irland), Europa (Paris), Europa (Stockholm), Europa (Mailand), Europa (Spanien), Europa (London) oder Europa (Zürich) wählen. Sie können auch Amazon S3 auf Outposts verwenden, um alle Ihre Daten On-Premises auf dem AWS Outpost zu halten, und Sie können wählen, ob Sie Daten zwischen AWS Outposts oder in eine AWS-Region übertragen möchten. Dennoch liegt es in Ihrer Verantwortung sicherzustellen, dass Sie die europäischen Datenschutzbestimmungen einhalten. Weitere Informationen finden Sie im AWS-Datenschutz-Grundverordnungs (DSGVO) -Zentrum und AWS-Datenschutz-Zentrum. Wenn Sie spezifischere Standortanforderungen oder andere Datenschutzbestimmungen haben, die Sie dazu verpflichten, Daten an einem Ort aufzubewahren, an dem es keine AWS Region gibt, können Sie S3 auf Outposts verwenden.
F: Was ist ein Amazon-VPC-Endpunkt für Amazon S3?
Ein Amazon-VPC-Endpunkt für Amazon S3 ist eine logische Entität innerhalb einer VPC, die die Verbindung zu S3 über das globale AWS-Netzwerk ermöglicht. Es gibt zwei Arten von VPC-Endpunkten für S3: Gateway-VPC-Endpunkte und Schnittstellen-VPC-Endpunkte. Gateway-Endpunkte sind ein Gateway, das Sie in Ihrer Routentabelle angeben, um von Ihrer VPC über das AWS-Netzwerk auf S3 zuzugreifen. Schnittstellenendpunkte erweitern die Funktionalität von Gateway-Endpunkten, indem sie private IP-Adressen verwenden, um Anforderungen aus Ihrer VPC, lokal oder aus einer anderen AWS-Region an S3 weiterzuleiten. Weitere Informationen finden Sie in der Dokumentation zu AWS PrivateLink für Amazon S3.
F: Kann ich einem bestimmten Amazon-VPC-Endpunkt Zugriff auf meinen Amazon-S3-Bucket gewähren?
Sie können den Zugriff auf Ihren Bucket von einem bestimmten Amazon VPC-Endpunkt oder eine Gruppe von Endpunkten aus mithilfe von Amazon S3-Bucket-Richtlinien begrenzen. S3-Bucket-Richtlinien unterstützen nun die Bedingung aws:sourceVpce, mit der Sie den Zugriff beschränken können. Weitere Details und Beispielrichtlinien finden Sie in der Dokumentation zu Gateway-Endpunkten für S3.
F: Was ist AWS PrivateLink für Amazon S3?
AWS PrivateLink für S3 bietet private Konnektivität zwischen Amazon S3 und der On-Premises-Umgebung. Sie können Schnittstellen-VPC-Endpunkte für S3 in Ihrer VPC bereitstellen, um Ihre lokalen Anwendungen über AWS Direct Connect oder AWS VPN direkt mit S3 zu verbinden. Sie müssen keine öffentlichen IP-Adressen mehr verwenden, keine Firewall-Regeln ändern oder ein Internet-Gateway konfigurieren, um aus der On-Premises-Umgebung auf S3 zuzugreifen. Weitere Informationen dazu finden Sie in der Dokumentation zu AWS PrivateLink für S3.
F: Wie kann ich mit der Nutzung der Schnittstellen-VPC-Endpunkte für S3 beginnen?
Sie können einen Schnittstellen-VPC-Endpunkt mithilfe der AWS-VPC-Managementkonsole, der AWS Command Line Interface (AWS CLI), des AWS SDK oder der API erstellen. Weitere Informationen finden Sie in der Dokumentation.
F: Wann sollte ich Gateway-VPC-Endpunkte anstelle von AWS-PrivateLink-basierten Schnittstellen-VPC-Endpunkten auswählen?
AWS empfiehlt, dass Sie Schnittstellen-VPC-Endpunkte verwenden, um von lokal oder von einer VPC in einer anderen AWS-Region auf S3 zuzugreifen. Für Ressourcen, die über VPC in derselben AWS-Region wie S3 auf S3 zugreifen, empfehlen wir die Verwendung von Gateway-VPC-Endpunkten, da diese nicht in Rechnung gestellt werden. Weitere Informationen finden Sie in der Dokumentation.
F: Kann ich sowohl Schnittstellenendpunkte als auch Gateway-Endpunkte für S3 in derselben VPC verwenden?
Ja. Wenn Sie über einen vorhandenen Gateway-VPC-Endpunkt verfügen, erstellen Sie einen Schnittstellen-VPC-Endpunkt in Ihrer VPC und aktualisieren Sie Ihre Clientanwendungen mit den spezifischen VPC-Endpunktnamen. Wenn Ihre VPC-Endpunkt-ID des Schnittstellenendpunkts beispielsweise vpce-0fe5b17a0707d6abc-29p5708s in der Region us-east-1 lautet, lautet Ihr Endpunkt-spezifischer DNS-Name vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce. amazonaws.com. In diesem Fall werden nur die Anforderungen an die spezifischen Namen des VPC-Endpunkts über die Schnittstellen-VPC-Endpunkte an S3 weitergeleitet, während alle anderen Anforderungen weiterhin über den Gateway-VPC-Endpunkt weitergeleitet werden. Weitere Informationen finden Sie in der Dokumentation.
F: Was ist Amazon Macie und wie kann ich es benutzen, um meine Daten zu schützen?
Amazon Macie ist ein KI-gesteuerter Sicherheitsservice, der Ihnen dabei hilft, Datenverlust zu vermeiden, indem er vertrauliche, in Amazon S3 gespeicherte Daten automatisch erkennt, klassifiziert und schützt. Amazon Macie verwendet Machine Learning für die Neuorganisation vertraulicher Daten wie persönliche identifizierbare Informationen (Personally Identifiable Information, PII) oder geistiges Eigentum, weist einen Geschäftswert zu und stellt Transparenz bezüglich des Speicherorts dieser Daten sowie des Verwendens dieser Daten in Ihrer Organisation bereit. Amazon Macie überwacht fortlaufend Datenzugriffsaktivitäten für Anomalien und stellt Warnungen bereit, wenn ein Risiko durch einen nicht autorisierten Zugriff oder unbeabsichtigte Datenlecks erkannt wird.
Sie können Amazon Macie zum Schutz vor Sicherheitsbedrohungen verwenden, indem Sie Ihre Daten und Kontoanmeldeinformationen fortlaufend überwachen. Amazon Macie bietet Ihnen eine automatische und einfache Methode zum Erkennen und Klassifizieren Ihrer Geschäftsdaten. Es stellt Kontrollen mithilfe vorlagenbasierter Lambda-Funktionen bereit, um den Zugriff zu widerrufen oder Passwort-Zurücksetzungsrichtlinien beim Erkennen eines verdächtigen Verhaltens oder nicht autorisierten Datenzugriffs auf Entitäten oder Drittanbieter-Anwendungen auszulösen. Wenn Warnungen generiert werden, können Sie Amazon Macie für die Vorfallreaktion verwenden und dabei Amazon CloudWatch Events nutzen, um schnell Maßnahmen zum Schutz Ihrer Daten zu ergreifen. Weitere Informationen finden Sie in der Dokumentation von Amazon Macie
Was ist IAM Access Analyzer for Amazon S3 und wie funktioniert es?
Access Analyzer for S3 ist ein Feature, mit der Sie die Berechtigungsverwaltung vereinfachen können, indem Sie Richtlinien für Ihre S3-Buckets und Zugriffspunkte verifizieren und optimieren. Access Analyzer for S3 überwacht Ihre bestehenden Bucket-Zugriffsrichtlinien, um zu bestätigen, dass sie Ihren S3-Ressourcen nur den notwendigen Zugriff erteilen. Access Analyzer for S3 wertet Ihre Bucket-Zugriffsrichtlinien aus und hilft Ihnen, Änderungen an Buckets, auf die kein Zugriff erforderlich ist, schnell zu erkennen und vorzunehmen.
Access Analyzer for S3 warnt, wenn ein Bucket vorhanden ist, der so konfiguriert ist, dass er den Zugriff auf Personen im Internet ermöglicht oder der mit anderen AWS-Konten geteilt wird. Sie erhalten Einblicke oder „Kenntnisse“ über die Quelle und die Ebene des öffentlichen oder geteilten Zugangs. Access Analyzer for S3 informiert Sie beispielsweise pro-aktiv, wenn Lese- oder Schreibzugriffe unbeabsichtigt über eine Zugriffskontrollliste oder eine Bucket-Richtlinie bereitgestellt wurden. Mit diesen Informationen können Sie die beabsichtigte Zugriffsrichtlinie sofort festlegen oder wiederherstellen.
Wenn Sie Ergebnisse überprüfen, die einen potenziell gemeinsamen Zugriff auf einen Bereich anzeigen, können Sie den öffentlichen Zugriff auf den Bucket mit einem einzigen Klick in der S3-Konsole blockieren. Sie können auch einen Drilldown in die Berechtigungseinstellungen auf Bucket-Ebene ausführen, um detaillierte Zugriffsebenen zu konfigurieren. Zu Prüfungszwecken können die Ergebnisse von Access Analyzer für S3 als CSV-Bericht heruntergeladen werden.
Die Amazon-S3-Konsole meldet jetzt Sicherheitswarnungen, Fehler und Vorschläge von IAM Access Analyzer, während Sie Ihre S3-Richtlinien erstellen. Die Konsole führt automatisch mehr als 100 Richtlinienprüfungen durch, um Ihre Richtlinien zu validieren. Diese Prüfungen sparen Ihnen Zeit, helfen Ihnen bei der Fehlerbehebung und unterstützen Sie bei der Anwendung bewährter Sicherheitsverfahren.
Weitere Informationen finden Sie in der Dokumentation zu IAM Access Analyzer.
S3 Access Grants
F: Was sind Amazon S3 Access Grants?
Amazon S3 Access Grants ordnen Identitäten in Verzeichnissen wie Active Directory oder AWS-Identity-and-Access-Management-Prinzipalen (IAM) Datensätzen in S3 zu. Auf diese Weise können Sie Datenberechtigungen in großem Umfang verwalten, indem Endbenutzern automatisch auf der Grundlage ihrer Unternehmensidentität S3-Zugriff gewährt wird. Darüber hinaus protokolliert S3 Access Grants die Identität des Endbenutzers und die Anwendung, die für den Zugriff auf S3-Daten in AWS CloudTrail verwendet wird. Dies hilft dabei, für den gesamten Zugriff auf die Daten in Ihren S3-Buckets einen detaillierten Prüfungsverlauf bis hin zur Endbenutzeridentität bereitzustellen.
F: Warum sollte ich S3 Access Grants verwenden?
Sie sollten S3 Access Grants verwenden, wenn Ihre S3-Daten von vielen Benutzern und Anwendungen gemeinsam genutzt und abgerufen werden, wenn sich einige ihrer Identitäten in Ihrem Unternehmensverzeichnis befinden, wie Okta oder Entra ID, und Sie eine skalierbare, einfache und überprüfbare Methode benötigen, um den Zugriff auf diese S3-Datensätze in großem Umfang zu gewähren.
F: Welche ersten Schritte sind für S3 Access Grants erforderlich?
Sie können in vier Schritten mit S3 Access Grants beginnen. Konfigurieren Sie zunächst eine S3-Access-Grants-Instance. Wenn Sie in diesem Schritt S3 Access Grants mit Benutzern und Gruppen in Ihrem Unternehmensverzeichnis verwenden möchten, aktivieren Sie AWS Identity Center und verbinden Sie S3 Access Grants mit Ihrer Identity-Center-Instance. Zweitens registrieren Sie einen Standort bei S3 Access Grants. Während dieses Vorgangs weisen Sie S3 Access Grants eine IAM-Rolle zu, die verwendet wird, um temporäre S3-Anmeldeinformationen zu erstellen, die Benutzer und Anwendungen für den Zugriff auf S3 verwenden können. Drittens definieren Sie Genehmigungen, die spezifizieren, wer auf was zugreifen kann. Lassen Sie Ihre Anwendung schließlich zum Zeitpunkt des Zugriffs temporäre Anmeldeinformationen von S3 Access Grants anfordern und verwenden Sie die von Access Grants bereitgestellten Anmeldeinformationen, um auf S3 zuzugreifen.
F: Welche Arten von Identitäten werden für S3-Access-Grants-Berechtigungserteilungen unterstützt?
S3 Access Grants unterstützt zwei Arten von Identitäten: Unternehmensbenutzer- oder Gruppenidentitäten aus AWS Identity Center und AWS-IAM-Prinzipale, einschließlich IAM-Benutzer und -Rollen. Wenn Sie S3 Access Grants mit AWS Identity Center verwenden, können Sie Datenberechtigungen auf der Grundlage von Verzeichnisgruppenmitgliedschaften definieren. AWS Identity Center ist ein AWS-Service, der eine Verbindung zu häufig verwendeten Identitätsanbietern wie Entra ID, Okta, Ping und anderen herstellt. S3 Access Grants unterstützt nicht nur Verzeichnisidentitäten über AWS Identity Center, sondern auch Berechtigungsregeln für AWS-IAM-Prinzipal, einschließlich IAM-Benutzer und -Rollen. Dies gilt für Anwendungsfälle, in denen Sie entweder einen benutzerdefinierten Identitätsverbund nicht über AWS Identity Center, sondern über IAM- und SAML-Assertion verwalten (Beispielimplementierung) oder Anwendungsidentitäten auf der Grundlage von IAM-Prinzipalen verwalten und trotzdem S3 Access Grants aufgrund seiner Skalierbarkeit und Überprüfbarkeit verwenden möchten.
F: Welche verschiedenen Zugriffsebenen bietet S3 Access Grants?
S3 Access Grants bietet drei Zugriffsebenen: READ, WRITE und READWRITE. Mit READ können Sie Objekte aus S3 anzeigen und abrufen. WRITE ermöglicht es Ihnen, in S3 zu schreiben und aus S3 zu löschen. Mit READWRITE können Sie sowohl LESEN als auch SCHREIBEN.
F: Kann ich meine Zugriffsebenen anpassen?
Nein. Sie können nur die drei vordefinierten Zugriffsebenen (READ/WRITE/READWRITE) verwenden, die S3 Access Grants bietet.
F: Gibt es Beschränkungen für S3 Access Grants?
Ja. Sie können bis zu 100 000 Zuschüsse pro S3-Access-Grants-Instance und bis zu 1 000 Standorte pro S3-Access-Grants-Instance erstellen.
F: Gibt es Leistungseinbußen beim Datenzugriff, wenn ich S3 Access Grants verwende?
Nein. Die Latenz beim Abrufen temporärer Anmeldeinformationen von S3 Access Grants ist vergleichbar mit dem Abrufen temporärer Anmeldeinformationen von AWS STS heute. Sobald Sie die Anmeldeinformationen von S3 Access Grants erhalten haben, können Sie nicht abgelaufene Anmeldeinformationen für nachfolgende Anfragen wiederverwenden. Für diese nachfolgenden Anfragen gibt es keine zusätzliche Latenz für Anfragen, die über S3-Access-Grants-Anmeldeinformationen authentifiziert wurden, im Vergleich zu anderen Methoden.
F: Welche anderen AWS-Services sind erforderlich, um S3 Access Grants nutzen zu können?
Wenn Sie S3 Access Grants für Verzeichnisidentitäten verwenden möchten, müssen Sie zuerst das AWS IAM Identity Center einrichten. AWS IAM Identity Center hilft Ihnen dabei, Ihre Belegschaftsidentitäten zu erstellen oder zu verbinden, unabhängig davon, ob die Identitäten im Identity Center oder in einem externen Identitätsanbieter erstellt und gespeichert werden. Informationen zum Einrichtungsvorgang finden Sie in der Identity-Center-Dokumentation. Sobald Sie die Identity-Center-Instance eingerichtet haben, können Sie die Instanz mit S3 Access Grants verbinden. Danach nutzt S3 Access Grants Identity Center, um Benutzerattribute wie die Gruppenmitgliedschaft abzurufen, um Anfragen auszuwerten und Autorisierungsentscheidungen zu treffen.
F: Erfordert S3 Access Grants clientseitige Änderungen?
Ja. Während Sie heute Ihren S3-Client mit IAM-Anmeldeinformationen initialisieren, die Ihrer Anwendung zugeordnet sind (z. B. Anmeldeinformationen der IAM-Rolle für EC2 oder IAM Roles Anywhere; oder mithilfe langfristiger IAM-Benutzeranmeldeinformationen), muss Ihre Anwendung stattdessen zuerst die Anmeldeinformationen für S3 Access Grants abrufen, bevor sie den S3-Client initialisiert. Diese Anmeldeinformationen für S3 Access Grants sind spezifisch für den authentifizierten Benutzer in Ihrer Anwendung. Sobald der S3-Client mit diesen S3-Access-Grants-Anmeldeinformationen initialisiert wurde, kann er mithilfe der Anmeldeinformationen wie gewohnt Anfragen für S3-Daten stellen.
F: Da clientseitige Änderungen erforderlich sind, welche AWS-Services und Drittanbieteranwendungen sind heute standardmäßig in S3 Access Grants integriert?
S3 Access Grants lässt sich heute bereits über den S3A-Connector in EMR und Open-Source-Spark integrieren. Darüber hinaus lässt sich S3 Access Grants in Software von Drittanbietern wie Immuta und Informatica integrieren, sodass Sie die Rechteverwaltung zentralisieren können. Und schließlich unterstützt S3 Access Grants Terraform und CloudFormation, sodass Sie S3 Access Grants programmgesteuert bereitstellen können.
F: Ist S3 Access Grants ein Ersatz für AWS IAM?
Nein. S3 Access Grants ersetzt IAM nicht und funktioniert sogar gut mit Ihren bestehenden IAM-basierten Datenschutzstrategien (Verschlüsselung, Netzwerk, Datenperimeterregeln). S3 Access Grants basiert auf IAM-Primitiven und ermöglicht es Ihnen, detailliertere S3-Berechtigungen in großem Umfang auszudrücken.
F: Funktioniert S3 Access Grants mit KMS?
Ja. Um S3 Access Grants für mit KMS verschlüsselte Objekte zu verwenden, fügen Bucket-Besitzer die erforderlichen KMS-Berechtigungen in die IAM-Rolle ein, die sie S3 Access Grants im Rahmen der Standortregistrierung gewähren. S3 Access Grants kann diese IAM-Rolle anschließend verwenden, um auf die KMS-verschlüsselten Objekte in den Buckets zuzugreifen.
F: Wie kann ich meine S3 Access Grants-Berechtigungszuweisungen einsehen und verwalten?
Sie können entweder die S3-Access-Grants-Konsolenerfahrung in der AWS-Managementkonsole oder SDK- und CLI-APIs verwenden, um Ihre S3 Access Grants-Berechtigungen einzusehen und zu verwalten.
F: Kann man mit S3 Access Grants öffentlichen Zugriff auf Daten gewähren?
Nein, mit S3 Access Grants können Sie keinen öffentlichen Zugriff auf Daten gewähren.
F: Wie kann ich Anfragen prüfen, die über S3 Access Grants autorisiert wurden?
Die Anfrage der Anwendung, eine Datenzugriffssitzung mit S3 Access Grants zu initiieren, wird in CloudTrail aufgezeichnet. CloudTrail unterscheidet zwischen der Identität des Benutzers, der die Anfrage stellt, und der Anwendungsidentität, die im Namen des Benutzers auf die Daten zugreift. Auf diese Weise können Sie die Identität des Endbenutzers überprüfen, wer zu welchem Zeitpunkt auf welche Daten zugegriffen hat.
F: Wie hoch ist der Preis für S3 Access Grants?
S3 Access Grants wird auf der Grundlage der Anzahl der Anfragen an S3 Access Grants berechnet. Weitere Informationen finden Sie auf der Preisseite.
F: In welcher Beziehung stehen S3 Access Grants und Lake Formation?
AWS Lake Formation eignet sich für Anwendungsfälle, in denen Sie den Zugriff auf tabellarische Daten (z. B. Glue-Tabellen) verwalten müssen, in denen Sie möglicherweise den Zugriff auf Zeilen- und Spaltenebene erzwingen möchten. S3 Access Grants dient zur Verwaltung des Zugriffs auf direkte S3-Berechtigungen wie unstrukturierte Daten wie Videos, Bilder, Protokolle usw.
F: Ist S3 Access Grants in IAM Access Analyzer integriert?
Nein. S3 Access Grants ist derzeit nicht in IAM Access Analyzer integriert. Sie können IAM Access Analyzer noch nicht verwenden, um S3-Access-Grants-Berechtigungszuweisungen zu analysieren. Kunden können S3 Access Grants direkt überprüfen, indem sie die Seite S3 Access Grants in der S3-Konsole aufrufen oder programmgesteuert die ListAccessGrants-API verwenden.
S3 Access Points
F: Was sind Amazon S3 Access Points?
Heutzutage verwalten Kunden den Zugriff auf ihre S3-Buckets mithilfe einer einzigen Bucket-Richtlinie, die den Zugriff für Hunderte von Anwendungen mit unterschiedlichen Berechtigungsstufen steuert.
Amazon S3 Access Points vereinfacht eine umfassende Verwaltung des Datenzugriffs für Anwendungen, die freigegebene Datensätze in S3 verwenden. Mit S3 Access Points können Sie jetzt auf einfache Weise Hunderte von Access Points pro Bucket erstellen und so den Zugriff auf gemeinsam genutzte Datensätze neu bereitstellen. Access Points bieten einen benutzerdefinierten Pfad zu einem Bucket mit einem eindeutigen Hostnamen und einer Zugriffsrichtlinie, die die spezifischen Berechtigungen und Netzwerkkontrollen für alle über den Access Point gestellten Anforderungen erzwingen. S3 Access Points kann Buckets mit dem gleichen Konto oder in einem anderen vertrauenswürdigen Konto zugewiesen werden. Weitere Informationen finden Sie auf der Seite S3 Access Points und im Benutzerhandbuch.
F: Warum sollte ich einen Zugriffspunkt verwenden?
S3 Access Points vereinfachen die Verwaltung des Zugriffs auf freigegebene Datensätze in S3. Sie müssen keine allgemeingültige, komplexe Bucket-Richtlinie mehr verwalten, die Hunderte verschiedener Berechtigungsregeln enthält, die geschrieben, gelesen, nachverfolgt und geprüft werden müssen. Mit S3 Access Points können Sie Zugriffspunkte erstellen oder Berechtigungen an vertrauenswürdige Konten delegieren, um kontenübergreifende Zugriffspunkte in Ihrem Bucket zu erstellen. Dadurch kann man auf freigegebene Datensätze mit Richtlinien zugreifen, die auf die bestimmte Anwendung zugeschnitten sind.
Mit Access Points können Sie eine große Bucket-Richtlinie in separate diskrete Access Point-Richtlinien für jede Anwendung zerlegen, die auf den gemeinsam genutzten Datensatz zugreifen muss. Dadurch können Sie sich darauf konzentrieren, die richtige Zugriffsrichtlinie für eine Anwendung zu entwickeln, und müssen sich keine Gedanken darüber machen, ob der Zugriff anderer Anwendungen auf den freigegebenen Datensatz möglicherweise unterbrochen wird. Sie können auch eine Service Control Policy (SCP) erstellen und angeben, dass alle Access Points auf eine Virtual Private Cloud (VPC) beschränkt sein sollen. Dadurch werden Ihre Daten wie durch eine Firewall innerhalb Ihrer privaten Netzwerke geschützt.
F: Wie funktionieren S3 Access Points?
Für jeden S3 Access Point ist eine Zugriffsrichtlinie konfiguriert, die auf einen Anwendungsfall oder eine Anwendung ausgerichtet ist. Sie können beispielsweise einen Zugriffspunkt für Ihr S3-Bucket erstellen, der Gruppen von Benutzern oder Anwendungen Zugriff auf Ihren Data Lake gewährt. Ein Zugriffspunkt kann einen einzelnen Benutzer oder eine einzelne Anwendung oder Gruppen von Benutzern oder Anwendungen unterstützen, wodurch die Verwaltung der einzelnen Zugriffspunkte getrennt erfolgen kann.
Außerdem können Sie Zugriffspunkte erstellen oder Berechtigungen an vertrauenswürdige Konten delegieren, um kontoübergreifende Zugriffspunkte in Ihrem Bucket zu erstellen. Die kontoübergreifende Zugriffspunkte gewähren keinen Zugriff auf Daten, bis Sie die Berechtigungen vom Bucket-Eigentümer. Der Bucket-Eigentümer behält letztendlich die Kontrolle über die Daten und muss die Bucket-Richtlinie aktualisieren, um Anforderungen vom kontoübergreifenden Zugriffspunkt zu autorisieren. Lesen Sie das Benutzerhandbuch, um ein Beispiel der Bucket-Richtlinie einzusehen.
Jeder Zugriffspunkt ist einem einzelnen Bucket zugeordnet und enthält eine Netzwerkursprungskontrolle sowie eine Kontrolle zum Blockieren öffentlicher Zugriffe. Sie können einen Zugriffspunkt mit einer Netzwerkursprungskontrolle erstellen, die den Speicherzugriff nur über Ihre Virtual Private Cloud zulässt, einem logisch isolierten Bereich in der AWS Cloud. Sie können auch einen Zugriffspunkt mit einer Zugriffspunktrichtlinie erstellen, die so konfiguriert ist, dass nur der Zugriff auf Objekte mit bestimmten Präfixen oder auf Objekte mit bestimmten Tags erlaubt ist.
Der Zugriff auf Daten in gemeinsam genutzten Bereichen kann über einen Zugangspunkt auf zwei Arten erfolgen. Für S3-Objektoperationen können Sie den ARN des Zugangspunkts anstelle eines Bucket-Namens verwenden. Für Anfragen, die einen Bucket-Namen im Standard-S3-Bucket-Namensformat erfordern, können Sie stattdessen einen Zugriffspunkt-Alias verwenden. Aliase für S3 Zugriffspunkte werden automatisch generiert und sind überall dort, wo Sie einen Bucket-Namen für den Datenzugriff verwenden, mit S3 Bucket-Namen austauschbar. Jedes Mal, wenn Sie einen Zugriffspunkt für einen Bucket erstellen, generiert S3 einen neuen Zugriffspunkt-Alias. Eine vollständige Liste der kompatiblen Vorgänge und AWS-Services finden Sie in der S3-Dokumentation.
F: Gibt es ein Kontingent für die Anzahl der S3-Zugriffspunkte, die ich erstellen kann?
Standardmäßig können Sie 10 000 S3-Zugriffspunkte pro Region und Konto für Buckets in Ihrem Konto und kontoübergreifend erstellen. Es gibt keine feste Begrenzung für die Anzahl der S3-Zugriffspunkte pro AWS-Konto. Navigieren Sie zum Erhöhen dieses Kontingents zu Service Quotas.
F: Wie werden Anfragen bei Verwendung eines Zugriffspunkts autorisiert?
S3-Zugangspunkte haben ihre eigene IAM-Zugangspunktrichtlinie. Sie schreiben Zugangspunktrichtlinie wie eine Bucket-Richtlinie, wobei Sie die Zugangspunk-ARN als Ressource verwenden. Zugangspunktrichtlinie können den Zugriff auf die vom Access Point angeforderten S3-Daten gewähren oder einschränken. Amazon S3 wertet alle relevanten Richtlinien aus, einschließlich der Richtlinien für Benutzer, Bucket, Zugriffspunkt, VPC-Endpunkt und Service-Kontrollrichtlinien sowie der Zugriffssteuerungslisten, um zu entscheiden, ob die Anforderung autorisiert werden soll.
F: Wie schreibe ich Access-Point-Richtlinien?
Sie können eine Access Point-Richtlinie genau wie eine Bucket-Richtlinie schreiben und IAM-Regeln verwenden, um die Berechtigungen und die Access Point-ARN im Richtliniendokument zu steuern.
F: Inwiefern unterscheidet sich die Einschränkung des Zugriffs auf bestimmte VPCs mithilfe von Netzwerkursprungskontrollen für Access Points von der Einschränkung des Zugriffs auf VPCs mithilfe der Bucket-Richtlinie?
Sie können weiterhin Bucket-Richtlinien verwenden, um den Bucket-Zugriff auf bestimmte VPCs zu beschränken. Zugriffspunkte bieten eine einfachere und überprüfbare Möglichkeit, alle oder einen Teil der Daten in einem gemeinsam genutzten Datensatz mithilfe von API-Steuerelementen für alle Anwendungen in Ihrer Organisation auf Nur-VPC-Datenverkehr zu sperren. Mithilfe einer AWS Organizations Service Control-Richtlinie (Service Control Policy, SCP) können Sie festlegen, dass jeder in Ihrer Organisation erstellte Zugriffspunkt den API-Parameterwert für die Netzwerkursprungskontrolle auf "vpc" setzt. Jeder neu erstellte Zugangspunkt beschränkt dann automatisch den Datenzugriff auf den reinen VPC-Verkehr. Es ist keine zusätzliche Zugriffsrichtlinie erforderlich, um sicherzustellen, dass Datenanforderungen nur von bestimmten VPCs verarbeitet werden.
F: Kann ich eine Richtlinie "Kein Internetzugriff" für alle Access Points in meinem Unternehmen durchsetzen?
Ja. Um eine Richtlinie "Kein Internetzugriff auf Daten" für Zugriffspunkte in Ihrer Organisation zu erzwingen, sollten Sie sicherstellen, dass alle Zugriffspunkte nur den VPC-Zugriff erzwingen. Dazu schreiben Sie einen AWS-SCP, der nur den Wert "vpc" für den Parameter "Network Origin Control" in der API create_access_point() unterstützt. Wenn Sie zuvor mit dem Internet verbundene Zugangspunkte erstellt haben, können diese entfernt werden. Sie müssen auch die Bucket-Richtlinie in jedem Ihrer Buckets ändern, um den Internetzugang über den Bucket-Hostnamen direkt auf Ihren Bucket weiter einzuschränken. Da andere AWS-Services möglicherweise direkt auf Ihren Bucket zugreifen, stellen Sie sicher, dass Sie den Zugriff so einrichten, dass die gewünschten AWS-Services zugelassen werden, indem Sie die Richtlinie so ändern, dass diese AWS-Services zugelassen werden. Beispiele hierzu finden Sie in der S3-Dokumentation.
F: Kann ich den direkten Zugriff auf einen Bucket mithilfe des Bucket-Hostnamens vollständig deaktivieren?
Derzeit nicht, aber Sie können eine Bucket-Richtlinie anhängen, die Anforderungen ablehnt, die nicht über einen Zugriffspunkt gestellt wurden. Weitere Informationen finden Sie in der S3-Dokumentation.
F: Kann ich einen Zugriffspunkt aus einem Bucket ersetzen oder entfernen?
Ja. Wenn Sie einen Access Point entfernen, wird der Zugriff auf den zugeordneten Bucket über andere Access Points und über den Bucket-Hostnamen nicht unterbrochen.
Was sind die Kosten für Amazon S3-Access Points?
Für Zugriffspunkte oder Buckets, die Zugriffspunkte verwenden, fallen keine zusätzlichen Gebühren an. Es gelten die üblichen Amazon S3-Anfragetarife.
F: Welche ersten Schritte sind für S3 Access Points erforderlich?
Über die AWS-Managementkonsole, die AWS Command Line Interface (CLI), die API (Application Programming Interface) und den SDK-Client (AWS Software Development Kit) können Sie S3 Access Points für neue Buckets sowie für vorhandene Buckets erstellen. Weitere Informationen zu S3 Access Points finden Sie im Benutzerhandbuch.
Zuverlässigkeit und Datenschutz
F: Wie beständig ist Amazon S3?
Amazon S3 bietet den beständigsten Speicher in der Cloud. Basierend auf seiner einzigartigen Architektur ist S3 so konzipiert, dass es eine Datenbeständigkeit von 99,999999999 % (11 Neunen) bietet. Darüber hinaus speichert S3 Daten standardmäßig redundant in mindestens 3 Availability Zones (AZ) und bietet so eine integrierte Widerstandsfähigkeit gegen weit verbreitete Katastrophen. Kunden können Daten in einer einzigen AZ speichern, um die Speicherkosten oder die Latenz zu minimieren, in mehreren AZs, um die Widerstandsfähigkeit gegen den dauerhaften Verlust eines gesamten Rechenzentrums zu gewährleisten, oder in mehreren AWS-Regionen, um die Anforderungen an die geografische Belastbarkeit zu erfüllen.
F: Wie ist Amazon S3 für eine Beständigkeit von 99,999999999 % konzipiert?
Die auf Beständigkeit ausgelegte Amazon S3 ist eine Funktion der Ausfallraten von Speichergeräten und der Geschwindigkeit, mit der S3 Ausfälle erkennen und dann Daten auf diesen Geräten erneut replizieren kann. S3 führt bei jedem Objektupload eine durchgängige Integritätsprüfung durch und überprüft, ob alle Daten korrekt und redundant auf mehreren Speichergeräten gespeichert sind, bevor Ihr Upload als erfolgreich eingestuft wird. Sobald Ihre Daten in S3 gespeichert sind, überwacht S3 kontinuierlich die Datenbeständigkeit im Laufe der Zeit mit regelmäßigen Integritätsprüfungen aller Daten im Ruhezustand. S3 überwacht auch aktiv die Redundanz Ihrer Daten, um sicherzustellen, dass Ihre Objekte den gleichzeitigen Ausfall mehrerer Speichergeräte tolerieren können.
F: Sind in einer One Zone-Speicherklasse gespeicherte Daten vor Beschädigung oder Verlust der Availability Zone geschützt?
In dem unwahrscheinlichen Fall, dass eine AWS Availability Zone ganz oder teilweise verloren geht oder beschädigt wird, können Daten in einer One-Zone-Speicherklasse verloren gehen. Beispielsweise können Ereignisse wie Feuer und Wasserschäden zu Datenverlust führen. Abgesehen von diesen Ereignistypen verwenden One-Zone-Speicherklassen ähnliche technische Designs wie regionale Speicherklassen, um Objekte vor unabhängigen Festplatten-, Host- und Rack-Ausfällen zu schützen, und jede ist so konzipiert, dass sie eine Datenbeständigkeit von 99,999999999 % bietet.
F: Wie erreicht Amazon S3 eine Beständigkeit von 99,999999999 %?
Amazon S3 hat eine ausgeprägte Nachhaltigkeitskultur, und Best Practices für Nachhaltigkeit wurden von Grund auf in unsere Systeme und Software integriert. AWS hat mehr Erfahrung mit dem Betrieb von langlebigen Speichern als jeder andere Cloud-Anbieter, und wir nutzen diese Erfahrung, um das Risiko der Beständigkeit zu mindern und bei allem, was wir tun, Sicherheitsvorkehrungen für die Beständigkeit zu integrieren.
F: Muss ich meine kritischen Daten trotz dieser hohen Beständigkeit trotzdem sichern?
Ja. Das Beständigkeitssystem von Amazon S3 schützt nicht vor versehentlichem oder böswilligem Löschen. S3 verlässt sich darauf, dass die Kunden entscheiden, welche Daten sie behalten möchten, welche Daten sie löschen möchten und welche optionalen Kontrollen sie benötigen, um sich vor fehlerhaften Löschungen zu schützen, sei es aufgrund von Unfällen oder böswilliger Absicht. Wenn Sie Amazon S3 anweisen, Daten zu löschen, werden diese Daten sofort gelöscht und können von AWS nicht wiederhergestellt werden. Das Beantworten einer Löschanfrage auf diese Weise ist ein wichtiges Merkmal des Dienstes.
F: Welche Funktionen bietet Amazon S3, um meine Daten vor versehentlichem oder böswilligem Löschen zu schützen?
S3 Object Versioning, S3 Replication und S3 Object Lock sind allesamt optionale Features, mit denen Sie zusätzlichen Datenschutz hinzufügen können, der über die Beständigkeit hinausgeht, die S3 automatisch bietet. Darüber hinaus können Sie eine Backup-Anwendung verwenden, um alle oder einen Teil der Daten in Ihren S3-Buckets zu sichern.
F: Welche Prüfsummen unterstützt Amazon S3 für die Datenintegritätsprüfung?
Amazon S3 verwendet eine Kombination aus Content-MD5-Prüfsummen, Secure Hash Algorithms (SHAs) und zyklischen Redundanzprüfungen (CRCs), um die Datenintegrität zu verifizieren. Amazon S3 führt diese Prüfsummen auf Daten im Ruhemodus aus und behebt alle Verfälschungen mit redundanten Daten. Darüber hinaus berechnet S3 die Prüfsummen des gesamten Netzwerkverkehrs, um beim Speichern oder Empfangen von Daten beschädigte Datenpakete zu ermitteln. Für die Überprüfung der Datenintegrität bei Upload- und Download-Anforderungen können Sie aus vier unterstützten Prüfsummenalgorithmen wählen. Je nach Anwendungsanforderungen können Sie einen SHA-1-, SHA-256-, CRC32- oder CRC32C-Prüfsummenalgorithmus auswählen. Sie können Prüfsummen automatisch berechnen und überprüfen, wenn Sie Daten in S3 speichern oder abrufen, und Sie können die Prüfsummeninformationen jederzeit über die GetObjectAttributes S3 API oder einen S3-Inventarbericht abrufen. Die Berechnung einer Prüfsumme beim Streaming von Daten in S3 spart Zeit, da Sie Ihre Daten in einem einzigen Durchgang verifizieren und übertragen können, anstatt zwei aufeinanderfolgende Vorgänge durchzuführen. Die Verwendung von Prüfsummen für die Datenvalidierung ist eine bewährte Praxis für die Datenbeständigkeit. Diese Funktionen erhöhen die Leistung und reduzieren die dabei anfallenden Kosten.
F: Was ist Versioning?
Versioning ermöglicht Ihnen, sämtliche Versionen aller in einem Amazon S3 Bucket gespeicherten Objekte zu speichern, abzurufen oder wiederherzustellen. Nachdem Versioning für einen Bucket aktiviert wurde, speichert Amazon S3 existierende Objekte jedes Mal, wenn Sie einen PUT-, POST-, COPY- oder DELETE-Vorgang an Ihnen durchführen. Standardmäßig rufen GET-Anforderungen die zuletzt geschriebene Version ab. Ältere Versionen eines überschriebenen oder gelöschten Objekts können wiederhergestellt werden, wenn die gewünschte Version in der Anforderung spezifiziert wird.
F: Weshalb sollte ich Versioning verwenden?
Amazon S3 bietet dem Kunden eine Speicherinfrastruktur mit hoher Beständigkeit. Versioning stellt eine zusätzliche Sicherheitsstufe bereit, da der Kunde versehentlich überschriebene oder gelöschte Objekte wiederherstellen kann. Auf diese Weise ist die Wiederherstellung nach unbeabsichtigten Nutzeraktionen oder Anwendungsausfällen problemlos möglich. Sie können Versioning auch zur Vorratsdatenspeicherung und Archivierung verwenden.
F: Was sind die ersten Schritte zur Verwendung von Versioning?
Als ersten Schritt zur Verwendung der Versionsverwaltung können Sie eine Einstellung an Ihrem Amazon-S3-Bucket ändern. Weitere Informationen zum Aktivieren der Versionsverwaltung finden Sie in der Amazon-S3-Dokumentation.
F: Wie schützt mich die Versionsverwaltung vor zufälliger Löschung meiner Objekte?
Wenn ein Benutzer einen DELETE-Vorgang für ein Objekt ausführt, können darauffolgende Standardanforderungen (ohne Versioning) das Objekt nicht mehr abrufen. Alle Versionen dieses Objekts sind jedoch weiter in Ihrem Amazon S3-Bucket gespeichert und können abgerufen oder wiederhergestellt werden. Nur der Eigentümer eines Amazon S3-Buckets kann eine Version permanent löschen. Sie können Lebenszyklusregeln festlegen, um die Lebensdauer und Kosten der Speicherung mehrerer Versionen Ihrer Objekte im Griff zu behalten.
F: Kann ich einen Papierkorb oder ein Rollback-Zeitfenster für meine Amazon-S3-Objekte einrichten, um nach Lösch- oder Überschreibungsvorgängen eine Wiederherstellung zu ermöglichen?
Mithilfe von Amazon-S3-Lifecycle-Regeln und S3 Versioning können Sie ein Rollback-Zeitfenster für Ihre S3-Objekte implementieren. Für Ihren Bucket mit aktiviertem Versioning können Sie beispielsweise eine Regel festlegen, gemäß der alle vorherigen Versionen im kostengünstigeren S3 Glacier Flexible Retrieval-Speicher archiviert und alle 100 Tage gelöscht werden. Dadurch erhalten Sie bei günstigeren Speicherkosten ein Zeitfenster von 100 Tagen, um Änderungen an Ihren Daten rückgängig zu machen. Zusätzlich können Sie auch Kosten einsparen, indem Sie alte (langfristige) Versionen eines Objekts nach fünf Tagen löschen und wenn es mindestens zwei neuere Versionen davon gibt. Sie können die Anzahl der Tage oder die Anzahl der neueren Versionen je nach Ihren Anforderungen an die Kostenoptimierung ändern. So können Sie nach Bedarf weitere Versionen Ihrer Objekte aufrechterhalten, jedoch die Kosten senken, indem Sie sie nach einer bestimmten Zeit übertragen oder entfernen.
F: Wie kann ich den optimalen Schutz meiner gespeicherten Versionen gewährleisten?
Die Löschfunktion der Versionsverwaltung mit Multi-Faktor-Authentifizierung (MFA) kann eine zusätzliche Sicherheitsebene schaffen. Standardmäßig benötigen Sie für alle Anforderungen an Ihren Amazon S3 Bucket Ihre Zugangsdaten für das AWS-Konto. Wenn Sie die Versionsverwaltung mit MFA Delete für Ihren Amazon S3 Bucket aktivieren, benötigen Sie zwei Formen der Authentifizierung, um eine Version eines Objekts dauerhaft zu löschen: Ihre AWS-Zugangsdaten und einen gültigen sechsstelligen Code sowie eine Seriennummer von einem Authentifizierungsgerät, das sich in Ihrem physischen Besitz befindet. Nähere Informationen zur Versionsverwaltung mit MFA Delete, beispielsweise wie ein Authentifizierungsgerät erworben und aktiviert wird, finden Sie in der Amazon-S3-Dokumentation.
F: Wie wird mir die Nutzung der Versionsverwaltung in Rechnung gestellt?
Normale Amazon S3-Tarife fallen für jede Version eines gespeicherten oder angeforderten Objekts an. Betrachten wir beispielsweise das folgende Szenario, um die Speicherkosten bei der Nutzung von Versioning zu veranschaulichen (unter der Annahme, dass der aktuelle Monat 31 Tage hat).
1) Tag 1 des Monats: Sie führen eine PUT-Anforderung von 4 GB (4.294.967.296 Bytes) für Ihren Bucket aus.
2) Tag 16 des Monats: Sie führen eine PUT-Anfrage von 5 GB (5 368 709 120 Bytes) innerhalb desselben Buckets aus und verwenden denselben Schlüssel wie bei der ursprünglichen PUT-Anfrage an Tag 1.
Bei der Analyse der Speicherkosten der obigen Vorgänge beachten Sie, dass das 4-GB-Objekt von Tag 1 nicht aus dem Bucket gelöscht wird, wenn das 5-GB-Objekt am Tag 15 geschrieben wird. Das 4-GB-Objekt wird hingegen als ältere Version gespeichert und das 5-GB-Objekt wird zur zuletzt geschriebenen Version des Objekts in Ihrem Bucket. Am Ende des Monats:
Gesamtzahl verwendeter Byte-Stunden
[4 294 967 296 Bytes x 31 Tage x (24 Stunden/Tag)] + [5 368 709 120 Bytes x 16 Tage x (24 Stunden/Tag)] = 5 257 039 970 304 Byte-Stunden
Umrechnung in Gesamtzahl GB-Monate:
5.257.039.970.304 Byte-Stunden x (1 GB/1.073.741.824 Bytes) x (1 Monat/744 Stunden) = 6.581 GB-Monate
Die Kosten errechnen sich aus den aktuellen Tarifen für Ihre Region, die Sie auf der Preisseite zu Amazon S3 finden.
S3 Object Lock
F: Was ist Amazon S3 Object Lock?
Amazon S3 Object Lock ist ein Amazon-S3-Feature, die das Löschen oder Überschreiben von Objektversionen für einen bestimmten oder unbegrenzten Zeitraum verhindert. So können Sie Aufbewahrungsrichtlinien als zusätzliche Datenschutzmaßnahme oder zur Compliance gesetzlicher Bestimmungen durchsetzen. Sie können Workloads aus bestehenden WORM-Systemen (Write Once Read Many) in Amazon S3 migrieren und S3 Object Lock auf der Objekt- und Bucket-Ebene konfigurieren, sodass Objektversionslöschungen vor den festgelegten Aufbewahrungsdaten oder vor Ablauf einer gesetzlichen Aufbewahrungspflicht verhindert werden. Der Schutz durch S3 Object Lock bleibt erhalten, unabhängig davon, in welcher Speicherklasse sich die Objektversion befindet. Sie bleibt auch während S3 Lifecycle-Übertragungen zwischen Speicherklassen erhalten.
Verwenden Sie die S3-Objektsperre, wenn gesetzliche Vorgaben festlegen, dass Daten WORM-geschützt sein müssen, oder wenn Sie eine zusätzliche Sicherheitsebene für Daten in Amazon S3 erstellen möchten. S3 Object Lock unterstützt Sie bei der Einhaltung gesetzlicher Vorgaben, die festlegen, dass Daten in einem unveränderlichen Format gespeichert werden müssen, und schützt Sie außerdem vor versehentlichem oder böswilligen Löschen von Daten in Amazon S3.
Weitere Informationen finden Sie im Benutzerhandbuch für S3 Object Lock.
F: Wie funktioniert Amazon S3 Object Lock?
Amazon S3 Object Lock verhindert das Löschen einer Objektversion für die Dauer eines festgelegten Aufbewahrungszeitraums oder unbegrenzt, bis eine gesetzliche Aufbewahrungsfrist entfernt wurde. Mit S3 Object Lock stellen Sie sicher, dass eine Objektversion unveränderlich bleibt, solange der WORM-Schutz auf sie angewandt wird. Sie können den WORM-Schutz anwenden, indem Sie einer Objektversion entweder ein maximales Aufbewahrungsdatum oder eine gesetzliche Aufbewahrungsfrist über das AWS SDK, die CLI, die REST API oder die S3-Managementkonsole zuweisen. Sie können Aufbewahrungseinstellungen innerhalb einer PUT-Anfrage oder auf ein bestehendes Objekt anwenden, nachdem es erstellt wurde.
Das maximale Aufbewahrungsdatum definiert den Zeitraum, in dem eine Objektversion unveränderlich bleiben muss. Sobald einem Objekt ein maximales Aufbewahrungsdatum zugeordnet wurde, kann diese Objektversion erst nach Ablauf des Aufbewahrungsdatums geändert oder gelöscht werden. Wenn ein Benutzer versucht, ein Objekt vor dem Aufbewahrungsdatum zu löschen, wird die Operation verweigert.
Alternativ können Sie ein Objekt unveränderlich machen, indem Sie eine gesetzliche Aufbewahrungsfrist anwenden. Eine gesetzliche Aufbewahrungsfrist verhindert auf unbestimmte Zeit, dass eine Objektversion verändert oder gelöscht wird, bis sie explizit entfernt wird. Zum Einrichten oder Entfernen gesetzlicher Aufbewahrungsfristen muss Ihr AWS-Konto über eine Schreibberechtigung für die Aktion PutObjectLegalHold verfügen. Die gesetzliche Aufbewahrungsfrist kann auf jedes Objekt in einem Bucket mit aktivierter S3-Objektsperre angewendet werden, unabhängig davon, ob dieses Objekt derzeit durch eine Aufbewahrungsfrist mit WORM geschützt ist.
Die S3-Objektsperre kann in einem Modus oder in zwei Modi konfiguriert werden. Wenn die Bereitstellung im Governance-Modus erfolgt, können AWS-Konten mit bestimmten IAM-Berechtigungen den WORM-Schutz von einer Objektversion entfernen. Wenn aufgrund von Richtlinien eine stärkere Unveränderlichkeit gewünscht wird, können Sie den Compliance-Modus verwenden. Im Compliance-Modus kann der WORM-Schutz von keinem Benutzer entfernt werden. Das gilt auch für das Root-Konto.
Wie aktiviere ich Amazon S3 Object Lock für einen Bucket?
Sie können die Amazon-S3-Konsole, die AWS-API oder die AWS-CLI verwenden, um S3 Object Lock beim Erstellen eines neuen Buckets zu aktivieren oder S3 Object Lock für bestehende Buckets zu konfigurieren. Um S3 Object Lock für bestehende Buckets zu aktivieren, können Sie die Amazon-S3-Konsole verwenden, um die S3 Object Lock-Einstellungen auf der Registerkarte Bucket-Eigenschaften der PutObjectLockConfiguration AWS-API oder der AWS-CLI zu bearbeiten. Sobald S3 Object Lock aktiviert ist, können Sie einen Standard-Aufbewahrungsmodus und eine Uhrzeit auf Bucket-Ebene festlegen, die für alle neuen Objekte gelten, die in den Bucket hochgeladen werden. Weitere Informationen finden Sie in der Dokumentation zur Konfiguration von S3 Object Lock mithilfe der S3-Konsole, mithilfe der AWS-API und mithilfe der AWS-CLI.
F: Wie wirkt sich die Aktivierung von S3 Object Lock für vorhandene Buckets auf neue Objekte aus, die in die Buckets hochgeladen werden?
Nachdem Sie S3 Object Lock für bestehende Buckets aktiviert haben, haben Sie die Möglichkeit, einen standardmäßigen Aufbewahrungsmodus und einen Zeitraum für die Aufbewahrung von S3 Object Lock für alle neuen Objekte festzulegen, die in den Bucket hochgeladen werden. In der S3-Konsole können Sie dies tun, indem Sie die Registerkarte Eigenschaften für einen ausgewählten Bucket verwenden und den Standard-Aufbewahrungsmodus und die Aufbewahrungsdauer für alle neuen Objekte aktivieren, die in den Bucket hochgeladen werden. Alternativ können Sie festlegen, dass keine Object-Lock-Einstellungen auf Bucket-Ebene konfiguriert werden, sodass die neuen Objekte in den Buckets weiterhin entsperrt bleiben. Sie können dann einzelne Objekte sperren, indem Sie Ihre S3-Object-Lock-Einstellungen auf der Registerkarte Objekteigenschaften bearbeiten oder S3 Batch Operations verwenden, um Objekte gleichzeitig zu sperren. Weitere Informationen finden Sie in der Dokumentation zu den standardmäßigen Aufbewahrungseinstellungen.
F: Wie wirkt sich die Aktivierung von S3 Object Lock für bestehende Buckets auf die bereits in den Buckets vorhandenen Objekte aus?
Nach der Aktivierung von S3 Object Lock für bestehende Buckets gelten die Aufbewahrungseinstellungen nur für neue Objekte, die in die Buckets hochgeladen wurden. Um Objekte zu sperren, die bereits in den Buckets vorhanden sind, können Sie einzelne Aufbewahrungseigenschaften auf Objektebene mithilfe der Amazon-S3-Konsole, der AWS-CLI oder der AWS-API ändern. In der S3-Konsole können Sie dies auf der Registerkarte „Eigenschaften“ für das Objekt tun und die Einstellungen für die gesetzliche Aufbewahrungsdauer von Object Lock oder die Object Lock-Aufbewahrungseinstellungen bearbeiten. Alternativ können Sie S3 Batch Operations verwenden, um die Aufbewahrung zu verwalten oder eine gesetzliche Aufbewahrungsfrist für mehrere Objekte gleichzeitig zu aktivieren. Weitere Informationen finden Sie in der Dokumentation zur Aktivierung von S3 Object Lock mithilfe von S3 Batch Operations.
F: Kann ich S3 Object Lock deaktivieren, nachdem ich es aktiviert habe?
Nein, Sie können S3 Object Lock oder S3 Versioning für Buckets nicht deaktivieren, sobald S3 Object Lock aktiviert ist.
F: Wie fange ich an, Objekte aus Buckets zu replizieren, wenn S3 Object Lock aktiviert ist?
Um mit der Replikation von Objekten mit S3 Replication aus Buckets zu beginnen, für die S3 Object Lock aktiviert ist, können Sie Ihrem Quell-Bucket eine Replikationskonfiguration hinzufügen, indem Sie einen Ziel-Bucket in derselben oder einer anderen AWS-Region und in demselben oder einem anderen AWS-Konto angeben. Sie können wählen, ob Sie alle Objekte auf S3-Bucket-Ebene replizieren oder Objekte auf einer gemeinsamen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags filtern möchten. Sie müssen auch eine AWS Identity and Access Management (IAM)-Rolle mit den erforderlichen Berechtigungen angeben, um den Replikationsvorgang durchzuführen. Sie können die S3-Konsole, die AWS-API, die AWS-CLI, die AWS-SDKs oder AWS CloudFormation verwenden, um die Replikation zu aktivieren, und Sie müssen S3 Versioning sowohl für den Quell- als auch für den Ziel-Bucket aktiviert haben. Um Objekte aus Buckets mit aktiviertem S3 Object Lock zu replizieren, muss in Ihrem Ziel-Bucket außerdem S3 Object Lock aktiviert sein. Weitere Informationen finden Sie in der Dokumentation zur Einrichtung der S3-Replikation und zur Verwendung von S3 Object Lock mit S3 Replication.
F: Benötige ich zusätzliche Berechtigungen, um Objekte aus Buckets zu replizieren, wenn S3 Object Lock aktiviert ist?
Ja, um Objekte aus Buckets mit aktiviertem S3 Object Lock zu replizieren, müssen Sie zwei neue Berechtigungen, s3:getObjectRetention und s3:getObjectLegalHold, für den Quell-Bucket in der IAM-Rolle gewähren, die Sie zum Einrichten der Replikation verwenden. Wenn die IAM-Rolle alternativ über eine s3:Get*-Berechtigung verfügt, erfüllt sie die Anforderung. Weitere Informationen finden Sie in der Dokumentation zur Verwendung von S3 Object Lock mit S3 Replication.
F: Gibt es Einschränkungen für die Verwendung von S3 Replication bei der Replikation aus S3-Object-Lock-Buckets?
Nein, alle Features von S3 Replication, wie regionsinterne S3-Replikation (S3 SRR), regionsübergreifende S3-Replikation (S3 CRR), S3-Replikationsmetriken zur Verfolgung des Fortschritts, Begrenzung der S3-Replikationszeit (S3 RTC) und S3 Batch Replication, werden bei der Replikation aus S3-Object-Lock-Buckets unterstützt.
F: Wie kann ich vorhandene Objekte aus Buckets mit aktiviertem S3 Object Lock replizieren?
Sie können die S3-Batchreplikation verwenden, um vorhandene Objekte aus Buckets mit aktiviertem S3 Object Lock zu replizieren. Weitere Informationen zur Replikation vorhandener Objekte finden Sie in der Dokumentation zur S3-Batchreplikation.
F: Was ist der Aufbewahrungsstatus der Replikate von Quellobjekten, die mit S3 Object Lock geschützt sind?
Die Replikate von Objekten, die mit S3 Object Lock geschützt sind, folgen derselben Aufbewahrungsrichtlinie wie die Quellobjekte. Sie können die Befehle GET Object oder HEAD Object verwenden, um den Object-Lock-Status der Replikatobjekte anzuzeigen. Beide Befehle geben den Aufbewahrungsmodus, die Beibehaltung bis zum Datum und den Status der gesetzliche Aufbewahrungsfrist für die angegebene Objektversion zurück. Sie können Amazon-S3-Inventory-Berichte für Ihre Buckets auch so konfigurieren, dass sie die Beibehaltung bis zum Datum, Aufbewahrungsmodus und den Status der gesetzlichen Aufbewahrungsfrist für alle Objekte in einem Bucket enthalten. Weitere Informationen finden Sie in der Dokumentation zum Anzeigen der S3-Object-Lock-Informationen für ein Objekt und zur Konfiguration von Amazon S3 Inventory.
Speicherklassen
S3 Intelligent-Tiering | S3 Standard | S3 Express One Zone | S3 Standard-Infrequent Access | S3 One Zone-Infrequent Access | Amazon S3 Glacier Instant Retrieval | Amazon S3 Glacier Flexible Retrieval | Amazon S3 Glacier Deep Archive | S3 on Outposts
F: Was sind Amazon-S3-Speicherklassen?
Amazon S3 bietet eine Reihe von Speicherklassen, aus denen Sie je nach Datenzugriff, Ausfallsicherheit und Kostenanforderungen Ihrer Workloads auswählen können. S3-Speicherklassen sind speziell darauf ausgelegt, den kostengünstigsten Speicher für verschiedene Zugriffsmuster bereitzustellen. S3-Speicherklassen sind ideal für praktisch jeden Anwendungsfall, einschließlich solcher mit anspruchsvollen Leistungsanforderungen, Anforderungen an die Datenresidenz, unbekannten oder sich ändernden Zugriffsmustern oder Archivspeicher. Bei allen S3-Speicherklassen fallen Gebühren für die Speicherung sowie für den Zugriff auf Daten an. Bei der Entscheidung, welche S3-Speicherklasse am besten für Ihre Workload geeignet ist, sollten Sie die Zugriffsmuster und die Aufbewahrungszeit Ihrer Daten berücksichtigen, um die niedrigsten Gesamtkosten über die Lebensdauer Ihrer Daten zu erhalten.
S3-Speicherklassen können auf Objektebene konfiguriert werden, Ein einzelner Bucket kann Objekte enthalten, die in allen Speicherklassen gespeichert sind. Sie können zudem S3-Lifecycle-Richtlinien verwenden, um Objekte automatisch zwischen den Speicherklassen ohne Änderungen an Anwendungen zu verschieben.
F: Anhand welcher Kriterien entscheide ich mich für eine S3-Speicherklasse?
Bei der Entscheidung, welche S3-Speicherklasse am besten für Ihre Workload geeignet ist, sollten Sie die Zugriffsmuster und die Aufbewahrungszeit Ihrer Daten berücksichtigen, um die niedrigsten Gesamtkosten über die Lebensdauer Ihrer Daten zu erhalten. Viele Workloads haben wechselnde (nutzergenerierte Inhalte), unvorhersehbare (Analysen, Data Lakes) oder unbekannte (neue Anwendungen) Zugriffsmuster. Deshalb sollte S3 Intelligent-Tiering die Standard-Speicherklasse sein, um automatisch Speicherkosten zu sparen. Wenn Sie die Zugriffsmuster Ihrer Daten kennen, können Sie die folgenden Hinweise befolgen. Die Speicherklasse S3 Standard ist ideal für Daten, auf die häufig zugegriffen wird. Sie ist die beste Wahl, wenn Sie mehr als einmal pro Monat auf Daten zugreifen. S3 Standard-Infrequent Access ist ideal für Daten, die mindestens einen Monat lang aufbewahrt werden und auf die alle ein bis zwei Monate zugegriffen wird.
Die Amazon-S3-Glacier-Speicherklassen wurden speziell für die Datenarchivierung entwickelt und bieten Ihnen die höchste Leistung, die größte Abrufflexibilität und den kostengünstigsten Archivspeicher in der Cloud. Sie können jetzt aus drei Archivspeicherklassen wählen, die für unterschiedliche Zugriffsmuster und Speicherdauer optimiert wurden. Für Archivdaten, auf die sofortiger Zugriff erforderlich ist, wie z. B. medizinische Bilder, Nachrichtenmedien-Komponenten oder Genomik-Daten, ist die Speicherklasse S3 Glacier Instant Retrieval die erste Wahl und bietet die kostengünstigste Speicherung mit Abrufen in Millisekunden. Für Archivdaten, auf die kein sofortiger Zugriff erforderlich ist, die aber die Flexibilität benötigen, große Datenmengen kostenlos abzurufen, wie z. B. Backup- oder Notfallwiederherstellungs-Anwendungsfälle, wählen Sie S3 Glacier Flexible Retrieval, mit Abrufen innerhalb von Minuten oder kostenlosen Massenabrufen innerhalb von 5–12 Stunden. Um bei Langzeit-Archivspeichern, wie z. B. Compliance-Archiven und der Aufbewahrung digitaler Medien, noch mehr sparen zu können, wählen Sie S3 Glacier Deep Archive, den kostengünstigsten Speicher in der Cloud mit Datenabruf innerhalb von 12 Stunden. Alle diese Speicherklassen bieten Ausfallsicherheit für mehrere Availability Zones (AZ), indem sie Daten redundant auf mehreren Geräten und physisch getrennten AWS Availability Zones in einer AWS-Region speichern.
Für Daten mit geringeren Anforderungen an die Ausfallsicherheit können Sie die Kosten senken, indem Sie eine Speicherklasse mit einer einzelnen AZ auswählen, wie S3 One Zone-Infrequent Access. Wenn Sie Datenresidenz- oder Latenzanforderungen haben, die von einer bestehenden AWS Region nicht erfüllt werden können, können Sie S3 on Outposts verwenden, um Ihre Daten On-Premises zu speichern.
Weitere Informationen über diese Speicherklassen finden Sie auf der Seite Amazon S3-Speicherklassen.
S3 Intelligent-Tiering
F: Was ist S3 Intelligent-Tiering?
S3 Intelligent-Tiering ist der erste Cloud-Speicher, der Ihre Speicherkosten auf detaillierter Objektebene automatisch senkt, indem er Daten basierend auf der Zugriffsfrequenz automatisch auf die kostengünstigste Zugriffsebene verschiebt – ohne Leistungseinbußen, Abrufgebühren oder betriebliche Fixkosten. S3 Intelligent-Tiering bietet eine Latenz im Millisekundenbereich und hohe Durchsatzleistung für Daten, auf die häufig, selten und auch sehr selten zugegriffen wird, in der Frequent-Access-, der Infrequent-Access- und der Archive-Instant-Access-Ebene. Gegen eine geringe monatliche Gebühr für Objektüberwachung und Automatisierung überwacht S3 Intelligent-Tiering die Zugriffsmuster und bewegt die Objekte automatisch von einer Ebene zur anderen. Es gibt keine Abrufgebühren in S3 Intelligent-Tiering, daher werden Sie keine unerwarteten Erhöhungen der Speicherkosten feststellen, wenn sich die Zugriffsmuster ändern.
Sie können S3 Intelligent-Tiering als Standardspeicherklasse für praktisch jede Workload verwenden, insbesondere für Data Lakes, Datenanalysen, Machine Learning, neue Anwendungen und nutzergenerierte Inhalte.
F: Wie funktioniert S3 Intelligent-Tiering?
Die Speicherklasse Amazon-S3-Intelligent-Tiering wurde entwickelt, um Speicherkosten zu optimieren, indem Daten automatisch auf die kostengünstigste Zugriffsebene verschoben werden, wenn sich die Zugriffsmuster ändern. Für eine geringe monatliche Überwachungs- und Automatisierungsgebühr pro Objekt werden Zugriffsmuster von S3 Intelligent-Tiering überwacht und Objekte, auf die seit 30 aufeinanderfolgenden Tagen kein Zugriff erfolgte, auf die Infrequent-Access-Ebene verschoben, um bis zu 40 % der Speicherkosten einzusparen. Nach 90 aufeinanderfolgenden Tagen ohne Zugriff werden die Objekte in die Archive Instant Access-Ebene verschoben, um bis zu 68 % der Speicherkosten einzusparen. S3 Intelligent-Tiering hat keine Auswirkungen auf die Leistung und es fallen keine Abrufgebühren an. Wenn später auf ein Objekt in der Infrequent Access-Ebene oder in der Archiv Instant Access-Ebene zugegriffen wird, wird es automatisch zurück in die Frequent Access-Ebene verschoben.
Um die geringsten Speicherkosten für Daten zu erhalten, auf die asynchron zugegriffen werden kann, können Sie zusätzliche Archivierungsfunktionen aktivieren. Sobald Sie eine oder beide asynchronen Archive-Access-Ebenen aktivieren, verschiebt S3 Intelligent-Tiering Objekte, auf die mindestens 90 Tage lang nicht zugegriffen wurde, in die Archive-Access-Ebene, um bis zu 71 % einzusparen, und nach 180 Tagen ohne Zugriff in die Deep-Archive-Access-Ebene, um bis zu 95 % bei Objekten einzusparen, auf die sehr selten zugegriffen wird. Wenn ein Objekt in der optionalen Archive- oder Deep-Access-Ebene später wiederhergestellt wird, wird es zurück in die Frequent-Access-Ebene verschoben. Bevor Sie das Objekt abrufen können, müssen Sie es zunächst mit RestoreObject wiederherstellen. Weitere Informationen zum Wiederherstellen von archivierten Objekten finden Sie unter Wiederherstellen von archivierten Objekten. Bei S3 Intelligent-Tiering werden keine Abrufgebühren erhoben. Es werden keine zusätzlichen Ebenen- oder Lebenszyklusgebühren erhoben, wenn Objekte innerhalb der S3 Intelligent-Tiering-Speicherklasse zwischen Zugriffsebenen verschoben werden.
Es gibt keine Mindestobjektgröße in S3 Intelligent-Tiering, aber Objekte, die kleiner als 128 KB sind, kommen nicht für das automatische Tiering in Frage. Diese kleineren Objekte können auch in S3 Intelligent-Tiering gespeichert werden, werden jedoch immer zu den Tarifen für die Frequent-Access-Ebene berechnet. Es fallen keine Überwachungs- und Automatisierungsgebühren an.
Wenn Sie S3 Intelligent-Tiering als Standardspeicherklasse für neu erstellte Daten verwenden möchten, können Sie Ihre Anwendungen ändern, indem Sie INTELLIGENT-TIERING im Header Ihrer S3-PUT-API-Anforderung angeben. S3 Intelligent-Tiering ist auf eine Verfügbarkeit von 99,9 % und eine Haltbarkeit der Daten von 99,999999999 % ausgelegt. Es bietet automatisch die gleiche niedrige Latenz und hohe Durchsatzleistung wie S3 Standard. Verwenden Sie den AWS-Cost-Explorer, um die zusätzlichen Einsparungen durch die Archive-Instant-Access-Ebene zu messen.
F: Warum sollte ich mich für S3 Intelligent-Tiering entscheiden?
Sie können S3 Intelligent-Tiering als Standardspeicherklasse für praktisch jede Workload verwenden, insbesondere für Data Lakes, Datenanalysen, Machine Learning, neue Anwendungen und nutzergenerierte Inhalte. S3 Intelligent-Tiering ist der erste Cloud-Speicher, der Ihre Speicherkosten auf detaillierter Objektebene automatisch senkt, indem er Daten basierend auf der Zugriffsfrequenz automatisch auf die kostengünstigste Zugriffsebene verschiebt – ohne Leistungseinbußen, Abrufgebühren oder betriebliche Fixkosten. Wenn Sie Daten mit unbekannten oder sich ändernden Zugriffsmustern haben, einschließlich Data Lakes, Datenanalysen und neuen Anwendungen, empfehlen wir S3 Intelligent-Tiering. Wenn Sie Daten haben, die nicht sofort abgerufen werden müssen, empfehlen wir die Aktivierung der Deep-Archive-Access-Ebene, bei der Sie nur 1 USD pro TB pro Monat für Daten zahlen, auf die langfristig nur selten zugegriffen wird. S3 Intelligent-Tiering ist für Daten mit unbekannten oder sich ändernden Zugriffsmustern. Bei Verwendung der Speicherklasse S3 Intelligent-Tiering fallen keine Abrufgebühren an.
F: Welche Leistung bietet S3 Intelligent-Tiering?
S3 Intelligent-Tiering optimiert automatisch die Speicherkosten, ohne die Leistung zu beeinträchtigen. Die S3 Intelligent-Tiering-Ebenen „Frequent“, „Infrequent“ und „Archive Instant Access“ bieten Latenzzeiten im Millisekundenbereich und hohe eine Durchsatzleistung.
F: Welche Leistung bieten die optionalen Ebenen „Archive Access“ und „Deep Archive Access“?
Für Daten, auf die asynchron zugegriffen werden kann, bietet die optionale Archive-Access-Ebene die gleiche Leistung wie S3 Glacier Flexible Retrieval. Die Deep-Archive-Access-Ebene bietet die gleiche Leistung wie die Speicherklasse „S3 Glacier Deep Archive“. Sie sollten die asynchronen Archivierungsfunktionen nur aktivieren, wenn Ihre Anwendung mehrere Minuten bis Stunden warten kann. Wenn das Objekt, das Sie abrufen wollen, in den Archive- oder Deep-Archive-Access-Ebenen gespeichert ist, müssen Sie, bevor Sie das Objekt abrufen können, zunächst ein Exemplar mit RestoreObject wiederherstellen. Weitere Informationen zum Wiederherstellen von archivierten Objekten finden Sie unter Wiederherstellen von archivierten Objekten. Objekte in der Archive-Access-Ebene werden innerhalb von 3 bis 5 Stunden in die Ebene Frequent Access verschoben und innerhalb von 12 Stunden, falls sie sich in der Ebene Deep Archive Access befinden. Wenn Sie einen schnelleren Zugriff auf ein Objekt der Archive-Access-Ebene benötigen, können Sie für einen schnelleren Abruf bezahlen, indem Sie über die Konsole die Geschwindigkeit des beschleunigten Abrufs auswählen.
F: Welche Haltbarkeit und welche Verfügbarkeit bietet S3-Intelligent-Tiering?
S3 Intelligent-Tiering ist für die gleiche Haltbarkeit von 99,999999999 % wie die Speicherklasse S3 Standard ausgelegt. S3 Intelligent-Tiering wurde für eine Verfügbarkeit von 99,9 % entwickelt und umfasst ein Service Level Agreement mit Service-Gutschriften, sollte die Verfügbarkeit in einem beliebigen Abrechnungszeitraum geringer ausfallen, als von uns zugesagt.
F: Wie kann ich meine Daten in S3 Intelligent-Tiering importieren?
Es gibt zwei Möglichkeiten, Daten in S3 Intelligent-Tiering zu importieren. Sie können einen direkten PUT-Import in S3 Intelligent-Tiering durchführen, indem Sie INTELLIGENT_TIERING im x-amz-storage-Header angeben, oder Sie können Lebenszyklusrichtlinien festlegen, um Objekte von S3 Standard oder S3 Standard-IA nach S3 INTELLIGENT_TIERING zu übertragen.
F: Wie werde ich für S3 Intelligent-Tiering berechnet?
S3 Intelligent-Tiering stellt Ihnen monatlich Speicherplatz, Anforderungen und Datentransfer in Rechnung und erhebt eine geringe monatliche Gebühr für die Überwachung und Automatisierung pro Objekt. Die Speicherklasse S3 Intelligent-Tiering speichert Objekte automatisch in drei Zugriffsebenen: in der Frequent-Access-Ebene zu den S3-Standardspeichertarifen, in der Infrequent-Access-Ebene zu den S3-Standard-Infrequent-Access-Speichertarifen und in der Archive-Instant-Access-Ebene zu den S3-Glacier-Instant-Retrieval-Speichertarifen. S3 Intelligent-Tiering hat außerdem zwei optionale Archivebenen für den asynchronen Zugriff: eine Archive-Access-Ebene zu den S3-Glacier-Flexible-Retrieval-Speichertarifen und eine Deep-Archive-Access-Ebene zu den S3-Glacier-Deep-Archive-Speichertarifen.
Gegen eine geringe Überwachungs- und Automatisierungsgebühr überwacht S3 Intelligent-Tiering die Zugriffsmuster und verschiebt Objekte automatisch in drei Zugriffsebenen mit niedriger Latenz und hohem Durchsatz sowie in zwei optionale asynchrone Archivzugriffsebenen, die Kunden die niedrigsten Cloud-Speicherkosten für Daten bieten, auf die asynchron zugegriffen werden kann.
Es gibt keine Mindestgröße für abrechenbare Objekte in S3 Intelligent-Tiering, aber Objekte, die kleiner als 128 KB sind, kommen nicht für das automatische Tiering in Frage. Diese kleinen Objekte werden nicht überwacht und werden immer zu den Tarifen der Frequent-Access-Ebene abgerechnet, ohne Überwachungs- und Automatisierungsgebühren. Für jedes Objekt, das auf der Archive-Access-Ebene oder der Deep-Archive-Access-Ebene in S3 Intelligent-Tiering archiviert wird, belegt Amazon S3 8 KB Speicherplatz für den Namen des Objekts und andere Metadaten (abgerechnet zu S3-Standard-Speichertarifen) und 32 KB Speicherplatz für Index- und zugehörige Metadaten (abgerechnet zu S3-Glacier-Flexible-Retrieval- und S3-Glacier-Deep-Archive-Speichertarifen).
F: Ist der Abruf von Daten aus S3 Intelligent-Tiering kostenpflichtig?
Nein. Bei S3 Intelligent-Tiering werden keine Abrufgebühren erhoben. S3 Intelligent-Tiering überwacht die Zugriffsmuster Ihrer Daten. Wenn Sie auf ein Objekt in den Ebenen „Infrequent Access“, „Archive Instant Access“ oder „Asynchronous Archive“ zugreifen, verschiebt S3 Intelligent-Tiering dieses Objekt automatisch in die Ebene „Frequent Access“.
F: Wie aktiviere ich die Archive-Access-Ebenen von S3 Intelligent-Tiering?
Sie können die Archive Access-Ebene und die Deep Archive Access-Ebene aktivieren, indem Sie eine Konfiguration auf Bucket-, Präfix- oder Objekt-Tag-Ebene mithilfe der Amazon S3-API, CLI oder S3-Managementkonsole erstellen. Sie sollten nur dann eine oder beide Archivzugriffsebenen aktivieren, wenn auf Ihre Objekte von Ihrer Anwendung asynchron zugegriffen werden kann.
F: Kann ich die Zeit bis zur Archivierung von Objekten innerhalb der Intelligent-Tiering-Speicherklasse S3 verlängern?
Ja. In der Konfiguration auf Bucket-, Präfix- oder Objekt-Tag-Ebene können Sie die letzte Zugriffszeit für Archivierungsobjekte in S3 Intelligent-Tiering verlängern. Wenn diese Option aktiviert ist, werden Objekte, auf die seit mindestens 90 aufeinanderfolgenden Tagen nicht mehr zugegriffen wurde, standardmäßig automatisch in die Archive-Access-Ebene verschoben und die Archive-Instant-Access-Ebene wird übersprungen. Objekte, auf die seit mindestens 180 aufeinanderfolgenden Tagen nicht mehr zugegriffen wurde, werden automatisch in die Deep-Archive-Access-Ebene verschoben. Die Standardkonfiguration für die aufeinander folgenden Tage seit dem letzten Zugriff vor der automatischen Archivierung im S3 Intelligent-Tiering kann bis zu 2 Jahre verlängert werden.
F: Wie greife ich auf ein Objekt aus den Archive Access- oder Deep Archive Access-Ebenen der Speicherklasse S3 Intelligent-Tiering zu?
Um auf ein Objekt in den Ebenen Archiv oder Deep Archive Access zuzugreifen, müssen Sie eine Wiederherstellungsanforderung ausgeben, und das Objekt wird wieder in die Ebene Frequent Access verschoben, und zwar innerhalb der Speicherklasse S3 Intelligent-Tiering. Objekte in der Archivzugriffsebene werden innerhalb von 3-5 Stunden in die Frequent Access-ebene verschoben, Objekte in der tiefen Archivzugriffsebene werden innerhalb von 12 Stunden in die Frequent Access-ebene verschoben. Sobald sich das Objekt in der Frequent-Access-Ebene befindet, können Sie eine GET-Anforderung zum Abrufen des Objekts stellen.
Woher weiß ich, in welcher S3 Intelligent-Tiering-Zugriffsebene meine Objekte gespeichert sind?
Sie können Amazon S3 Inventory verwenden, um die Zugriffsebene von Objekten zu melden, die in der S3 Intelligent-Tiering-Speicherklasse gespeichert sind. Amazon S3 Inventory bietet CSV-, ORC- oder Parkett-Ausgabedateien, die Ihre Objekte und die entsprechenden Metadaten täglich oder wöchentlich für einen S3-Bucket oder ein gemeinsames Präfix auflisten. Sie können auch eine HEAD-Anfrage zu Ihren Objekten stellen, um die S3 Intelligent-Tiering-Archivzugriffsebenen zu melden.
F: Kann ich Objekte von S3 Intelligent-Tiering in eine andere Speicherklasse verschieben?
Ja. Sie können Objekte von den S3 Intelligent-Tiering-Ebenen „Frequent Access“, „Infrequent“ und „Archive Instant Access“ auf die Ebenen „S3 One-Zone Infrequent Access“, „S3 Glacier Flexible Retrieval“ und „S3 Glacier Deep Archive“ verschieben. Darüber hinaus können Sie Objekte von den optionalen Archive-Access-Ebenen von S3 Intelligent-Tiering zu S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive bzw. von der Deep-Archive Access-Ebene von S3 Intelligent-Tiering zu S3 Glacier Deep Archive verschieben.
F: Gibt es eine Mindestspeicherdauer für S3 Intelligent-Tiering?
Nein. Die S3 Intelligent-Tiering-Speicherklasse hat keine Mindestspeicherdauer.
F: Gibt es eine abrechenbare Mindestobjektgröße für S3 Intelligent-Tiering?
Nein. Die S3 Intelligent-Tiering-Speicherklasse hat keine Mindestgröße für abrechenbare Objekte, aber Objekte, die kleiner als 128 KB sind, kommen nicht für die automatische Ausrichtung in Frage. Diese kleineren Objekte werden immer zu den Tarifen der Frequent-Access-Ebene abgerechnet, ohne Überwachungs- und Automatisierungsgebühren. Für jedes Objekt, das auf der optionalen Archive-Access-Ebene oder der Deep-Archive-Access-Ebene in S3 Intelligent-Tiering archiviert wird, belegt Amazon S3 8 KB Speicherplatz für den Namen des Objekts und andere Metadaten (abgerechnet zu S3-Standard-Speichertarifen) und 32 KB Speicherplatz für Index- und zugehörige Metadaten (abgerechnet zu S3-Glacier-Flexible-Retrieval- und S3-Glacier-Deep-Archive-Speichertarifen). Weitere Einzelheiten finden Sie auf der Preisseite zu Amazon S3.
S3 Standard
F: Was ist S3 Standard?
Amazon S3 Standard eignet sich für die dauerhafte Speicherung mit Zugriffslatenzzeiten im Millisekundenbereich und hoher Durchsatzleistung von Daten, auf die häufig zugegriffen wird, in der Regel mehr als einmal pro Monat. S3 Standard wurde für leistungssensible Anwendungsfälle entwickelt, wie z. B. Data Lakes, cloudnative Anwendungen, dynamische Websites, Content Distribution, Mobile- und Gaming-Anwendungen, Analysen und Machine-Learning-Modelle. S3 Standard ist für eine Datenverfügbarkeit von 99,99 % und eine Haltbarkeit von 99,999999999 % der über mehrere Availability Zones gespeicherten Objekte in einem bestimmten Jahr ausgelegt. Über S3-Lifecycle-Richtlinien können Sie genau steuern, wann Daten ohne Anwendungsänderungen zwischen S3-Standard- und kostengünstigeren Speicherklassen verschoben werden.
F: Welche Argumente sprechen für eine Nutzung von S3 Standard?
S3 Standard ist ideal für Daten, die sehr häufig abgerufen oder verändert werden, und die einen Zugriff im Millisekundenbereich und eine hohe Durchsatzleistung erfordern. S3 Standard ist ideal für Daten, die sehr häufig gelesen oder geschrieben werden, da keine Abrufkosten anfallen. Damit ist S3 Standard für eine Vielzahl von Anwendungsfällen optimiert, darunter Data Lakes, cloudnative Anwendungen, dynamische Websites, Content Distribution, Mobile- und Gaming-Anwendungen sowie Analytik.
S3 Express One Zone
F: Was ist die Amazon-S3-Speicherklasse Express One Zone?
Amazon S3 Express One Zone ist eine leistungsstarke Amazon-S3-Speicherklasse mit einer einzigen Verfügbarkeitszone, die speziell dafür entwickelt wurde, konsistenten einstelligen Millisekunden-Datenzugriff für die latenzempfindlichsten Anwendungen der Kunden zu ermöglichen. Amazon S3 Express One Zone ist die Cloud-Objektspeicherklasse mit der niedrigsten Latenz, die derzeit verfügbar ist. Die Datenzugriffsgeschwindigkeit ist bis zu zehnmal schneller und die Anforderungskosten liegen um 50 % unter denen von Amazon S3 Standard. Mit S3 Express One Zone können Sie eine bestimmte AWS-Verfügbarkeitszone innerhalb einer AWS-Region auswählen, um Ihre Daten zu speichern. Sie können sich dafür entscheiden, Ihren Speicher und Rechenressourcen in derselben Availability Zone zu platzieren, um die Leistung weiter zu optimieren.
F: Warum sollte ich mich für die Amazon-S3-Speicherklasse Express One Zone entscheiden?
S3 Express One Zone ist die ideale Speicherklasse für Anwendungen, die die schnellste Datenzugriffsgeschwindigkeit und höchste Leistung für latenzempfindliche Anwendungen benötigen. S3 Express One Zone ist die beste Speicherklasse für anforderungsintensive Operationen wie Machine Learning (ML), Training und Inferenz, interaktive Analysen und die Erstellung von Medieninhalten.
F: Wie fange ich mit der Amazon-S3-Speicherklasse Express One Zone an?
Sie können beginnen, indem Sie einen S3-Directory-Bucket in einer AWS Availability Zone (AZ) Ihrer Wahl erstellen. Sie können sich dafür entscheiden, Ihren Speicher und Rechenressourcen in derselben AZ zu platzieren, um die Leistung weiter zu optimieren. In Directory-Buckets ist S3 Block Public Access standardmäßig aktiviert. Nachdem Sie den Directory-Bucket erstellt haben, können Sie Objekte direkt in die S3-Speicherklasse Express One Zone hochladen oder Objekte aus vorhandenen S3-Speicherklassen in die S3 Express One Zone kopieren. Sie können Daten auch mit einem einzigen Klick in der AWS-Managementkonsole in S3 Express One Zone importieren oder S3 Batch Operations verwenden, um einen ganzen Bucket, ein Präfix oder Teilmengen von Daten aus einer vorhandenen S3-Speicherklasse in die S3 Express One Zone zu kopieren.
F: Wie kann ich Daten in die Amazon-S3-Speicherklasse Express One Zone importieren?
Sie können Daten aus derselben AWS-Region über die S3-Konsole in die S3-Speicherklasse Express One Zone importieren, indem Sie die Import-Option verwenden, nachdem Sie einen Directory-Bucket erstellt haben. Import vereinfacht das Kopieren von Daten in S3-Verzeichnis-Buckets, indem Sie ein Präfix oder einen Bucket auswählen können, aus dem Daten importiert werden sollen, ohne alle zu kopierenden Objekte einzeln angeben zu müssen. S3 Batch Operations kopiert die Objekte in das ausgewählte Präfix oder den Allzweck-Bucket, und Sie können den Fortschritt des Importkopierauftrags auf der Seite mit den Auftragsdetails von S3 Batch Operations überwachen.
F: In wie vielen Availability Zones werden Amazon S3 Express-One-Zone-Objekte gespeichert?
S3 Express-One-Zone-Objekte werden in einer einzelnen AWS Availability Zone (AZ) gespeichert, die Sie auswählen. Wenn Sie Objekte in einer Zone speichern, können Sie Ihre Daten lokal auf Ihrem Computer speichern, um die Latenz zu minimieren. Sie können aus verschiedenen Availability Zones auf Daten zugreifen, obwohl die Latenz steigen wird.
F: Welche Leistung bietet die Amazon-S3-Speicherklasse Express One Zone?
S3 Express One Zone bietet eine ähnliche Leistungselastizität wie andere S3-Speicherklassen, jedoch mit konsistenten Latenzlatenzen für Lese- und Schreiblatenzanfragen im einstelligen Millisekundenbereich – bis zu zehnmal schneller als bestehende S3-Speicherklassen. Mit S3 Express One Zone müssen Kunden Kapazitäts- oder Durchsatzanforderungen nicht im Voraus planen oder bereitstellen und profitieren sofort von Anfragen, die um eine Größenordnung schneller bearbeitet werden. S3 Express One Zone ist ideal für Analyseaufträge, bei denen die Speicherlatenz die Auftragsabschlusszeiten beschleunigt und die Gesamtbetriebskosten senkt. Es ist auch ideal für interaktive Workloads wie Videobearbeitung, bei denen Kreativprofis einen möglichst reaktionsschnellen Zugriff auf ihre S3-Daten benötigen.
F: Wie erreicht die Amazon-S3-Speicherklasse Express One Zone eine hohe Leistung?
S3 Express One Zone verwendet eine einzigartige Architektur, um die Leistung zu optimieren und eine konstant niedrige Anforderungslatenz zu gewährleisten. S3 Express One Zone speichert Daten auf Hochleistungshardware, und das Objektprotokoll wurde verbessert, um den Authentifizierungs- und Metadatenaufwand zu optimieren. Um die Zugriffsgeschwindigkeit weiter zu erhöhen und Hunderttausende von Anfragen pro Sekunde zu unterstützen, werden Daten außerdem in einem neuen Bucket-Typ gespeichert – einem Amazon-S3-Verzeichnis-Bucket. Mit S3 Express One Zone können Sie eine bestimmte AWS-Verfügbarkeitszone innerhalb einer AWS-Region auswählen, um Ihre Daten zu speichern. Sie können sich dafür entscheiden, Ihren Speicher und Rechenressourcen in derselben Availability Zone zu platzieren, um die Leistung weiter zu optimieren.
F: Welche Leistung bei der Anforderungsrate unterstützt ein S3-Directory-Bucket?
Jeder S3-Verzeichnis-Bucket kann Hunderttausende von Transaktionen pro Sekunde (TPS) unterstützen, unabhängig von der Anzahl der Verzeichnisse innerhalb des Buckets.
F: Was passiert mit einem S3-Directory-Bucket ohne Anforderungsaktivität über einen längeren Zeitraum?
S3-Verzeichnis-Buckets, die über einen Zeitraum von mindestens 3 Monaten keine Anforderungsaktivität aufweisen, werden in einen inaktiven Zustand versetzt. In einem inaktiven Zustand ist ein Verzeichnis-Bucket vorübergehend für Lese- und Schreibvorgänge nicht zugänglich. Inaktive Buckets behalten alle Speicher-, Objekt- und Bucket-Metadaten bei. Bestehende Speichergebühren fallen für inaktive Buckets an. Bei einer Zugriffsanforderung auf einen inaktiven Bucket wechselt der Bucket in einen aktiven Zustand, in der Regel innerhalb weniger Minuten. Während dieser Übergangsphase geben Lese- und Schreibvorgänge einen 503 SlowDown-Fehlercode zurück.
F: Wie sollte ich die Durchsatzanforderungen meiner Anwendung mit der S3-Speicherklasse Express One Zone planen?
S3 Express One Zone bietet einen ähnlich hohen, elastischen Durchsatz wie andere Amazon-S3-Speicherklassen. S3 Express One Zone wurde von Grund auf so konzipiert, dass einzelne Kunden den Durchsatz auf ein sehr hohes Gesamtniveau steigern können. Beispielsweise können Modelltrainingsanwendungen für Machine Learning anhand von Millionen von Objekten und Petabyte an Daten trainiert werden. Sie können die höchste Leistung erzielen, indem Sie diese Anfragen auf separate Verbindungen verteilen, um die verfügbare Bandbreite zu maximieren.
F: Wie unterscheidet sich die Anforderungsautorisierung bei Amazon S3 Express One Zone von anderen S3-Speicherklassen?
Mit S3 Express One Zone authentifizieren und autorisieren Sie Anfragen über einen neuen sitzungsbasierten Mechanismus, S3 CreateSession, der so optimiert ist, dass er die niedrigste Latenz bietet. Sie können CreateSession verwenden, um temporäre Anmeldeinformationen anzufordern, die den Zugriff auf Ihren Bucket mit geringer Latenz ermöglichen. Diese temporären Anmeldeinformationen sind auf einen bestimmten S3-Verzeichnis-Bucket beschränkt. Weitere Informationen zu diesem sitzungsbasierten Modell finden Sie unter S3 CreateSession im Entwicklerhandbuch.
F: Wie zuverlässig ist die Amazon-S3-Speicherklasse Express One Zone?
S3 Express One Zone wurde für eine Verfügbarkeit von 99,95 % innerhalb einer einzigen Availability Zone mit einer Verfügbarkeits-SLA von 99,9 % konzipiert.
F: Wie ist die Amazon S3-Speicherklasse Express One Zones so konzipiert, dass sie eine Verfügbarkeit von 99,95 % bietet?
Mit S3 Express One Zone werden Ihre Daten redundant auf mehreren Geräten innerhalb einer einzigen AZ gespeichert. S3 Express One Zone ist konzipiert, um gleichzeitige Geräteausfälle durch schnelles Erfassen und Instandsetzen verlorener Redundanz zu überstehen. Das bedeutet, dass S3 Express One Zone Anfragen automatisch an neue Geräte innerhalb einer AZ weiterleitet, wenn das vorhandene Gerät ausfällt. Diese Redundanz bietet einen unterbrechungsfreien Zugriff auf Ihre Daten innerhalb einer AZ.
F: Kann ich Daten an ein Objekt in Amazon S3 Express One Zone anhängen?
Ja. Sie können Daten an ein Objekt in S3 Express One Zone anhängen, indem Sie die PutObject-Anfrage verwenden und den Header x-amz-write-offset-bytes auf die Größe des Objekts setzen, an das Sie anhängen. Wenn Sie das AWS-SDK und die AWS-CLI verwenden, können Sie die Option write-offset-bytes verwenden, um an ein Objekt anzuhängen. S3 Express One Zone unterstützt nur das Anhängen von Daten an das Ende des Objekts. Dazu muss der Schreibversatz auf die Größe des Objekts gesetzt werden.
F: Wie wird mir Amazon S3 Express One Zone in Rechnung gestellt?
Sie können mit der Verwendung von S3 Express One Zone beginnen, ohne dass Ihnen Einrichtungsgebühren oder sonstige Verpflichtungen entstehen. S3 Express One Zone berechnet Ihnen Gebühren für Speicher und Anfragen. Das in einem Monat in Rechnung gestellte Speichervolumen wird auf der Grundlage des gesamten Speicherverbrauchs pro Stunde berechnet, gemessen in Gigabyte pro Monat (GB-Monat). Außerdem wird Ihnen eine Gebühr pro Anfrage für den Zugriff berechnet, die vom Anfragetyp abhängt, z. B. PUTs und GETs. Für den Teil der Anforderungsgröße, der 512 KB überschreitet, zahlen Sie eine zusätzliche Gebühr pro GB.
Beispiel 1:
Nehmen wir an, Sie speichern 10 GB an Daten 30 Tage lang in S3 Express One Zone, führen insgesamt 1 000 000 Schreibvorgänge und 9 000.000 Lesevorgänge durch und greifen mit Athena mit einer Anforderungsgröße von 10 KB zu. Anschließend löschen Sie innerhalb von 30 Tagen 1 000 000 Dateien. Die Gebühren für Speicherung und Anforderungen sind im Folgenden aufgeführt. Dabei wird davon ausgegangen, dass sich Ihr Bucket in der Region USA Ost (Nord-Virginia) befindet.
Speichergebühren
Gesamtzahl verwendeter Byte-Stunden = 10 GB-Monat
Gesamtspeicherkosten = 10 GB-Monat x 0,16 USD/GB-Monat = 1,6 USD
Anfragegebühren
1 000 000 PUT-Anforderungen: 1 000 000 Anforderungen x 0,0025 USD/1 000 = 2,50 USD
9 000 000 GET-Anforderungen: 9 000 000 Anforderungen x 0,0002 USD/1 000 = 1,80 USD
1 000 000 DELETE-Anforderungen = 1 000 000 Anforderungen x 0,00 USD (keine Gebühr) = 0 USD
Gesamtgebühren = 1,60 USD + 2,50 USD + 1,80 USD = 5,90 USD
Beispiel 2:
Nehmen wir an, Sie speichern täglich 10 TB an Daten für Machine Learning für ein 8-stündiges Workload und löschen sie dann. Während des 8-stündigen Workloads führen Sie 5 242 880 Schreibvorgänge und 10 485 760 Lesevorgänge für eine Anforderungsgröße von 2 MB aus. Nehmen wir an, Sie tun dies 30 Tage lang (einen Monat).
Speichergebühren
Gesamtnutzung in Byte-Stunden = [10 995 116 277 760 Byte x 30 Tage x (8 Stunden pro Tag)] = 2 638 827 906 662 400 Byte-Stunden = 3 303,77 GB-Monat
Gesamtspeicherkosten = 3 303,77 GB x 0,16 USD = 528,51 USD
Anfragegebühren
5 242 880 PUT-Anfragen/Tag: 5 242 880 Anfragen x 30 x 0,0025 USD/1 000 = 393,22 USD
10 485 760 GET-Anfragen/Tag: 10 485 760 Anfragen x 30 x 0,0002 USD/1 000 = 62,91 USD
5 242 880 DELETE-Anfragen/Tag = 5 242 880 Anfragen x 0,00 USD (keine Gebühr) = 0 USD
Pro Anfrage fallen zusätzliche Bandbreitengebühren an für: 1,5 MB (2-0,5 MB) = 0,001465 GB
PUT-Bandbreitengebühr: 0,001465 GB x 5 242 880 x 30 x 0,008 USD = 1 843,2 USD
GET Bandbreitengebühr: 0,001465 GB x 10 485 760 x 30 x 0,015 USD = 691,2 USD
Gesamtgebühren = 528,51 USD + 393,22 USD + 62,91 USD + 1 843,2 USD + 691,2 USD = 3 519,05 USD
F: Fallen zusätzliche Datenübertragungsgebühren für die Nutzung der Amazon-S3-Speicherklasse Express One Zone innerhalb derselben Region an?
Die Anforderungsgebühren für den Zugriff auf Daten in S3 Express One Zone beinhalten die Kosten für die Übertragung von Daten innerhalb des AWS-Netzwerks in einer Region, und es fallen keine zusätzlichen Datenübertragungsgebühren für Daten an, die zwischen Amazon EC2 (oder einem beliebigen AWS-Service) und der S3 Express One Zone innerhalb derselben Region übertragen werden, beispielsweise für Daten, die innerhalb der Region USA Ost (Nord-Virginia) übertragen werden.
F: Fallen zusätzliche Netzwerkgebühren für die Verwendung von Gateway-VPC-Endpunkten mit der Amazon-S3-Speicherklasse Express One Zone an?
Die Anforderungsgebühren für den Zugriff auf Daten in S3 Express One Zone beinhalten die Kosten für die Nutzung von Gateway-VPC-Endpunkten, und es fallen keine zusätzlichen Gebühren für die Verwendung von Gateway-Endpunkten mit S3 Express One Zone an.
S3 Standard – Infrequent Access (S3 Standard-IA)
F: Was versteht man unter S3 Standard – Infrequent Access?
Amazon S3 Standard – Infrequent Access (S3 Standard – IA) ist eine Amazon S3-Speicherklasse für Daten, auf die seltener zugegriffen wird, die bei Bedarf jedoch schnell abrufbar sein müssen. S3 Standard-IA bietet die hohe Lebensdauer, den hohen Durchsatz und die geringen Latenzzeiten der Speicherklasse Amazon S3 Standard zu einem günstigen Speicher- und Abrufpreis pro GB. Diese Kombination aus niedrigen Kosten und hoher Leistung machen S3 Standard – IA zur idealen Lösung für langfristige Speicherung, Sicherung und als Datenspeicher für Notfallwiederherstellungen. Die Speicherklasse S3 Standard-IA wird auf der Objektebene eingestellt und kann im selben Bucket wie die Speicherklassen S3 Standard- oder S3 One Zone-IA verbleiben, sodass Sie S3-Lebenszyklusrichtlinien für die automatische Objektübertragung zwischen Speicherklassen verwenden können, ohne die Anwendung zu ändern.
F: Welche Argumente sprechen für eine Nutzung von S3 Standard-IA?
S3 Standard – IA ist die ideale Speicherlösung für Daten, auf die seltener zugegriffen wird, die bei Bedarf jedoch schnell abrufbar sein müssen. S3 Standard-IA eignet sich optimal für die langfristige Speicherung von Dateien, ältere synchronisierte und freigegebene Daten und andere ältere Daten.
F: Welche Leistung bietet S3 Standard-IA?
S3 Standard-IA bietet dieselbe Latenz im Millisekundenbereich und Durchsatzleistung wie die Speicherklasse S3 Standard.
F: Wie kann ich meine Daten in S3 Standard-IA importieren?
Es gibt zwei Möglichkeiten, Daten in S3 Standard – IA zu importieren. Sie können einen direkten PUT-Import in S3 Standard – IA durch Eingabe von STANDARD_IA in die x-amz-storage-class-Kopfzeile durchführen. Außerdem können Sie Lebenszyklusrichtlinien festlegen, um Objekte aus der Speicherklasse S3 Standard in die Speicherklasse S3 Standard-IA zu verschieben.
F: Welche Gebühren werden mir berechnet, wenn ich die Speicherklasse eines Objekts mit einer COPY-Anforderung von S3 Standard-IA in S3 Standard ändere?
Es fallen Gebühren für eine S3 Standard (Zielspeicherklasse) COPY-Anfrage und einen S3-Standard-IA (Quellspeicherklasse) Datenabruf an. Weitere Informationen zu den Preisen finden Sie auf der Amazon S3-Preisseite.
F: Gibt es bei S3 Standard-IA eine Mindestgebühr für die Speicherdauer?
S3 Standard-IA wurde für Langzeitdaten mit selteneren Zugriffen konzipiert, die für Monate oder auch Jahre gespeichert werden. Für Daten, die innerhalb von 30 Tagen aus S3-Standard-IA gelöscht werden, werden 30 volle Tage berechnet. Informationen zu den Preisen von S3-Standard-IA finden Sie auf der Seite mit der Preisübersicht für Amazon S3.
F: Gibt es bei S3-Standard-IA eine Mindestgebühr für den Objektspeicher?
S3 Standard – IA ist für größere Objekte ausgelegt und sieht eine Mindestgebühr für 128 KB Objektspeicher vor. Objekte, die kleiner als 128 KB sind, werden mit einer Größe von 128 KB berechnet. Beispiel: Für ein Objekt mit einer Größe von 6 KB werden in S3-Standard-IA 6 KB berechnet plus einer Gebühr für die Mindestobjektgröße, die 122 KB des Speicherpreises in S3-Standard-IA entspricht. Informationen zu den Preisen von S3-Standard-IA finden Sie auf der Seite mit der Preisübersicht für Amazon S3.
F: Kann ich Objekte aus S3-Standard-IA in S3 One-Zone-IA oder S3 Glacier Flexible Retrieval verschieben?
Ja. Neben der Verwendung von Lebenszyklusrichtlinien für die Migration von Objekten von S3 Standard zu S3 Standard-IA können Sie auch Lebenszyklusrichtlinien für die Migration von Objekten von S3 Standard-IA zu S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und der Speicherklasse S3 Glacier Deep Archive einrichten.
S3 One Zone-Infrequent Access (S3 One Zone-IA)
F: Was versteht man unter der Speicherklasse S3 One Zone – IA?
Die Speicherklasse S3 One Zone – IA ist eine Amazon S3-Speicherklasse, in der Kunden Objekte auf Wunsch in einer einzigen Availability Zone speichern können. S3 One Zone – IA-Speicher speichert Daten redundant in dieser einzigen Availability Zone. So fallen um 20 % niedrigere Speicherkosten an als bei der geografisch redundanten S3 Standard – IA-Speicherung, bei der Daten redundant in mehreren, geografisch voneinander getrennten Availability Zones gespeichert werden.
S3 One Zone-IA sichert in seinem SLA eine Verfügbarkeit von 99 % zu und ist auf eine Zuverlässigkeit von 11 x die Zahl 9 innerhalb der Availability Zone ausgelegt. Die Daten in der Speicherklasse S3 One Zone-IA sind jedoch nicht resistent gegen den physischen Verlust einer gesamten Availability Zone.
Die Speicherklasse S3 One Zone-IA bietet dieselben Amazon S3-Features wie S3 Standard und S3 Standard-IA und wird über die Amazon S3-API, die CLI und die Konsole genutzt. Die Speicherklasse S3 One Zone – IA wird auf der Objektebene eingestellt und kann im selben Bucket verbleiben wie die Speicherklassen S3 Standard und S3 Standard – IA. Sie können S3-Lebenszyklusrichtlinien verwenden, um Objekte automatisch zwischen den Speicherklassen zu verschieben, ohne die Anwendung zu ändern.
F: Für welche Anwendungsfälle ist die Speicherklasse S3 One Zone-IA besonders gut geeignet?
Kunden können S3 One Zone-IA als Speicher für Daten nutzen, auf die nur selten zugegriffen wird, z. B. Sicherungskopien, Notfallwiederherstellungskopien oder andere leicht wiederherstellbare Daten.
F: Welche Leistung bietet die Speicherklasse "S3 One Zone-IA"?
Die Speicherklasse „S3 One Zone-IA“ bietet die gleichen Latenz- und Durchsatzleistungen wie die Speicherklassen „S3 Standard“ und „S3 Standard – Infrequent Access“.
F: Wie zuverlässig ist die Speicherklasse "S3 One Zone-IA"?
Die Speicherklasse S3 One Zone-IA ist auf eine Zuverlässigkeit von 99,999999999 % innerhalb einer Availability Zone ausgelegt. Die Daten in der Speicherklasse S3 One Zone-IA sind jedoch nicht resistent gegen den Verlust der Verfügbarkeit oder den physischen Verlust einer gesamten Availability Zone. Im Gegensatz dazu sind die Speicherklassen S3 Standard, S3 Intelligent-Tiering, S3 Standard-Infrequent Access und S3 Glacier so konzipiert, dass sie den Verlust der Verfügbarkeit oder die Zerstörung einer Availability Zone auffangen können. S3 One Zone-IA bietet eine mindestens ebenso hohe Zuverlässigkeit und Verfügbarkeit wie die meisten modernen physischen Rechenzentren. Darüber hinaus bietet sie den Vorteil der Speicherelastizität sowie die Features von Amazon S3.
F: Ist eine "Zone" bei S3 One Zone-IA das Gleiche wie eine AWS Availability Zone?
Ja. Jede AWS-Region ist ein separater geografischer Bereich. Jede Region verfügt über mehrere isolierte Standorte, die als Availability Zones bezeichnet werden. Die Speicherklasse Amazon S3 One Zone-IA nutzt eine einzelne AWS Availability Zone innerhalb der Region.
F: Auf wie viel Notfallwiederherstellungsschutz verzichte ich, wenn ich S3 One Zone-IA nutze?
Jede Availability Zone verwendet eine redundante Energieversorgung und ein redundantes Netzwerk. Die Availability Zones innerhalb einer AWS-Region befinden sich in Zonen mit unterschiedlichem Überschwemmungs- und Erdbebenrisiko und sind aus Brandschutzgründen geografisch voneinander getrennt. Die Speicherklassen S3 Standard und S3 Standard-IA speichern Ihre Daten redundant in mehreren Availability Zones und schützen sie so vor solchen Katastrophen. S3 One Zone-IA bietet Schutz vor Geräteausfällen innerhalb einer Availability Zone. Die Daten sind jedoch nicht resistent gegen den physischen Verlust der Availability Zone infolge von Katastrophen wie Erdbeben und Überschwemmungen. Mit den Optionen S3 One Zone-IA, S3 Standard- und S3 Standard-IA können Sie die Speicherklasse auswählen, die Ihren Anforderungen an den Speicher im Hinblick auf Zuverlässigkeit und Verfügbarkeit am besten entspricht.
Amazon-S3-Glacier-Instant-Retrieval-Speicherklasse
Was ist die S3-Glacier-Instant-Retrieval-Speicherklasse?
S3 Glacier Instant Retrieval ist die kostengünstigste Speicherklasse für langlebige Daten, auf die nur selten zugegriffen wird und die einen Abruf in Millisekunden erfordern. S3 Glacier Instant Retrieval bietet den schnellsten Zugriff auf Archivspeicher mit demselben Durchsatz und derselben Zugriffszeit in Millisekunden wie die Speicherklassen S3 Standard und S3 Standard-IA. S3-Glacier-Instant-Retrieval wurde für eine Datenhaltbarkeit von 99,999999999 % (11x9) und eine Verfügbarkeit von 99,9 % konzipiert, indem Daten redundant über mindestens drei physisch getrennte AWS-Availability-Zones gespeichert werden.
F: Warum sollte ich S3 Glacier Instant Retrieval verwenden?
S3 Glacier Instant Retrieval ist ideal, wenn Sie Daten haben, auf die nur selten (einmal pro Quartal) zugegriffen wird, und die Abrufzeiten im Millisekundenbereich liegen müssen. Wählen Sie diese Speicherklasse, wenn Sie die gleiche niedrige Latenz und hohe Durchsatzleistung wie S3 Standard-IA benötigen, aber Daten speichern möchten, auf die weniger häufig zugegriffen wird als bei S3 Standard-IA. Der Speicherpreis ist niedriger, der Datenzugriff etwas teurer.
F: Wie verfügbar und haltbar ist S3 Glacier Instant Retrieval?
S3 Glacier Instant Retrieval ist für eine Haltbarkeit von 99,999999999 % (11 9en) und eine Verfügbarkeit von 99,9 % ausgelegt, genau wie S3 Standard-IA, und beinhaltet eine Service-Level-Vereinbarung, die Servicegutschriften vorsieht, wenn die Verfügbarkeit in einem Abrechnungszyklus weniger als 99 % beträgt.
F: Welche Leistung bietet S3 Glacier Instant Retrieval?
S3 Glacier Instant Retrieval bietet dieselbe Latenzzeit im Millisekundenbereich und Durchsatzleistung wie die Speicherklassen S3 Standard und S3 Standard-IA. Anders als bei den Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive, die für den asynchronen Zugriff konzipiert sind, müssen Sie vor dem Zugriff auf ein in S3 Glacier Instant Retrieval gespeichertes Objekt keine Wiederherstellungsanfrage stellen.
F: Wie bekomme ich meine Daten in S3 Glacier Instant Retrieval?
Es gibt zwei Möglichkeiten, Daten in S3 Glacier Instant Retrieval zu importieren. Sie können einen direkten PUT-Import in S3 Glacier Instant Retrieval durchführen, indem Sie GLACIER_IR im x-amz-storage-class-Header angeben, oder Sie können S3-Lifecycle-Richtlinien festlegen, um Objekte von S3 Standard oder S3 Standard-IA nach S3 Glacier Instant Retrieval zu übertragen.
F: Gibt es eine Gebühr für die Mindestspeicherdauer bei Amazon S3 Glacier Instant Retrieval?
S3 Glacier Instant Retrieval ist für langlebige Daten gedacht, auf die nur selten zugegriffen wird und die über Monate oder Jahre gespeichert werden. Objekte, die in S3 Glacier Instant Retrieval archiviert werden, müssen mindestens 90 Tage lang gespeichert werden. Für Objekte, die vor 90 Tagen gelöscht, überschrieben oder übertragen werden, wird eine anteilige Gebühr in Höhe der Speichergebühr für die verbleibenden Tage erhoben. Informationen zu den Preisen von Amazon S3 Glacier Instant Retrieval finden Sie auf der Amazon-S3-Preisseite.
F: Gibt es eine Gebühr für die Mindestobjektgröße bei Amazon S3 Glacier Instant Retrieval?
S3 Glacier Instant Retrieval ist für größere Objekte ausgelegt und sieht eine Mindestgebühr für 128 KB Objektspeicher vor. Objekte, die kleiner als 128 KB sind, werden mit einer Größe von 128 KB berechnet. Beispiel: Für ein Objekt mit einer Größe von 6 KB werden in S3 Glacier Instant Retrieval 6 KB berechnet plus einer Gebühr für die Mindestobjektgröße, die 122 KB des Speicherpreises in S3 Glacier Instant Retrieval entspricht. Informationen zu den Preisen von Amazon S3 Glacier Instant Retrieval finden Sie auf der Amazon-S3-Preisseite.
F: Wie wird S3 Glacier Instant Retrieval abgerechnet?
Bei S3 Glacier Instant Retrieval fallen Gebühren für den monatlichen Speicherplatz, für anfragenabhängige Anfragen und für Datenabrufe an. Der für einen Monat in Rechnung gestellte Speicherplatz basiert auf der durchschnittlichen, im Laufe des Monats genutzten Speicherkapazität, die in sog. Gigabyte-Monaten (GB-Monaten) gemessen wird. Die Gebühren für Anfragen richten sich nach dem Anfragetyp, z. B. PUTs, COPYs und GETs. Außerdem zahlen Sie eine Gebühr pro GB für jedes Gigabyte an Daten, das Sie abrufen.
Speicherklasse für Amazon S3 Glacier Flexible Retrieval
F: Speicherklasse für Amazon S3 Glacier Flexible Retrieval
Die Speicherklasse S3 Glacier Flexible Retrieval bietet kostengünstigen Speicher mit bis zu 10 % niedrigeren Kosten (als S3 Glacier Instant Retrieval) für Archivdaten, auf die 1–2 Mal pro Jahr zugegriffen wird und die asynchron abgerufen werden. Massenabrufe sind kostenlos. Für Archivdaten, auf die kein sofortiger Zugriff erforderlich ist, die aber die Flexibilität benötigen, große Datenmengen ohne Kosten abzurufen, wie z. B. Backup- oder Notfallwiederherstellungs-Anwendungsfälle, ist S3 Glacier Flexible Retrieval die ideale Speicherklasse. S3 Glacier Flexible Retrieval bietet die meisten Abrufoptionen und ein gutes Gleichgewicht aus Kosten und Zugriffszeiten, die von Minuten bis Stunden reichen können. Massenabrufe sind kostenlos. Die Speicherklasse eignet sich ideal für Backup, Notfallwiederherstellung, externe Datenspeicherung und für den Fall, dass gelegentlich Daten innerhalb von Minuten abgerufen werden müssen und Sie sich dabei keine Sorgen um den Preis machen wollen. S3 Glacier Instant Retrieval wurde für eine Datenbeständigkeit von 99,999999999 % (11x9) und eine Verfügbarkeit von 99,99 % konzipiert, indem Daten redundant über mehrere physisch getrennte AWS-Availability-Zones gespeichert werden.
F: Warum sollte ich die Speicherklasse S3 Glacier Flexible Retrieval verwenden?
Für Archivdaten, auf die kein sofortiger Zugriff erforderlich ist, die aber die Flexibilität benötigen, große Datenmengen ohne Kosten abzurufen, wie z. B. Backup- oder Notfallwiederherstellungs-Anwendungsfälle, ist S3 Glacier Flexible Retrieval die ideale Speicherklasse. S3 Glacier Flexible Retrieval bietet die meisten Abrufoptionen und ein gutes Gleichgewicht aus Kosten und Zugriffszeiten, die von Minuten bis Stunden reichen können. Massenabrufe sind kostenlos. Die Speicherklasse eignet sich ideal für Backup, Notfallwiederherstellung, externe Datenspeicherung und für den Fall, dass gelegentlich Daten innerhalb von Minuten abgerufen werden müssen und Sie sich dabei keine Sorgen um den Preis machen wollen.
F: Wie bekomme ich meine Daten in S3 Glacier Flexible Retrieval?
Es gibt zwei Möglichkeiten, Daten in S3 Glacier Flexible Retrieval zu importieren. Sie können einen direkten PUT-Import in S3 Glacier Flexible Retrieval durch die Angabe von GLACIER im x-amz-storage-class-Header durchführen. Sie können auch S3-Lifecycle-Regeln benutzen, um Objekte von einer der Amazon S3-Speicherklassen für aktive Daten (S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA und S3 Glacier Instant Retrieval) basierend auf dem Objektalter in Amazon S3 Glacier Flexible Retrieval zu überführen. Verwenden Sie die Amazon-S3-Managementkonsole, die AWS-SDKs oder die Amazon-S3-APIs, um direkt in Amazon S3 Glacier zu PUT-Daten zu gelangen oder Regeln für die Archivierung zu definieren.
Hinweis: S3 Glacier Flexible Retrieval ist auch über die ursprünglichen direkten Glacier-APIs und über die Amazon-S3-Glacier-Managementkonsole verfügbar. Für ein verbessertes Erlebnis mit Zugriff auf den gesamten Featuresumfang von S3, einschließlich Lebenszyklusmanagement, S3 Replication, S3 Storage Lens und mehr, empfehlen wir, S3-APIs und die S3-Managementkonsole zu benutzen, um die Features von S3 Glacier zu nutzen.
F: Wie kann ich meine Objekte abrufen, die in S3 Glacier Flexible Retrieval archiviert sind und werde ich benachrichtigt, wenn das Objekt wiederhergestellt wird?
Auf Objekte, die in S3 Glacier Flexible Retrieval archiviert werden, wird asynchron zugegriffen. Um Daten abzurufen, die in der Speicherklasse S3 Glacier Flexible Retrieval gespeichert sind, starten Sie eine Abrufanforderung über die Amazon-S3-APIs oder die Amazon-S3-Konsole. Mit der Abrufanforderung wird eine temporäre Kopie Ihrer Daten in der Speicherklasse S3 Standard erstellt, während die archivierten Daten in S3 Glacier Flexible Retrieval unverändert bleiben. Sie können angeben, wie viele Tage die temporäre Kopie in Amazon S3 gespeichert bleibt. Über das Anwenden einer Amazon-S3-GET-Anforderung auf das archivierte Objekt können Sie anschließend auf Ihre temporäre Kopie in S3 zugreifen. In AWS-Regionen, in denen Speicher mit reduzierter Redundanz günstiger ist als S3 Standard, werden vorübergehend verfügbare Daten als Speicher mit reduzierter Redundanz abgerechnet. Die Abrechnungsspeicherklasse mit reduzierter Redundanz spiegelt jedoch nicht wider, wie die Daten gespeichert werden.
Mit Wiederherstellungsbenachrichtigungen können Sie jetzt per S3-Ereignisbenachrichtigung benachrichtigt werden, wenn ein Objekt erfolgreich aus S3 Glacier Flexible Retrieval wiederhergestellt wurde und Ihnen die temporäre Kopie zur Verfügung gestellt wird. Der Bucket-Besitzer (oder andere, wie durch eine IAM-Richtlinie erlaubt) kann die Ausgabe von Benachrichtigungen an Amazon Simple Queue Service (SQS) oder Amazon Simple Notification Service (SNS) veranlassen. Benachrichtigungen können auch an AWS Lambda zur Verarbeitung durch eine Lambda-Funktion übermittelt werden.
F: Wie lange dauert die Wiederherstellung meiner in Amazon S3 Glacier Flexible Retrieval archivierten Objekte?
Bei der Verarbeitung eines Abrufauftrags ruft Amazon S3 zunächst die angeforderten Daten aus S3 Glacier Flexible Retrieval ab und erstellt dann eine temporäre Kopie der angeforderten Daten in Amazon S3. Dies dauert in der Regel ein paar Minuten. Die Zugriffszeit für Ihre Anfrage hängt von der von Ihnen gewählten Abrufoption ab: Expedited, Standard oder Massenabrufe. Für alle außer den größten Objekten (ab 250 MB) stehen die Daten, auf die Sie über „Expedited“-Abrufe zugreifen, normalerweise innerhalb von 1 bis 5 Minuten zur Verfügung. Standard-Objektabrufe werden normalerweise innerhalb von 3 bis 5 Stunden abgeschlossen. Standardabrufe beginnen in der Regel innerhalb von Minuten, wenn sie mithilfe von S3-Batch-Operationen initiiert werden. Massenabrufe werden in der Regel innerhalb von 5 bis 12 Stunden kostenlos ausgeführt. Weitere Informationen zu den Abrufoptionen von S3 Glacier Flexible Retrieval finden Sie unter Wiederherstellung eines archivierten Objekts im S3-Benutzerhandbuch.
Bei mit der Speicherklasse S3 Glacier bereitgestellten Kapazitätseinheiten können Sie eine feste Vorausgebühr für einen bestimmten Monat zahlen, um die Verfügbarkeit von Abrufkapazitäten für beschleunigte Abrufe aus S3 Glacier Flexible Retrieval zu gewährleisten. Sie können zwei bereitgestellte Kapazitätseinheiten pro Monat erwerben, um die Datenmenge, die Sie abrufen können, zu erhöhen. Jede Kapazitätseinheit gewährleistet, dass alle fünf Minuten mindestens drei Schnellabrufe durchgeführt werden können und bietet einen Abrufdurchsatz von bis zu 150 MB/s. Wenn Ihre Arbeitslast einen äußerst zuverlässigen und vorhersehbaren Zugriff auf eine Teilmenge Ihrer Daten innerhalb von Minuten erfordert, sollten Sie bereitgestellte Abrufkapazität erwerben. Ohne bereitgestellte Kapazität werden in Zeiten hoher Nachfrage möglicherweise keine beschleunigten Abrufe akzeptiert. Wenn Sie unter irgendwelchen Umständen Zugang zu beschleunigten Abrufen benötigen, empfehlen wir Ihnen den Kauf von bereitgestellter Abrufkapazität.
Sie können bereitgestellte Kapazität über die Amazon S3-Konsole, die REST-API für den Kauf bereitgestellter Kapazität, die AWS SDKs oder die AWS CLI erwerben. Eine bereitgestellte Kapazitätseinheit hat eine Laufzeit von einem Monat, als dessen Startdatums das Datum und die Uhrzeit des Kaufs zu verstehen ist. Die Einheit läuft am Verfallsdatum ab, das auf die Sekunde genau einen Monat nach dem Startdatum liegt. Informationen zu den Preisen für bereitgestellte Kapazität finden Sie unter Amazon S3 – Preise.
F: Wie werden die Speicherkosten für in S3 Glacier Flexible Retrieval archivierte Amazon-S3-Objekte berechnet?
Der für einen Monat in Rechnung gestellte Speicherplatz basiert auf der durchschnittlichen, im Laufe des Monats genutzten Speicherkapazität, die in sog. Gigabyte-Monaten (GB-Monaten) gemessen wird. Amazon S3 berechnet die Objektgröße als die Menge der von Ihnen gespeicherten Daten plus zusätzliche 32 KB S3 Glacier-Daten plus zusätzliche 8 KB Amazon-S3-Standard-Speicherklassen-Daten. S3 Glacier Flexible Retrieval benötigt zusätzlich 32 KB Daten pro Objekt für den Index und die Metadaten von S3 Glacier, damit Sie Ihre Daten identifizieren und abrufen können. Amazon S3 benötigt 8 KB zum Speichern und Verwalten des benutzerdefinierten Namens und der Metadaten für Objekte, die in S3 Glacier Flexible Retrieval archiviert werden. Damit können Sie eine Echtzeitliste aller Ihrer Amazon-S3-Objekte abrufen, einschließlich derjenigen, die unter Verwendung von S3 Glacier Flexible Retrieval, der Amazon S3 LIST API oder des S3-Inventory-Berichts gespeichert sind.
Wenn Sie beispielsweise 100 000 Objekte mit einer Größe von jeweils 1 GB archiviert haben, würde Ihr abrechenbarer Speicherplatz folgendermaßen aussehen:
1,000032 GB für jedes Objekt x 100 000 Objekte = 100 003,2 GB S3-Glacier-Speicher.
0,000008 GB für jedes Objekt x 100 000 Objekte = 0,8 GB S3-Standardspeicher.
Die Gebühren errechnen sich aus den aktuellen Tarifen für Ihre AWS-Region, die Sie auf der Seite mit der Preisübersicht für Amazon S3 finden. Weitere Beispiele für die Preisgestaltung von Amazon S3 finden Sie in den FAQs zur S3-Abrechnung oder Sie können den AWS-Preisrechner benutzen.
F: Gibt es für Amazon S3 Glacier Flexible Retrieval eine Mindestspeicherdauer und Mindestgebühren für die Speicherung von Objekten?
Objekte, die in S3 Glacier Flexible Retrieval archiviert werden, können mindestens 90 Tage lang gespeichert werden. Wenn ein Objekt vor Ablauf von 90 Tagen gelöscht, überschrieben oder überführt wird, fällt eine anteilige Gebühr in Höhe der Speichergebühr für die verbleibenden Tage an.
S3 Glacier Flexible Retrieval benötigt außerdem 40 KB zusätzliche Metadaten für jedes archivierte Objekt. Darin enthalten sind 32 KB Metadaten, die zum S3-Glacier-Flexible-Retrieval-Tarif berechnet werden, der für die Identifizierung und den Abruf Ihrer Daten erforderlich ist. Und zusätzliche 8 KB Daten zum S3-Standardtarif, die erforderlich sind, um den benutzerdefinierten Namen und die Metadaten für Objekte zu erhalten, die in S3 Glacier Flexible Retrieval archiviert werden. Damit können Sie jedoch eine Echtzeitliste all Ihrer S3-Objekte mit der S3 LIST-API oder dem S3 Inventory-Bericht abrufen. Informationen zu den Preisen von Amazon S3 Glacier finden Sie auf der Amazon-S3-Glacier-Flexible-Preisseite.
F: Was kostet das Abrufen von Daten aus Amazon S3 Glacier Flexible Retrieval?
Es gibt drei Möglichkeiten Daten von S3 Glacier Flexible Retrieval abzurufen: Schnell-, Standard- und Massenabrufe. Schnell- und Standardabrufe haben eine Abrufgebühr pro GB und eine jeweilige Anforderungsgebühr (d. h. Sie zahlen für Anforderungen, die für Ihr Amazon S3 Objekt gestellt wurden). Massenabrufe aus S3 Glacier Flexible Retrieval sind kostenlos. Detaillierte Preise für S3 Glacier nach AWS-Region finden Sie auf der Amazon-S3-Preisseite.
F: Bietet Amazon S3 kostengünstigere Speicherklassen zum Archivieren von Objekten?
Die Amazon-S3-Glacier-Speicherklassen wurden speziell für die Datenarchivierung entwickelt und bieten Ihnen die höchste Leistung, die größte Abrufflexibilität und den kostengünstigsten Archivspeicher in der Cloud. Sie können jetzt aus drei Archivspeicherklassen wählen, die für unterschiedliche Zugriffsmuster und Speicherdauer optimiert wurden. Für Archivdaten, auf die sofortiger Zugriff erforderlich ist, wie z. B. medizinische Bilder, Nachrichtenmedien-Komponenten oder Genomik-Daten, ist die Speicherklasse S3 Glacier Instant Retrieval die erste Wahl und bietet die kostengünstigste Speicherung mit Abrufen in Millisekunden. Für Archivdaten, auf die kein sofortiger Zugriff erforderlich ist, die aber die Flexibilität benötigen, große Datenmengen kostenlos abzurufen, wie z. B. Backup- oder Notfallwiederherstellungs-Anwendungsfälle, wählen Sie S3 Glacier Flexible Retrieval, mit Abrufen innerhalb von Minuten oder kostenlosen Massenabrufen innerhalb von 5–12 Stunden. Um bei Langzeit-Archivspeichern, wie z. B. Compliance-Archiven und der Aufbewahrung digitaler Medien, noch mehr sparen zu können, wählen Sie S3 Glacier Deep Archive, den kostengünstigsten Speicher in der Cloud mit Datenabruf innerhalb von 12 Stunden.
F: Welche Backend-Infrastruktur unterstützt die Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive?
Wir konzentrieren uns darauf, unseren Kunden Leistung, Beständigkeit, Verfügbarkeit und Sicherheit zu bieten. Diese Frage wird jedoch häufig von unseren Kunden gestellt. Wir verwenden eine Reihe von verschiedenen Technologien, die es uns ermöglichen, unseren Kunden diese Preise anzubieten. Unsere Services nutzen gängige Datenspeichertechnologien, die mithilfe von AWS entwickelter Software zu spezialisierten, kostenoptimierten Systemen zusammengefügt werden. Die S3-Glacier-Speicherklassen profitieren von unserer Fähigkeit, die Abfolge von Ein- und Ausgaben zu optimieren, um maximale Effizienz beim Zugriff auf den zugrunde liegenden Speicher zu erreichen.
Amazon S3 Glacier Deep Archive
F: Was ist die Amazon-S3-Glacier-Deep-Archive-Speicherklasse?
S3 Glacier Deep Archive ist eine Amazon-S3-Speicherklasse, die einen sicheren, beständigen Objektspeicher zur langfristigen Aufbewahrung von Daten bietet, auf die nur ein- oder zweimal im Jahr zugegriffen wird. Bereits ab 0,00099 USD pro GB und Monat (das ist weniger als ein Zehntelcent bzw. ca. 1 USD pro TB und Monat) bietet S3 Glacier Deep Archive den preiswertesten Speicherplatz in der Cloud. Dies ist wesentlich kostengünstiger, als Daten in On-Premises-Magnetbandbibliotheken oder ausgelagert zu archivieren.
F: Für welche Anwendungsfälle ist die S3-Glacier-Deep-Archive-Speicherklasse am besten geeignet?
S3 Glacier Deep Archive ist die ideale Speicherklasse, um die wichtigsten Datensätze Ihres Unternehmens offline zu schützen und um Daten langfristig aufzubewahren, wenn dies etwa in den Unternehmensrichtlinien oder Verträgen festgeschrieben oder gesetzlich erforderlich ist. Kunden sind von den Leistungen von S3 Glacier Deep Archive überzeugt. Der Service hat sich bewährt beim Schutz wichtigen geistigen Eigentums, von Finanz- und ärztlichen Unterlagen, Forschungsergebnissen, Rechtsunterlagen und Studien zur seismischen Erschließung sowie bei der langfristigen Datenspeicherung, darunter vor allem in stark regulierten Branchen wie den Finanzdienstleistungen, dem Gesundheitswesen, dem Öl- und Gassektor sowie dem öffentlichen Sektor. Außerdem wird diese Speicherklasse von anderen Branchen, etwa der Medien- und Unterhaltungsbranche geschätzt, die wichtiges geistiges Eigentum sicher aufbewahren möchten. Kunden, die S3 Glacier Deep Archive verwenden, brauchen lokal verwendete Magnetbänder und die ausgelagerte Archivierung dieser Bandarchive häufig gar nicht mehr oder zumindest in wesentlich geringerem Umfang.
F: Wie unterscheidet sich die Speicherklasse S3 Glacier Deep Archive von den Speicherklassen S3 Glacier Instant Retrieval und S3 Glacier Flexible Retrieval?
S3 Glacier Deep Archive erweitert unser Datenarchivierungsangebot und ermöglicht es Ihnen, die optimale Speicherklasse basierend auf den Speicher- und Abrufkosten und Abrufzeiten auszuwählen. Wählen Sie die Speicherklasse S3 Glacier Instant Retrieval, wenn Sie innerhalb von Millisekunden Zugriff auf kostengünstige Archivdaten benötigen. Für Archivdaten, auf die kein sofortiger Zugriff erforderlich ist, die aber die Flexibilität benötigen, große Datenmengen kostenlos abzurufen, wie z. B. Backup- oder Notfallwiederherstellungs-Anwendungsfälle, wählen Sie S3 Glacier Flexible Retrieval, mit Abrufen innerhalb von Minuten oder kostenlosen Massenabrufen innerhalb von 5–12 Stunden. S3 Glacier Deep Archive hingegen eignet sich für Daten, auf die Sie wahrscheinlich nicht zugreifen müssen, die aber trotzdem langfristig und sicher aufbewahrt werden müssen. S3 Glacier Deep Archive ist bis zu 75 % günstiger als S3 Glacier Flexible Retrieval und bietet mit der Standard-Abrufstufe einen Abruf innerhalb von 12 Stunden. Standardabrufe beginnen normalerweise innerhalb von 9 Stunden, wenn sie mit S3-Batch-Operationen initiiert werden. Mit der Option Massenabruf, bei der die Daten innerhalb von 48 Stunden verfügbar sind, können Sie die Abrufkosten noch weiter senken.
F: Was sind meine ersten Schritte mit S3 Glacier Deep Archive?
Die einfachste Methode, Daten in S3 Glacier Deep Archive zu speichern, ist, Daten direkt über die S3 API hochzuladen. Als Speicherklasse geben Sie einfach „S3 Glacier Deep Archive“ an. Dazu verwenden Sie die AWS-Managementkonsole, die S3 REST API, die AWS SDKs oder die AWS-Befehlszeilenschnittstelle.
Sie können als ersten Schritt mit S3 Glacier Deep Archive auch Richtlinien zur Datenmigration über S3 Lifecycle erstellen. Auf diese Weise legen Sie den Lebenszyklus des Objekts fest und reduzieren so die Speicherkosten. Diese Richtlinien können so festgelegt werden, dass Objekte basierend auf ihrem Alter nach S3 Glacier Deep Archive migriert werden. Sie können die Richtlinien für ein S3-Bucket oder für bestimmte Präfixe bestimmen. Lebenszyklusübergänge werden nach dem Upload-Preis von S3 Glacier Deep Archive abgerechnet.
S3 Glacier Deep Archive lässt sich jetzt in Tape Gateway integrieren, eine cloudbasierte virtuelle Bandbibliothek und ein Feature von AWS Storage Gateway. So können Sie Ihre virtuellen, bandgestützen, langfristigen Backups und Archive in S3 Glacier Deep Archive speichern und erhalten die günstigste Cloud-Speicheroption für diese Daten. Erstellen Sie zunächst mit AWS Storage Gateway Console oder der API ein virtuelles Band und legen Sie als Speicherziel für das Archiv entweder S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive fest. Wenn Ihre Backupanwendung das Band auswirft, wird es am ausgewählten Speicherziel archiviert.
F: Welche Empfehlung gibt es für die Migration von Daten aus einem bestehenden Bandarchiv nach S3 Glacier Deep Archive?
Es gibt verschiedene Möglichkeiten zur Migration von Daten aus bestehenden Bandarchiven nach S3 Glacier Deep Archive. Sie können beispielsweise die bestehenden Sicherungsanwendungen über AWS Tape Gateway und eine VTL-Schnittstelle (Virtual Tape Library) integrieren. Diese Schnittstelle präsentiert der Backupanwendung die virtuellen Bänder. Sie können dann direkt zur Datenspeicherung in Amazon S3, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive verwendet werden.
Sie können AWS Snowball auch verwenden, um Daten zu migrieren. Snowball beschleunigt das Verschieben von Datenmengen im Terabyte- oder Petabyte-Bereich in und aus AWS. Für den physischen Transport kommen sichere Speichergeräte zum Einsatz. Die Verwendung von Snowball hilft bei der Bewältigung von Herausforderungen, die beim Übertragen von großen Datenmengen auftreten können, darunter hohe Netzwerkkosten, lange Übertragungszeiten und Sicherheitsbedenken.
Außerdem können Sie auch mit AWS Direct Connect dedizierte Netzwerkverbindungen zwischen Ihrem Standort und AWS herstellen. Häufig können Sie mit Direct Connect Ihre Netzwerkkosten senken, den Bandbreitendurchsatz erhöhen und eine konsistentere Netzwerkverbindung bereitstellen, als dies bei einer internetbasierten Verbindung möglich wäre.
F: Wie werden in S3 Glacier Deep Archive gespeicherte Objekte abgerufen?
Sie können zum Abrufen von in S3 Glacier Deep Archive gespeicherten Daten über die Amazon S3 APIs oder die Amazon S3-Managementkonsole eine Wiederherstellungsanforderung auslösen. Bei der Wiederherstellung wird eine temporäre Kopie Ihrer Daten in der S3-Standardspeicherklasse erstellt. Die in S3 Glacier Deep Archive archivierten Daten bleiben dabei unverändert. Sie können die Anzahl der Tage angeben, für die die temporäre Kopie in S3 gespeichert werden soll. Über das Anwenden einer Amazon-S3-GET-Anforderung auf das archivierte Objekt können Sie anschließend auf Ihre temporäre Kopie in S3 zugreifen.
Beim Wiederherstellen eines archivierten Objekts können Sie im Kontingent-Element des Anforderungstexts eine der folgenden Optionen angeben: Standard ist die Standardstufe und ermöglicht Ihnen den Zugriff auf alle Ihre archivierten Objekte innerhalb von 12 Stunden, wobei Abrufe in der Regel innerhalb von 9 Stunden nach der Initiierung mithilfe von S3-Batch-Operationen beginnen. Mit der Massenabfrage können Sie große Datenmengen, sogar Petabytes an Daten, kostengünstig abrufen und in der Regel innerhalb von 48 Stunden abschließen.
F: Wie wird mir die Nutzung von S3 Glacier Deep Archive in Rechnung gestellt?
Die Speicherkosten für S3 Glacier Deep Archive hängen von der Menge der gespeicherten Daten (in GB), der Anzahl der PUT-/Lebenszyklusübergangsanforderungen, den Abrufen in GB und der Anzahl der Wiederherstellungsanforderungen ab. Das Preismodell ist ähnlich dem von S3 Glacier Flexible Retrieval. Informationen zu den Preisen von S3 Glacier Deep Archive finden Sie auf der Seite mit der Preisübersicht für Amazon S3.
F: Wie wird die Nutzung von S3 Glacier Deep Archive auf meiner AWS-Rechnung und im AWS-Kostenmanagement-Tool angezeigt?
Die Nutzung von S3 Glacier Deep Archive und die damit verbundenen Kosten werden auf Ihrer monatlichen AWS-Rechnung als Einzelposten und getrennt von Ihrer Nutzung und den Kosten von Amazon S3 angezeigt. Falls Sie jedoch das Tool AWS-Kostenmanagement verwenden, sind die Nutzung und die Kosten für S3 Glacier Deep Archive in den ausführlichen monatlichen Ausgabeberichten in der Nutzung und den Kosten für Amazon S3 enthalten und werden nicht als getrennter Einzelposten aufgeführt.
F: Gelten für S3 Glacier Deep Archive eine Mindestspeicherdauer und Mindestgebühren für den Objektspeicher?
Objekte, die in S3 Glacier Deep Archive archiviert werden, verfügen über einen Speicherplatz von mindestens 180 Tagen. Wenn ein Objekt vor Ablauf von 180 Tagen gelöscht, überschrieben oder überführt wird, fällt eine anteilige Gebühr in Höhe der Speichergebühr für die verbleibenden Tage an.
S3 Glacier Deep Archive benötigt außerdem 40 KB zusätzliche Metadaten für jedes archivierte Objekt. Darin enthalten sind 32 KB Metadaten, die zum S3-Glacier-Deep-Archive-Tarif berechnet werden, der für die Identifizierung und den Abruf Ihrer Daten erforderlich ist. Und zusätzliche 8 KB Daten zum S3-Standardtarif, die erforderlich sind, um den benutzerdefinierten Namen und die Metadaten für Objekte zu erhalten, die in S3 Glacier Deep Archive archiviert werden. Damit können Sie jedoch eine Echtzeitliste all Ihrer S3-Objekte mit der S3 LIST-API oder dem S3 Inventory-Bericht abrufen. Informationen zu den Preisen von S3 Glacier Deep Archivefinden Sie auf der Seite mit der Preisübersicht für Amazon S3.
F: Wie lässt sich S3 Glacier Deep Archive in andere AWS-Services integrieren?
S3 Glacier Deep Archive ist in das Feature von Amazon S3 integriert, einschließlich S3 Object Tagging, S3-Lifecycle-Richtlinien, S3 Object Lock und S3 Replication. Mit den S3-Features zur Speicherverwaltung können Sie mit einem einzigen Amazon S3-Bucket einen Mix aus Daten in S3 Glacier Deep Archive, S3 Standard, S3 Standard-IA, S3 One Zone-IA und S3 Glacier Flexible Retrieval speichern. Speicheradministratoren können Entscheidungen so basierend auf der Art der Daten und den Datenzugriffsmustern treffen. Kunden können mit den Lifecycle-Richtlinien von Amazon S3 Daten mit zunehmendem Alter automatisch in günstigere Speicherklassen migrieren oder sie mit den regionsübergreifenden oder regioninternen Replikationsrichtlinien von S3 in der gleichen oder einer anderen Region replizieren.
Der Service AWS Storage Gateway integriert Tape Gateway mit der Speicherklasse Amazon S3 Glacier Deep Archive und ermöglicht es Ihnen, virtuelle Bänder in der kostengünstigsten Speicherklasse von Amazon S3 zu speichern, wodurch die monatlichen Kosten für die Speicherung Ihrer Langzeitdaten in der Cloud um bis zu 75 % reduziert werden. Mit diesem Feature unterstützt Tape Gateway die Archivierung Ihrer neuen virtuellen Bänder direkt in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive und hilft Ihnen bei der Erfüllung Ihrer Backup-, Archivierungs- und Wiederherstellungsanforderungen. Mit Tape Gateway können Sie bandgestützte Backups in AWS verschieben, ohne Änderungen an Ihren bestehenden Backup-Workflows vorzunehmen. Tape Gateway unterstützt die meisten gängigen Backup-Anwendungen wie Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (unter Windows OS) und Microsoft Data Protection Manager.
S3 auf Outposts
F: Was ist Amazon S3 auf Outposts?
Amazon S3 on Outposts bietet Objekt-Speicherplatz in Ihrer On-Premises-Umgebung, wobei die S3-APIs und Funktionen verwendet werden, die Sie heute in AWS verwenden. AWS Outposts ist ein vollständig verwalteter Service, der die AWS-Infrastruktur, AWS-Services, APIs und Tools in praktisch jedem Rechenzentrum, jedem Co-Location-Bereich oder jeder On-Premises-Einrichtung erweitert. Mit S3 auf Outposts können Sie Kundendaten, die On-Premises generiert wurden, sicher verarbeiten und speichern, bevor sie in eine AWS Region verschoben werden, lokal auf Daten für Anwendungen zugreifen, die On-Premises ausgeführt werden, oder Daten auf Ihrem Outpost für Unternehmen an Standorten mit Anforderungen an die Datenresidenz oder in regulierten Branchen speichern. Um mehr über S3 on Outposts zu erfahren, besuchen Sie die Übersichtsseite.
Speicherverwaltung
S3 Object Tags | S3 Inventory | S3 Batch Operations | S3 CloudWatch Metrics | S3 Lifecycle Management
S3 Object Tags
F: Was sind S3 Object Tags?
Bei S3 Object Tags handelt es sich um Schlüssel-Wert-Paare für S3-Objekte, die jederzeit während der Lebensdauer des Objekts erstellt, aktualisiert oder gelöscht werden können. Damit können Sie Identity and Access Management (IAM)-Richtlinien erstellen, S3-Lifecycle-Richtlinien einrichten und Speichermetriken anpassen. Mit diesen Tags auf Objektebene können dann die Übergänge zwischen Speicherklassen verwaltet und Objekte im Hintergrund als abgelaufen markiert werden. Sie können Tags neuen Objekten hinzufügen, wenn Sie diese hochladen, oder Tags bereits vorhandenen Objekten hinzufügen. Jedem S3-Objekt können bis zu zehn Tags hinzugefügt werden. Für das Hinzufügen von Objekt-Tags können Sie entweder die AWS-Managementkonsole, die REST-API, die AWS-CLI oder die AWS-SDKs verwenden.
Weitere Informationen finden Sie im Benutzerhandbuch für S3 Object Tags.
F: Was spricht für die Verwendung von Objekt-Tags?
Bei Object Tags handelt es sich um ein Tool, mit dem Sie die Verwaltung Ihres S3-Speichers vereinfachen können. Da Sie die Möglichkeit haben, Tags jederzeit während der Lebensdauer Ihres Objekts erstellen, aktualisieren und löschen zu können, ist Ihr Speicher flexibel an die Anforderungen Ihres Unternehmens anpassbar. Mithilfe dieser Tags können Sie den Zugriff auf Objekte steuern, die mit bestimmten Schlüssel-Wert-Paaren getaggt wurden, damit vertrauliche Daten tatsächlich nur für eine ausgewählten Gruppe oder einen bestimmten Benutzer zugänglich sind. Objekt-Tags können außerdem verwendet werden, um Objekte zu kennzeichnen, die zu einem bestimmten Projekt oder einem bestimmten Geschäftsbereich gehören. Diese lassen sich sowohl in Verbindung mit S3-Lifecycle-Richtlinien verwenden, um Verschiebungen zu anderen Speicherklassen (S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive) zu verwalten, als auch mit S3 Replication für die selektive Replikation von Daten zwischen AWS-Regionen.
F: Wie kann ich Objekt-Tags für meine Objekte aktualisieren?
Object Tags können während der Lebensdauer Ihres S3-Objekts jederzeit über die AWS-Management-Konsole, die REST-API, AWS-CLI oder AWS-SDKs geändert werden. Beachten Sie bitte, dass alle Änderungen an Tags, die außerhalb der AWS Management-Konsole vorgenommen werden, für die gesamte Tag-Gruppe erfolgen. Wenn Sie einem bestimmten Objekt fünf Tags zugeordnet haben und einen sechsten Tag hinzufügen möchten, müssen Sie die ursprünglichen fünf Tags in diese Anforderung einschließen.
F: Welche Kosten fallen für Objekt-Tags an?
Die Preise für Object Tags richten sich nach der Menge der Tags und den Anfragekosten für das Hinzufügen von Tags. Die Anforderungen, die mit dem Hinzufügen und Aktualisieren von Object Tags verbunden sind, entsprechen den Preisen für vorhandene Anfragepreise. Weitere Informationen finden Sie auf der Seite mit der Preisübersicht für Amazon S3.
F: Welche ersten Schritte sind für Storage Class Analysis erforderlich?
Sie können über die AWS-Managementkonsole oder die PUT-Bucket-Analytics-API von S3 eine Storage-Class-Analysis-Richtlinie konfigurieren, um selten genutzten Speicher zu ermitteln, der in die S3-Standard-IA- oder S3-One-Zone-IA-Speicherklasse übertragen oder in der S3-Glacier-Speicherklasse archiviert werden kann. Auf der Registerkarte „Management“ in der S3-Konsole können Sie Storage Class Analysis, S3 Inventory und S3 CloudWatch Metrics verwalten.
S3 Inventory
F: Was ist S3 Inventory?
Der S3 Inventory-Bericht stellt eine Alternative mit Zeitplanung zur synchronen Listen-API von Amazon S3 dar. Sie können S3 Inventory so konfigurieren, dass es täglich oder wöchentlich für ein S3-Bucket oder ein Präfix eine Übersicht über Ihre Objekte und die zugehörigen Metadaten in Form einer CSV (Comma Separated Values), einer ORC (Optimized Row Columnar) oder einer Parquet-Datei zur Verfügung stellt. Mit S3 Inventory können Sie Geschäftsabläufe und Aufträge mit großem Datenumfang vereinfachen oder beschleunigen. Sie können S3 Inventory auch zur Verifizierung der Verschlüsselung und des Replikationsstatus Ihrer Objekte verwenden, um geschäftliche, Compliance- und behördliche Anforderungen zu erfüllen. Weitere Informationen finden Sie im Amazon S3 Inventory-Benutzerhandbuch.
F: Welche ersten Schritte sind für S3 Inventory erforderlich?
Mit der AWS-Managementkonsole oder der PUT Bucket Inventory Configuration-API können Sie einen täglichen oder wöchentlichen Bestandsbericht aller Objekte in Ihrem S3-Bucket oder einer Untergruppe der Objekte unter einem gemeinsam genutzten Präfix konfigurieren. Bei der Konfiguration können Sie ein Ziel-S3-Bucket für Ihren S3 Inventory-Bericht, das Ausgabeformat der Ausgabedatei (CSV, ORC oder Parquet) und spezielle Objektmetadaten angeben, die für Ihre Geschäftsanwendung erforderlich sind, z. B. Objektname, Größe, Datum der letzten Änderung, Speicherklasse, Versions-ID, Löschmarkierung, Flag für veraltete Version, Flag für mehrteiligen Upload, Replikationsstatus oder Verschlüsselungsstatus. Sie können S3 Inventory als direkte Eingabe für Ihre Anwendungs-Workflows oder Big-Data-Aufträge verwenden. Zusätzlich können Sie S3 Inventory mithilfe von Standard SQL-Sprache mit Amazon Athena, Amazon Redshift Spectrum und anderen Tools wie Presto, Hive und Spark abfragen.
Weitere Informationen finden Sie im Amazon-S3-Inventurbenutzerhandbuch.
F: Wie wird mir die Nutzung von S3 Inventory in Rechnung gestellt?
Sie finden Informationen zu den Preisen für S3 Inventory auf der Seite mit der Preisübersicht für Amazon S3. Wenn Sie die Verschlüsselung mit SSE-KMS konfigurieren, fallen KMS-Kosten für die Verschlüsselung an. Weitere Informationen finden Sie auf der Seite mit der Preisübersicht für KMS.
S3 Batch Operations
F: Was sind S3-Stapeloperationen?
S3 Batch Operations ist ein Feature, mit dem Sie die Ausführung eines einzelnen Vorgangs (wie das Kopieren eines Objekts oder das Ausführen einer AWS Lambda-Funktion) über viele Objekte hinweg automatisieren können. Mit S3 Batch Operations können Sie mit wenigen Klicks in der S3 Konsole oder einer einzigen API-Abfrage eine Änderung an Milliarden von Objekten vornehmen, ohne eigene Anwendungscode schreiben oder Rechencluster für Speicherverwaltungsanwendungen ausführen zu müssen. Mit S3 Batch Operations können Sie nicht nur Ihre Speicheroperationen über viele Objekte hinweg verwalten, sondern auch Wiederholungsversuche. S3 Batch Operations zeigen Ihnen außerdem den Fortschritt an, senden Benachrichtigungen, liefern einen Abschlussbericht und übermitteln Ereignisse an AWS CloudTrail für alle Operationen, die an Ihren Zielobjekten durchgeführt werden. S3 Batch Operations kann von der S3-Konsole aus oder über die AWS-Befehlszeilenschnittstelle und SDK verwendet werden.
Besuchen Sie die Seite S3 Batch-Operationen oder das Benutzerhandbuch, um mehr zu erfahren.
F: Was sind die ersten Schritte mit S3 Batch Operations?
Rufen Sie die Amazon S3-Konsole auf oder verwenden Sie die AWS CLI oder das SDK, um Ihren ersten Auftrag für S3 Batch Operations zu erstellen. Ein Auftrag für S3 Batch Operations besteht aus der Liste der zu verarbeitenden Objekte und der Art der auszuführenden Operation (die vollständige Liste der verfügbaren Operationen finden Sie hier). Wählen Sie zunächst einen S3 Inventory-Bericht aus oder erstellen Sie eine eigene, benutzerdefinierte Liste mit Objekten, die von S3 Batch Operations verarbeitet werden sollen. Ein S3 Inventory-Bericht ist eine Datei, in der alle in einem S3-Bucket oder Präfix gespeicherten Objekte aufgelistet sind. Als Nächstes treffen Sie eine Auswahl aus einer Reihe von S3-Operationen, für die S3 Batch Operations möglich sind: beispielsweise Ersetzen von Tag-Sätzen, Ändern von ACLs, Kopieren von Speicher von einem Bucket in einen anderen oder Starten einer Wiederherstellung von S3 Glacier Flexible Retrieval in die S3-Standard-Speicherklasse. Sie können dann Ihre Aufträge für S3 Batch Operations mit bestimmten Parametern wie Tag-Werten, ACL-Empfängern und einer Wiederherstellungsdauer anpassen. Um Ihre Speicheraktionen weiter anzupassen, können Sie Ihre eigene Lambda-Funktion schreiben und diesen Code durch S3 Batch Operations aufrufen.
Sobald Sie Ihre S3 Batch Operations Aufgabe erstellt haben, verarbeitet S3 Batch Operations Ihre Objektliste und sendet den Auftrag bei Bedarf in den Zustand „wartet auf Bestätigung". Nachdem Sie die Auftragsdetails bestätigt haben, beginnt S3 Batch Operations mit der Ausführung des von Ihnen angegebenen Vorgangs. Sie können den Fortschritt Ihres Auftrags programmatisch oder über die S3-Konsole anzeigen, Benachrichtigungen über den Abschluss erhalten und einen Abschlussbericht überprüfen, in dem die an Ihrem Speicher vorgenommenen Änderungen aufgeführt sind.
Wenn Sie daran interessiert sind, mehr über S3 Batch Operations zu erfahren, sehen Sie sich die Videos der Tutorials an und lesen Sie die Dokumentation.
F: Welche elektronischen Speicher-Services von AWS wurden hinsichtlich Finanzdienstleistungsregulierungen bewertet?
In der Finanzdienstleistungsbranche bietet die S3-Objektsperre eine zusätzliche Unterstützung für Broker, die Datensätze in einem nicht löschbaren und nicht überschreibbaren Format aufbewahren müssen, um die gesetzlichen Anforderungen der SEC-Regel 17a-4(f), der FINRA-Regel 4511 oder der CFTC-Verordnung 1.31 zu erfüllen. Sie können den Zeitrahmen für die Aufbewahrung von Datensätzen leicht so festlegen, dass die gesetzlich vorgeschriebenen Archive im Originalformat für die erforderliche Dauer aufbewahrt werden, und darüber hinaus Daten sperren, um sie für unbegrenzte Zeit aufzubewahren, bis die Sperrung entfernt wird.
F: Welche AWS-Dokumentation entspricht den Anforderungen von SEC 17a-4(f)(2)(i) und CFTC 1.31(c) bezüglich der Benachrichtigung meiner Regulierungsbehörde?
Benachrichtigen Sie Ihre Regulierungsbehörde oder die von Ihnen gewählte, mit der Prüfung beauftragte Behörde, dass Sie Amazon S3 für die elektronische Speicherung verwenden, und legen Sie eine Kopie der Cohasset-Beurteilung bei. AWS ist bezüglich dieser Anforderungen kein designierter Dritter (D3P). Wählen Sie einen D3P aus, und geben Sie diese Informationen in Ihrer Benachrichtigung der mit der Prüfung beauftragten Behörde an.
S3 CloudWatch-Metriken
F: Welche ersten Schritte sind für S3 CloudWatch Metrics erforderlich?
Sie können die AWS-Managementkonsole verwenden, um die Generierung von 1-minütigen CloudWatch-Anforderungsmetriken für Ihren S3-Bucket zu aktivieren oder Filter für die Metriken zu konfigurieren, indem Sie ein Präfix oder einen Objekt-Tag oder einen Zugangspunkt verwenden. Alternativ dazu haben Sie die Möglichkeit, die S3-PUT-Bucket-Metrics-API für die Aktivierung und Konfiguration der Veröffentlichung von S3-Speichermetriken aufzurufen. Speichermetriken sind bereits 15 Minuten nach ihrer Aktivierung in CloudWatch verfügbar. CloudWatch-Speichermetriken sind standardmäßig für alle Buckets aktiviert und werden einmal pro Tag gemeldet. Erfahren Sie mehr über CloudWatch-Metriken für Amazon S3.
F: Welche Alarme kann ich für meine Speichermetriken einstellen?
In CloudWatch können Sie Schwellenwerte für sämtliche Zähler, Timer oder Raten von Speichermetriken festlegen und bei einer Nichteinhaltung der Werte eine Aktion auslösen. Sie können beispielsweise einen Schwellenwert für den Prozentsatz von 4xx-Fehlermeldungen festlegen und einen DevOps-Techniker durch Auslösen eines CloudWatch-Alarms benachrichtigen, sobald mindestens drei Dateneinträge über dem Schwellenwert liegen.
F: Wie wird mir die Nutzung von S3-CloudWatch-Metriken in Rechnung gestellt?
Die Speichermetriken von CloudWatch werden kostenlos zur Verfügung gestellt. Die Metriken zu CloudWatch-Abfragen werden als benutzerdefinierte Metriken für Amazon CloudWatch berechnet. Allgemeine Informationen zu den Preisen von S3-CloudWatch-Metriken finden Sie auf der Seite mit der Preisübersicht für Amazon CloudWatch.
S3-Lebenszyklus-Management
F: Was ist S3-Lebenszyklus-Management?
Mit dem S3-Lebenszyklus-Management können Sie den Lebenszyklus Ihrer Objekte mittels einer vordefinierten Richtlinie festlegen und Ihre Speicherkosten reduzieren. Sie können eine Lebenszyklus-Übertragungsrichtlinie einrichten, um Objekte, die in der S3 Standard-Speicherklasse gespeichert sind, automatisch auf der Grundlage des Alters der Daten in die Speicherklassen S3 Standard-IA, S3 One Zone-IA und/oder S3 Glacier zu migrieren. Ebenso können Sie Richtlinine für das Ende von Lebenszyklen erstellen, sodass Objekte automatisch entfernt werden, wenn sie ein bestimmtes Alter erreicht haben. Sie können eine Richtlinie für die Ablauffrist mehrteiliger Uploads festlegen. Anhand dieser Richtlinie verfallen unvollständige mehrteilige Uploads basierend auf ihrem Alter.
Weitere Informationen finden Sie im S3 Lifecycle-Benutzerhandbuch.
F: Wie erstelle ich eine S3-Lebenszyklus-Managementrichtlinie?
Lebenszyklusrichtlinien lassen sich in der AWS-Management-Konsole, in der S3 REST-API, den AWS-SDKs oder der AWS Command Line Interface (CLI) erstellen und verwalten. Eine Spezifizierung der Richtlinie ist auf Präfix- oder auf Bucket-Ebene möglich.
F: Wie kann ich das Lebenszyklusmanagement von Amazon S3 nutzen, um meine Amazon-S3-Speicherkosten zu senken?
Mit Amazon-S3-Lifecycle-Richtlinien können Sie Ihre Objekte so konfigurieren, dass sie aus der S3-Standard-Speicherklasse in die Speicherklasse S3 Standard-IA oder S3 One Zone-IA migriert und/oder in den Speicherklassen S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive archiviert werden.
Sie können eine S3-Lifecycle-Richtlinie festlegen, um Objekte nach einer bestimmten Zeit zu löschen. Mithilfe dieser durch Richtlinien gesteuerten Automatisierung können Sie schnell und einfach Speicherkosten senken und Zeit sparen. In jeder Regel können Sie ein Präfix, einen Zeitraum, eine Übertragung in S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive und/oder einen Ablauftermin angeben. Sie können beispielsweise eine Regel definieren, durch die alle Objekte mit dem gemeinsamen Präfix „logs/“ 30 Tage nach der Erstellung in S3 Glacier Flexible Retrieval archiviert und 365 Tage nach der Erstellung gelöscht werden.
Sie können auch eine gesonderte Regel erstellen, gemäß der nur alle Objekte mit dem Präfix „backups/“ 90 Tage nach der Erstellung gelöscht werden. S3-Lebenszyklusrichtlinien gelten sowohl für vorhandene als auch für neue S3-Objekte. Sie ermöglichen Ihnen eine optimierte Speicherung und maximale Kosteneinsparung für alle derzeitigen und neuen Daten, die in S3 abgelegt werden, und zwar ohne zeitaufwendige manuelle Datenüberprüfungen und -migrationen.
Bei einer Lebenszyklusregel bestimmt das Präfixfeld die Objekte, die der Regel unterliegen. Um die Regel auf ein einzelnes Objekt anzuwenden, müssen Sie den Schlüsselnamen angeben. Wenn Sie die Regel auf einen ganzen Satz an Objekten anwenden möchten, muss ihr gemeinsames Präfix angegeben werden (z. B. „logs“). Sie können zum Archivieren Ihrer Objekte eine Überführungsaktion und zum Entfernen Ihrer Objekte eine Löschaktion nach Terminablauf angeben. Geben Sie beim Zeitraum das Erstellungsdatum (z. B. 31.01.2015) oder die Anzahl der Tage ab dem Erstellungsdatum (z. B. 30 Tage) an, nach denen Ihre Objekte archiviert oder entfernt werden sollen. Sie können mehrere Regeln für unterschiedliche Präfixe erstellen.
F: Wie viel kostet die Nutzung des S3-Lebenszyklus-Managements?
Mit der Erstellung und Anwendung von Lebenszyklusrichtlinien sind keine zusätzlichen Kosten verbunden. Kosten für die Übertragung fallen pro Objekt an, sobald das betreffende Objekt gemäß der Lebenszyklusregel die Voraussetzungen für die Übertragung erfüllt. Bitte besuchen Sie die Amazon-S3-Preisseite, wenn Sie mehr Informationen über die Kosten wünschen.
F: Warum sollte ich eine S3-Lebenszyklusrichtlinie verwenden, um unvollständige mehrteilige Uploads ablaufen zu lassen?
Die S3-Lebenszyklusrichtlinie für unvollständige mehrteilige Uploads ermöglicht es Ihnen, durch Begrenzung des Speicherzeitraums für nicht abgeschlossene mehrteilige Uploads Kosten zu sparen. Wenn Ihre Anwendung beispielsweise mehrere mehrteilige Objektteile hochlädt, diese aber nie einbindet, wird Ihnen der benötigte Speicher trotzdem in Rechnung gestellt. Diese Richtlinie kann Ihre S3-Rechnung senken, indem sie automatisch unvollständige mehrteilige Uploads entfernt und den zugehörigen Speicher nach einer festgelegten Anzahl von Tagen freigibt.
F: Kann ich Amazon-S3-Ereignisbenachrichtigungen einrichten, um Benachrichtigungen zu senden, wenn S3-Lifecycle-Übergänge oder abgelaufene Objekte auftreten?
Ja, Sie können Amazon-S3-Ereignisbenachrichtigungen einrichten, um sich benachrichtigen zu lassen, wenn S3-Lifecycle-Übergänge oder abgelaufene Objekte auftreten. Sie können zum Beispiel S3-Ereignisbenachrichtigungen an ein Amazon-SNS-Thema, eine Amazon-SQS-Warteschlange oder eine AWS-Lambda-Funktion senden, wenn S3 Lifecycle Objekte in eine andere S3-Speicherklasse verschiebt oder Objekte ablaufen.
Speicheranalysen und Einblicke
F: Welche Features zur Analyse meiner Speichernutzung auf Amazon S3 gibt es?
S3 Storage Lens stellt unternehmensweite Sichtbarkeit in die Objektspeichernutzung und Aktivitätentrends bereit und spricht umsetzbare Empfehlungen aus, um Kosten zu optimieren und bewährte Methoden des Datenschutzes anzuwenden. Mit S3 Storage Class Analysis können Sie Zugriffsmuster objektübergreifend überwachen. Dies hilft Ihnen zu entscheiden, wann Daten auf die richtige Speicherklasse übertragen werden sollen, um Kosten zu sparen. Anhand dieser Informationen können Sie eine S3 Lifecycle-Richtlinie konfigurieren, die die Datenübertragung veranlasst. Amazon S3 Inventory erstellt täglich oder wöchentlich einen Bericht über Ihre Objekte und die zugehörigen Metadaten für einen S3-Bucket oder ein Präfix. Dieser Bericht hilft Ihnen, geschäftliche, Compliance- und behördliche Anforderungen zu erfüllen, indem Sie die Verschlüsselung und den Replikationsstatus Ihrer Objekte verifizieren.
F: Was ist Amazon S3 Storage Lens?
Amazon S3 Storage Lens stellt unternehmensweite Sichtbarkeit in Objektspeichernutzung und Aktivitätentrends bereit sowie umsetzbare Empfehlungen, um die Kosten zu optimieren und bewährte Methoden des Datenschutzes anzuwenden. Storage Lens bietet ein interaktives Dashboard mit einer einzelnen Ansicht Ihrer Objektspeichernutzung und Aktivitäten über Dutzende bis Hunderte Konten in Ihrem Unternehmen hinweg. Die Drilldown-Funktionen erlaubt es Ihnen, auf mehreren Aggregationsebenen Einblicke in das Konto zu generieren. Dies umfasst Metriken wie Bytes, Objektanzahl und Anfragen sowie Metriken, die die Nutzung von S3-Features detailliert aufzeigen, z. B. die Anzahl verschlüsselter Objekte und die Anzahl von S3-Lifecycle-Regeln. S3 Storage Lens bietet auch kontextbezogene Empfehlungen, um Wege zu finden, wie Sie die Speicherkosten senken und bewährte Methoden für den Datenschutz über Dutzende oder Hunderte von Konten und Buckets hinweg anwenden können. Die kostenlosen Metriken von S3 Storage Lens sind für alle Amazon-S3-Benutzer standardmäßig aktiviert. Wenn Sie S3 Storage Lens optimal nutzen möchten, können Sie erweiterte Metriken und Empfehlungen aktivieren. Weitere Informationen finden Sie im Benutzerhandbuch für S3 Storage Lens.
F: Wie funktioniert S3 Storage Lens?
S3 Storage Lens aggregiert Ihre Speichernutzungs- und Aktivitätsmetriken auf täglicher Basis und visualisiert sie im interaktiven S3-Storage-Lens-Dashboard oder stellt sie als Metrik-Export im CSV- oder Parquet-Dateiformat zur Verfügung. Ein Standard-Dashboard wird automatisch für Sie auf Kontoebene erstellt, und Sie haben die Möglichkeit, zusätzliche benutzerdefinierte Dashboards zu erstellen. Die Dashboards von S3 Storage Lens können auf Ihre AWS-Organisation oder bestimmte Konten, Regionen, Buckets oder sogar auf Präfixebene zugeschnitten werden (verfügbar bei erweiterten S3-Storage-Lens-Metriken). Sie können S3-Storage-Lens-Gruppen auch verwenden, um Metriken mithilfe benutzerdefinierter Filter zu aggregieren, die auf Objektmetadaten wie Objekt-Tag, Größe und Alter basieren. Während der Konfiguration Ihres Dashboards können Sie die standardmäßige Auswahl an Metriken verwenden oder gegen einen Aufpreis ein Upgrade auf 35 zusätzliche Metriken und Aggregationen auf Präfixebene vornehmen. S3 Storage Lens bietet außerdem Empfehlungen im Kontext mit den Speichermetriken im Dashboard, sodass Sie Maßnahmen zur Speicheroptimierung auf Basis der Metriken ergreifen können.
F: Was sind die wichtigsten Fragen, die mit S3 Storage Lens-Metriken beantwortet werden können?
Das S3-Storage-Lens-Dashboard ist nach vier Haupttypen von Fragen organisiert, die über Ihren Speicher beantwortet werden können. Im Filter „Summary“ (Zusammenfassung) können übergeordnete Fragen zur allgemeinen Speichernutzung und zu Aktivitätstrends untersucht werden. Zum Beispiel: „Wie schnell steigert sich meine gesamte Byte- und Anfrageanzahl im Laufe der Zeit?“ Im Filter „Cost Optimization“ (Kostenoptimierung) können Sie Fragen nachgehen, die sich mit der Speicherkostenreduzierung befassen, wie etwa: „Kann ich Einsparungen erzielen, indem ich weniger veraltete Versionen nutze?“ Und in den Filtern „Data Protection“ (Datenschutz) und „Access Management“ (Zugriffsmanagement) können Sie Antworten zur Sicherung von Daten finden, indem Sie Fragen stellen wie: „Ist mein Speicher vor versehentlicher oder absichtlicher Löschung geschützt?“ Mit den Filtern „Performance“ (Leistung) und „Events“ (Ereignisse) können Sie prüfen, wie Sie die Workflow-Leistung verbessern können. Jede diese Fragen repräsentiert die erste Ebene einer Anfrage und führt wahrscheinlich zu einer Drilldown-Analyse.
F: Welche Metriken stehen in S3 Storage Lens zur Verfügung?
S3 Storage Lens umfasst über 60 Metriken, die in kostenlose Metriken und erweiterte Metriken (verfügbar gegen Aufpreis) unterteilt sind. Innerhalb der kostenlosen Metriken erhalten Sie Metriken zur Nutzungsanalyse (basierend auf einem täglichen Snapshot Ihrer Objekte), die in die Kategorien Kostenoptimierung, Datenschutz, Zugriffsmanagement, Leistung und Ereignisse unterteilt sind. Innerhalb der erweiterten Metriken erhalten Sie Metriken im Zusammenhang mit der Aktivität (wie Anzahl der Anfragen), detailliertere Kostenoptimierung (wie Anzahl der S3-Lifecycle-Regeln), zusätzlicher Datenschutz (wie Anzahl der S3-Replication-Regeln) und detaillierte Statuscodes (wie 403-Autorisierungsfehler). Zusätzlich stehen abgeleitete Metriken zur Verfügung, die durch Kombination der grundlegenden Metriken ermittelt werden. So wird beispielsweise die Metrik „Abrufrate“ berechnet, indem die „Anzahl der heruntergeladenen Bytes“ durch den „Gesamtspeicher“ geteilt wird. Eine vollständige Liste aller Metriken finden Sie in der Dokumentation zu S3 Storage Lens.
F: Welche Optionen zur Dashboard-Konfiguration gibt es?
Es wird ein Standard-Dashboard konfiguriert, das automatisch für Ihr gesamtes Konto bereitgestellt wird, und Sie haben die Möglichkeit, zusätzliche benutzerdefinierte Dashboards zu erstellen, die auf Ihre AWS-Organisation, bestimmte Regionen oder Buckets innerhalb eines Kontos skaliert werden können. Sie können mehrere benutzerdefinierte Dashboards einrichten, was nützlich sein kann, wenn Sie eine logische Trennung in Ihrer Speicheranalyse benötigen, wie z. B. die Segmentierung auf Buckets, um verschiedene interne Teams darzustellen. Standardmäßig erhält Ihr Dashboard die kostenlosen Metriken von S3 Storage Lens. Sie haben jedoch die Möglichkeit, ein Upgrade durchzuführen, um fortgeschrittene Metriken und Empfehlungen von S3 Storage Lens zu erhalten (gegen Gebühr). Die erweiterten Metriken von S3 Storage Lens haben sieben getrennte Optionen: erweiterte Kostenoptimierungsmetriken, erweiterte Datenschutzmetriken, detaillierte Statuscodemetriken, Präfix-Aggregation, CloudWatch-Publishing und Storage-Lens-Gruppenaggregation. Zusätzlich können Sie für jedes Dashboard den Export von Metriken aktivieren, mit zusätzlichen Optionen zum Festlegen des Ziel-Buckets und des Verschlüsselungstyps.
F: Wie viele historische Daten sind in S3 Storage Lens verfügbar?
Bei Metriken auf dem interaktiven Dashboard werden bei den kostenlosen Metriken von Storage Lens die historischen Daten 14 Tage aufbewahrt. Bei fortgeschrittenen Metriken von Storage Lens werden die historischen Daten 15 Monate aufbewahrt (gegen Gebühr). Beim optionalen Export von Metriken, können Sie die Aufbewahrungsdauer selbst festlegen. Dabei gelten die Standard-Speichergebühren für S3.
F: Wie wird mir S3 Storage Lens in Rechnung gestellt?
S3 Storage Lens bietet zwei Stufen von Metriken. Die kostenfreien Metriken sind standardmäßig aktiviert und stehen allen S3-Kunden ohne Zusatzkosten zur Verfügung. Einzelheiten zu den Preisen für fortgeschrittenen Metriken und Empfehlungen von S3 Storage Lens erhalten Sie auf der Seite mit der Preisübersicht für S3. Mit den kostenlosen Metriken von S3 Storage Lens erhalten Sie 28 Metriken auf Bucket-Ebene und können im Dashboard auf 14 Tage an historischen Daten zugreifen. Mit den erweiterten Metriken und Empfehlungen von S3 Storage Lens erhalten Sie 35 weitere Metriken, Aggregation auf Präfixebene, CloudWatch-Metriken-Support, benutzerdefinierte Filterung von Objekt-Metadaten mit S3 Storage Lens-Gruppen und Zugriff auf 15 Monate an historischen Daten im Dashboard.
F: Was ist der Unterschied zwischen S3 Storage Lens und S3 Inventory?
S3 Inventory stellt eine Liste Ihrer Objekte und der zugehörigen Metadaten für einen S3-Bucket oder ein gemeinsames Präfix zur Verfügung, mit der Sie eine Analyse Ihres Speichers auf Objektebene durchführen können. S3 Storage Lens bietet Metriken, die nach Organisation, Konto, Region, Speicherklasse, Bucket, Präfix und S3-Storage-Lens-Gruppenebenen aggregiert sein können, was eine verbesserte unternehmensweite Sichtbarkeit Ihres Speichers ermöglicht.
F: Was ist der Unterschied zwischen S3 Storage Lens und S3 Storage Class Analysis (SCA)?
S3 Storage Class Analysis liefert Empfehlungen für eine optimale Speicherklasse, indem Objektaltersgruppen auf der Grundlage von Zugriffsmustern auf Objektebene innerhalb eines einzelnen Buckets/Präfix/Tags für die letzten 30–90 Tage erstellt werden. S3 Storage Lens liefert täglich Empfehlungen auf Organisationsebene, wie die Kosteneffizienz verbessert und bewährte Methoden für den Datenschutz angewendet werden können, sowie zusätzliche granulare Empfehlungen nach Konto, Region, Speicherklasse, Bucket, S3-Storage-Lens-Gruppe oder Präfix (verfügbar mit erweiterten S3-Storage-Lens-Metriken). Sie können auch benutzerdefinierte Filter mit S3 Storage Lens-Gruppen verwenden, um Ihren Speicher basierend auf dem Objektalter zu visualisieren und Ihre Speicherarchivierungsstrategie zu optimieren.
Storage Class Analysis
F: Was versteht man unter „Storage Class Analysis“?
Mit Storage Class Analysis können Sie Speicherzugriffsmuster analysieren, um die optimale Speicherklasse für Ihren Speicher zu ermitteln. Dieses neue Feature von S3 erkennt automatisch Muster einer seltenen Nutzung und erleichtert so die Übertragung von Speicher auf S3 Standard-IA. Sie können eine Richtlinie für Storage Class Analysis konfigurieren, sodass entweder ein vollständiger Bucket, ein Präfix oder ein Object Tag überwacht wird. Sobald ein Muster eines seltenen Zugriffs festgestellt wird, können Sie ohne großen Aufwand auf Basis der Ergebnisse eine neue S3 Lebenszyklus-Altersrichtlinie erstellen. Zudem ermöglicht Storage Class Analysis tägliche grafische Darstellungen Ihrer Speichernutzung in der AWS-Managementkonsole. Sie können außerdem einen Exportbericht an einen S3-Bucket senden, um für die Analyse Business Intelligence-Tools Ihrer Wahl, wie beispielsweise Amazon QuickSight, zu nutzen.
Öffnen Sie das Benutzerhandbuch der S3 Storage Class Analysis, um mehr zu erfahren und loszulegen.
F: Wie oft wird Storage Class Analysis aktualisiert?
Storage Class Analysis wird täglich in der S3-Managementkonsole aktualisiert. Erste Empfehlungen für Speicherklassenübergänge werden jedoch nach 30 Tagen bereitgestellt.
Direkte Abfragen
F: Was ist die Funktion "Direkte Abfrage"?
Kunden können mit Amazon S3 erweiterte Abfragen zu gespeicherten Daten durchführen, ohne sie in eine separate Analytik-Plattform zu verschieben. Die direkte Datenabfrage in Amazon S3 erhöht die Leistung deutlich und senkt die Kosten für Analytik-Lösungen, die S3 als Data Lake nutzen. S3 bietet mehrere Abfrageoptionen vor Ort, darunter Amazon Athena und Amazon Redshift Spectrum, sodass Sie die Option auswählen können, die am besten zu Ihrem Anwendungsfall passt.
F: Wie frage ich meine Daten in Amazon S3 ab?
Es gibt mehrere Möglichkeiten, Ihre Daten in S3 abzufragen, aus denen Sie je nach Ihrem spezifischen Anwendungsfall wählen können. Verwenden Sie clientseitige Filterung, um ein Amazon-S3-Objekt auf Ihren AWS-Rechner herunterzuladen und den Inhalt mithilfe von Datenanalysebibliotheken in Ihrer Client-Anwendung zu filtern. Beispielsweise können Sie in einer Python-Anwendung, die Parquet-Objekte in Amazon S3 abfragt, die Amazon-S3-GET-API verwenden, um das Objekt herunterzuladen und den Inhalt mithilfe der „Pandas“-Bibliothek zu filtern. Verwenden Sie Amazon Athena, um mehrere S3-Objekte in einer einzigen Abfrage zu verarbeiten oder sogar Join-Vorgänge und Fensterfunktionen zur Abfrage Ihrer S3-Objekte zu verwenden. Verwenden Sie S3 Object Lambda, indem Sie S3-GET-Anfragen Ihren eigenen Code hinzufügen, um Daten zu filtern, wenn sie an eine Anwendung zurückgegeben werden. Sie sollten S3 Objekt Lambda verwenden, wenn Sie beim Filtern von Daten Transformationen hinzufügen möchten.
Lesen Sie den Blogbeitrag zum titleAWS-Speicher-Blogtitle, um mehr über diese Methoden zum Abfragen Ihrer Daten in Amazon S3 zu erfahren.
F: Was ist Amazon Athena?
Amazon Athena ist ein interaktiver Abfrageservice, der die Analyse von Daten in Amazon S3 mit Standard-SQL-Abfragen erleichtert. Athena ist Serverless, sodass keine Infrastruktur eingerichtet oder verwaltet werden muss und Sie sofort mit dem Analysieren von Daten beginnen können. Sie müssen nicht einmal Daten in Athena übertragen. Athena arbeitet direkt mit den in einer beliebigen S3-Speicherklasse gespeicherten Daten. Um zu beginnen, melden Sie sich einfach bei der Athena-Verwaltungskonsole an, definieren Ihr Schema und beginnen mit dem Abfragen. Amazon Athena verwendet Presto mit vollständigem Support für Standard-SQL und arbeitet mit einer Vielzahl von Standard-Datenformaten wie beispielsweise CSV, JSON, ORC, Apache Parquet und Avro zusammen. Während Athena ideal für schnelle Ad-hoc-Abfragen geeignet ist und in Amazon QuickSight integriert werden kann, um einfache Visualisierungen durchzuführen, kann es auch komplexe Analysen einschließlich großer Joins, Fensterfunktionen und Arrays erstellen.
F: Was ist Amazon Redshift Spectrum?
Amazon Redshift Spectrum ist ein Feature von Amazon Redshift, die es Ihnen ermöglicht, Abfragen für Exabyte an unstrukturierten Daten in Amazon S3 auszuführen, ohne dass Ladevorgänge oder ETL erforderlich sind. Wenn Sie eine Abfrage ausgeben, erreicht diese den Amazon Redshift-SQL-Endpunkt, der einen Abfrageplan generiert und optimiert. Amazon Redshift ermittelt, welche Daten lokal gespeichert sind und welche sich in Amazon S3 befinden, generiert einen Plan zum Minimieren der zu lesenden Amazon-S3-Datenmenge, fordert Amazon Redshift Spectrum-Arbeitsressourcen aus einem freigegebenen Ressourcenpool an, um Daten aus Amazon S3 zu lesen und zu verarbeiten.
Redshift Spectrum kann bei Bedarf auf Tausende von Instances skaliert werden, damit Abfragen unabhängig von der Datengröße schnell ausgeführt werden. Außerdem können Sie exakt die gleiche SQL für Amazon-S3-Daten wie für Ihre aktuellen Amazon-Redshift-Abfragen verwenden und eine Verbindung zum gleichen Amazon-Redshift-Endpunkt mithilfe der gleichen Business-Intelligence-Tools herstellen. Durch die Trennung von Speicher- und Rechenressourcen können Sie mit Redshift Spectrum beides unabhängig voneinander skalieren. Sie können so viele Amazon-Redshift-Cluster wie nötig einrichten, um Ihren Amazon-S3-Data-Lake abzufragen, und so hohe Verfügbarkeit und unbegrenzte Gleichzeitigkeit bereitstellen. Mit Redshift Spectrum haben Sie die Möglichkeit, Ihre Daten am von Ihnen bevorzugten Ort und im bevorzugten Format zu speichern, sodass sie Ihnen bei Bedarf für die Verarbeitung zur Verfügung stehen.
Replikation
F: Was ist Amazon S3 Replication?
Amazon S3 Replication ermöglicht das automatische, asynchrone Kopieren von Objekten in Amazon-S3-Buckets. Buckets, die für die Objektreplikation konfiguriert wurden, können im Besitz des gleichen AWS-Kontos oder eines anderen Kontos sein. Sie können neue Objekte, die in den Bucket geschrieben wurden, zu einem oder mehreren Ziel-Buckets zwischen unterschiedlichen AWS-Regionen (S3 Cross-Region Replication) oder in der gleichen AWS-Region (S3 Same-Region Replication) kopieren. Sie können auch vorhandene Bucket-Inhalte replizieren (S3 Batch Replication), einschließlich vorhandener Objekte, Objekte, deren Replikation zuvor fehlgeschlagen ist, und Objekte, die aus einer anderen Quelle repliziert wurden. Weitere Informationen finden Sie im S3-Replication-Benutzerhandbuch.
F: Was ist die Amazon S3 Cross-Region Replication (CRR – Regionsübergreifende Replikation)?
CRR ist ein Amazon S3-Feature, die Daten automatisch zwischen Buckets in unterschiedlichen AWS-Regionen repliziert. Mit CRR richten Sie die Replikation auf Bucket-Ebene, auf einer freigegebenen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags ein. Sie können CRR einsetzen, um in verschiedenen geografischen Regionen einen Datenzugriff mit geringerer Latenz bereitzustellen. CRR kann auch nützlich sein, um die Compliance-Anforderung zu erfüllen, dass Daten Hunderte von Kilometern entfernt gespeichert werden müssen. Sie können CRR verwenden, um den Kontobesitz für die replizierten Objekte zu ändern und Daten so vor versehentlicher Löschung zu schützen. Weitere Informationen erhalten Sie im S3-CRR-Benutzerhandbuch.
F: Was ist die regioninterne Replikation für Amazon S3 (SRR)?
SRR ist ein Amazon S3-Feature, die Daten automatisch zwischen Buckets in der gleichen AWS-Region repliziert. Mit SRR richten Sie die Replikation auf Bucket-Ebene, auf einer freigegebenen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags ein. Sie können SRR verwenden, eine oder mehrere Kopien Ihrer Daten in der gleichen AWS-Region anzufertigen. Mit SRR können Sie Anforderungen zur Datensouveränität und Compliance einhalten, indem Sie eine Kopie Ihrer Daten in einem getrennten AWS-Konto in derselben Region wie der originalen aufbewahren. Sie können SRR verwenden, um den Kontobesitz für die replizierten Objekte zu ändern und Daten so vor versehentlicher Löschung zu schützen. Sie können mit SRR leicht Protokolle aus verschiedenen S3-Buckets für die regioninterne Verarbeitung aggregieren oder die Live-Replikation zwischen Test- und Entwicklungsumgebungen konfigurieren. Weitere Informationen erhalten Sie im S3-SRR-Benutzerhandbuch.
F: Was ist Amazon S3 Batch Replication?
Amazon S3 Batch Replication synchronisiert vorhandene Objekte zwischen Buckets. Sie können S3 Batch Replication verwenden, um einen neu erstellten Bucket mit vorhandenen Objekten aufzufüllen, versuchen, Objekte, die zuvor nicht repliziert werden konnten, erneut zu replizieren, Daten zwischen Konten zu migrieren oder Ihrem Data Lake neue Buckets hinzuzufügen. Sie können mit nur wenigen Klicks in der S3-Konsole oder einer einzigen API-Anfrage mit S3 Batch Replication starten. Weitere Informationen finden Sie im Benutzerhandbuch zu S3 Batch Replication.
F: Wie aktiviere ich Amazon S3 Replication (regionsübergreifende und regioninterrne Replikation)?
Bei Amazon S3 Replication (CRR und SRR) richten Sie die Replikation auf S3-Bucket-Ebene, auf einer freigegebenen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags ein. Sie fügen eine Replikationskonfiguration auf Ihrem Quell-Bucket hinzu, indem Sie für die Replikation einen Ziel-Bucket in derselben oder einer anderen AWS-Region angeben.
Zur Aktivierung der Replikation können Sie die S3-Konsole, -API, die AWS CLI, AWS SDKs oder AWS CloudFormation verwenden. Versioning muss für Quell- und Ziel-Bucket aktiviert sein, um die Replikation aktivieren zu können. Weitere Informationen finden Sie unter Übersicht über die Einrichtung von S3 Replication in der Amazon-S3-Dokumentation.
F: Wie verwende ich S3 Batch Replication?
Sie müssen zunächst S3 Replication auf Bucket-Ebene aktivieren. Wie Sie das tun können, erfahren Sie in der vorherigen Frage. Sie können dann einen S3-Batch-Replikationsauftrag in der S3-Konsole initiieren, nachdem Sie eine neue Replikationskonfiguration erstellt oder ein Replikationsziel in einer Replikationsregel auf der Seite Replikationskonfiguration oder auf der Seite „Auftrag für S3-Batch-Operationen erstellen“ geändert haben. Alternativ können Sie einen S3-Batch-Replikationsauftrag über die AWS CLI oder SDKs initiieren. Weitere Informationen finden Sie unter S3 Replication in der Amazon-S3-Dokumentation.
F: Kann ich S3-Replikation mit S3-Lebenszyklusregeln verwenden?
Bei S3-Replikation erstellen Sie Replikationsregeln, um Kopien Ihrer Objekte in eine andere Speicherklasse in derselben oder einer anderen Region anzulegen. Lebenszyklusaktionen werden nicht repliziert und wenn dieselbe Lebenszykluskonfiguration sowohl für Quell- als auch Ziel-Bucketts angewandt werden soll, aktivieren Sie die bei beiden dieselbe Lebenszykluskonfiguration.
Beispiel: Sie können eine Lebenszyklusregel für den Ziel-Bucket konfigurieren, um Daten aus der S3 Standard-Speicherklasse in die Speicherklasse S3 Standard-IA oder S3 One Zone-IA zu migrieren oder sie in einer S3-Glacier-Speicherklasse zu archivieren.
Wenn Sie S3 Lifecycle für Ihren Ziel-Bucket konfiguriert haben, empfehlen wir, die Lebenszyklusregeln zu deaktivieren, während der Batch-Replikationsauftrag aktiv ist, um die Parität zwischen nicht aktuellen und aktuellen Versionen von Objekten im Quell- und Ziel-Bucket aufrechtzuerhalten.
Mehr Informationen zur Lebenszykluskonfiguration und Replikation finden Sie in der S3-Replication-Dokumentation.
F: Kann ich S3 Replication nutzen, um mehr als einen Ziel-Bucket zu replizieren?
Ja. Mit S3 Replication können Kunden ihre Daten in mehreren Ziel-Buckets derselben oder unterschiedlicher AWS-Regionen replizieren. Geben Sie bei der Einrichtung einfach den neuen Ziel-Bucket in Ihrer bestehenden Replikationskonfiguration an oder erstellen Sie eine neue Replikationskonfiguration mit mehreren Ziel-Buckets. Für jedes neue Ziel können Sie die Speicherklasse des Ziel-Buckets, den Verschlüsselungstyp, die Replikationsmetriken und -Benachrichtungen, die Replication Time Control (RTC) und weitere Einstellungen festlegen.
F: Kann ich S3 Replication verwenden, um eine bidirektionale Replikation zwischen S3-Buckets einzurichten?
Ja. Um eine bidirektionale Replikation einzurichten, erstellen Sie eine Replikationsregel von Bucket A zu Bucket B und richten eine weitere Replikationsregel von Bucket B zu Bucket A ein. Stellen Sie sicher, dass Sie die Synchronisierung von Replikatmodifikationen für beide Buckets A und B aktivieren, um Änderungen an Replikatmetadaten wie Zugriffskontrolllisten (ACLs), Objekttags oder Objektsperren auf den replizierten Objekten zu replizieren.
F: Kann ich Replikation mit mehreren AWS-Konten verwenden, um mich vor böswilligem oder versehentlichem Löschen zu schützen?
Ja, Sie können bei CRR und SRR die Replikation für mehrere AWS-Konten einrichten, um die replizierten Daten in einem anderen Konto in der Zielregion zu speichern. Sie können die Besitzüberschreibung in Ihrer Replikationskonfiguration verwenden, um einen unterschiedlichem Besitzstapel für Quelle und Ziel beizubehalten und den Besitz des Zielkontos am replizierten Speicher zu gewähren.
F: Werden meine Objekt-Tags repliziert, wenn ich die regionsübergreifende Replikation verwende?
Object Tags können mithilfe der regionsübergreifenden Replikation über mehrere AWS-Regionen hinweg repliziert werden. Für Kunden, bei denen die regionsübergreifende Replikation bereits aktiviert ist, sind neue Berechtigungen erforderlich, damit Tags repliziert werden können. Sie finden weitere Informationen zur Einrichtung der regionsübergreifenden Replikation unter Einrichtung der regionsübergreifenden Replikation in der Amazon-S3-Dokumentation.
F: Kann ich Löschmarkierungen von einem Bucket in einen anderen Bucket replizieren?
Ja, Sie können Löschmarkierungen von der Quelle zum Ziel replizieren, wenn Sie in Ihrer Replikationskonfiguration die Replikation von Löschmarkierungen aktiviert haben. Wenn Sie Löschmarkierungen replizieren, verhält sich Amazon S3 so, als ob das Objekt in beiden Buckets gelöscht wurde. Sie können die Replikation von Löschmarkierungen in einer neuen oder bestehenden Replikationsregel aktivieren. Sie können die Löschmarkierungs-Replikation auf den gesamten Bucket oder auf Amazon S3-Objekte anwenden, die ein bestimmtes Präfix haben, wobei die Replikationsregeln auf Präfixen basieren. Die Amazon S3-Replikation unterstützt die Löschmarkierungs-Replikation für Objekttag-basierte Replikationsregeln nicht. Weitere Informationen zum Aktivieren der Replikation von Löschmarkierungen finden Sie unter Replizieren von Löschmarkierungen von einem Bucket in einen anderen.
F: Kann ich Daten aus anderen AWS-Regionen nach China replizieren? Kann ein Kunde aus einem Bucket der Region China außerhalb der Regionen Chinas replizieren?
Nein, die Amazon S3 Replikation ist nicht verfügbar zwischen AWS-Regionen in China und AWS-Regionen außerhalb Chinas. Sie können nur innerhalb der Regionen Chinas replizieren.
F: Kann ich vorhandene Objekte replizieren?
Ja. Sie können Amazon S3 Batch Replication verwenden, um vorhandene Objekte zwischen Buckets zu replizieren. Weitere Informationen finden Sie im S3-Benutzerhandbuch.
F: Kann ich die Replikation erneut versuchen, wenn die Replikation eines Objekts zunächst fehlschlägt?
Ja. Sie können S3 Batch Replication verwenden, um Objekte erneut zu replizieren, bei denen die Replikation zunächst fehlgeschlagen ist. Weitere Informationen finden Sie im S3-Benutzerhandbuch.
F: Welche Verschlüsselungsarten werden von S3 Replication unterstützt?
S3 Replication unterstützt alle Verschlüsselungsarten, die S3 bietet. S3 bietet sowohl eine serverseitige Verschlüsselung als auch eine clientseitige Verschlüsselung an – erstere fordert S3 auf, die Objekte für Sie zu verschlüsseln, letztere dient dazu, dass Sie die Daten auf der Clientseite verschlüsseln, bevor Sie sie auf S3 hochladen. Für die serverseitige Verschlüsselung bietet S3 die serverseitige Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3), die serverseitige Verschlüsselung mit im AWS Key Management Service gespeicherten KMS-Schlüsseln (SSE-KMS) und die serverseitige Verschlüsselung mit vom Kunden bereitgestellten Schlüsseln (SSE-C). Weitere Einzelheiten zu diesen Verschlüsselungsarten und ihrer Funktionsweise finden Sie in der S3-Dokumentation zur Verwendung von Verschlüsselung.
F: Was sind die Preise für die kontoübergreifende Datenreplikation?
Mit S3 Replication können Sie eine kontoübergreifende Replikation konfigurieren, bei der die Quell- und Ziel-Buckets unterschiedlichen AWS-Konten gehören. Abgesehen von S3-Speicher und anwendbaren Abrufgebühren zahlen Kunden bei der Verwendung von S3 Replication für PUT-Anfragen zur Replikation und für den regionenübergreifenden Datentransfer OUT von S3 zu Ihrer Zielregion. Wenn Sie S3 Replication Time Control (S3 RTC) in Ihren Replikationsregeln aktiviert haben, sehen Sie andere Gebühren für die Datenübertragung OUT und die Replikations-PUT-Anforderung, die speziell für S3 RTC gelten. Bei der kontoübergreifenden Replikation zahlt das Ausgangskonto für den gesamten Datentransfer (S3 RTC und S3 CRR) und das Zielkonto für die Replikations-PUT-Anforderungen. Datenübertragungsgebühren fallen nur für S3 Cross Region Replication (S3 CRR) und S3 Replication Time Control (S3 RTC) an, für S3 Same Region Replication (S3 SRR) gibt es keine Datenübertragungsgebühren.
Wenn Sie S3 Batch Replication für die kontenübergreifende Replikation von Objekten verwenden, fallen zusätzlich zu den Replikations-PUT-Anforderungen und den Datentransfer-OUT-Gebühren die S3-Batch-Operations-Gebühren an (beachten Sie, dass S3 RTC nicht für Batch Replication gilt). Die Gebühren für Batchvorgäng umfassen die Gebühren für Aufträge und Objekte, die auf der Anzahl der Aufträge bzw. der Anzahl der verarbeiteten Objekte basieren. Wenn Sie sich für das von Amazon S3 generierte Manifest entscheiden, fällt außerdem eine Manifestgebühr an, die sich nach der Anzahl der Objekte im Quell-Bucket richtet.
Weitere Informationen zu den Preisen von S3 Replication finden Sie auf der Amazon-S3-Preisseite.
S3 Replication Time Control
F: Was ist Amazon S3 Replication Time Control?
Amazon S3 Replication Time Control bietet eine vorhersehbare Replikationsleistung und hilft Ihnen, Compliance- oder Geschäftsanforderungen zu erfüllen. S3 Replication Time Control ist darauf ausgelegt, die meisten Objekte in Sekunden und 99,99 % aller Objekte in 15 Minuten zu replizieren. S3 Replication Time Control wird durch eineService-Level-Agreement-Verpflichtung (SLA) gestützt, dass 99,9 % aller Objekte in 15 Minuten für jedes Replikations-Regionspaar in einem Rechnungsmonat repliziert werden. Die Replikationszeit funktioniert mit allen S3-Replikationsfunktionen. Weitere Informationen finden Sie in der Replikations-Dokumentation.
F: Wie aktiviere ich Amazon S3 Replication Time Control?
Amazon S3 Replication Time Control ist als Option für jede Replikationsregel aktiviert. Sie können eine neue S3-Replikationsrichtlinie mit S3 Replication Time Control erstellen oder das Feature für eine bestehende Richtlinie aktivieren. Zur Konfiguration der Replikation können Sie entweder die S3-Konsole, API, AWS CLI, AWS SDKs oder AWS CloudFormation verwenden. Weitere Informationen finden Sie unter Einrichtung von Replication im Amazon-S3-Entwicklerhandbuch.
F: Kann ich S3 Replication Time Control verwenden, um Daten innerhalb und zwischen China-Regionen zu replizieren?
Ja, Sie können die Amazon S3 Replication Time Control aktivieren, um Daten innerhalb und zwischen den AWS-Regionen China (Ningxia) und China (Peking) zu replizieren.
F: Was sind Amazon-S3-Replication-Metriken und -Ereignisse?
Amazon S3 Replication bietet vier detaillierte Metriken in der Amazon-S3-Konsole und in Amazon CloudWatch: ausstehende Operationen, ausstehende Bytes, Replikationslatenz und fehlgeschlagene Replikation von Vorgängen. Sie können diese Metriken verwenden, um die Gesamtzahl der Operationen und die Größe der Objekte, deren Replikation noch aussteht, die Replikationslatenz zwischen Quell- und Ziel-Buckets und die Anzahl der Vorgänge, die nicht erfolgreich repliziert wurden, für jede Replikationsregel zu überwachen. Darüber hinaus können Sie Amazon-S3-Ereignisbenachrichtigungen vom Typ s3:Replikation einrichten, um weitere Informationen über Objekte zu erhalten, die nicht repliziert werden konnten, und über den Grund für die Fehler. Wir empfehlen, die Gründe für Amazon-S3-Replication-Fehler zu verwenden, um die Fehler schnell zu diagnostizieren und zu beheben, bevor die ausgefallenen Objekte erneut mit S3 Batch Replication repliziert werden. Wenn Sie die Begrenzung der S3-Replikationszeit (S3 RTC) aktiviert haben, erhalten Sie auch Benachrichtigungen, wenn die Replikation eines Objekts länger als 15 Minuten dauert und wenn das Objekt erfolgreich an sein Ziel repliziert wird.
F: Wie aktiviere ich Metriken und Ereignisse für Amazon S3 Replication?
Metriken und Ereignisse für Amazon S3 Replication können für neue oder vorhandene Replikationsregeln aktiviert werden und sind standardmäßig für Regeln aktiviert, bei denen die S3 Replication Time Control aktiviert ist. Sie können auf S3-Replication-Metriken über die Amazon-S3-Konsole und Amazon CloudWatch zugreifen. Wie andere Amazon-S3-Ereignisse sind S3-Replikationsereignisse über Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) oder AWS Lambda verfügbar. Weitere Informationen finden Sie unter Fortschrittsüberwachung mit Replikationsmetriken und Amazon-S3-Ereignisbenachrichtigungen im Amazon-S3-Entwicklerhandbuch.
F. Welche Informationen zeigt die Metrik zur fehlgeschlagenen Replikation von Vorgängen?
Die Metrik für fehlgeschlagene Replikationen zeigt die Gesamtzahl der fehlgeschlagenen Replikationen pro Minute für eine bestimmte Replikationsregel an. Die Metrik wird jede Minute aktualisiert und gibt +1 für jeden fehlgeschlagenen Vorgang aus, 0 für erfolgreiche Operationen und nichts, wenn für die Minute keine Replikationsvorgänge ausgeführt wurden. Diese Metrik wird jedes Mal ausgegeben, wenn ein Vorgang nicht erfolgreich repliziert wird.
F: Kann ich die Metriken und Ereignisse von Amazon S3 Replication verwenden, um die S3-Batch-Replikation zu verfolgen?
Sie können Metriken wie ausstehende Bytes, ausstehende Operationen und Replikationslatenz nicht verwenden, um den Fortschritt der S3-Batch-Replikation zu verfolgen. Sie können jedoch die Metrik „Operationen sind bei der Replikation fehlgeschlagen“ verwenden, um vorhandene Objekte zu überwachen, die mit der S3-Batch-Replikation nicht erfolgreich repliziert wurden. Darüber hinaus können Sie Abschlussberichte für S3-Batch-Operationen verwenden, um den Überblick über Objekte zu behalten, die mit S3 Batch Replication repliziert werden.
F. Wo werden die Amazon-S3-Replication-Metriken veröffentlicht?
Die Metriken für ausstehende Bytes, ausstehende Operationen und Replikationslatenz werden im AWS-Quellkonto und der AWS-Zielregion veröffentlicht. Die Metrik für die fehlgeschlagene Replikation des Vorgangs wird jedoch im AWS-Quellkonto und der AWS-Quellregion veröffentlicht, nicht in der AWS-Zielregion. Dafür gibt es zwei Hauptgründe. Erstens: Wenn die Replikationsmetrik für fehlgeschlagene Vorgänge in der Zielregion veröffentlicht wird, sieht der Kunde die Metrik nicht, wenn der Ziel-Bucket fehlerhaft konfiguriert ist. Wenn der Kunde beispielsweise den Namen des Ziel-Buckets in der Replikationskonfiguration falsch eingegeben hat und die Replikation nicht erfolgreich ist, weil der Ziel-Bucket nicht gefunden wurde, kann der Kunde keinen Wert für diese Metrik sehen, da die Zielregion unbekannt ist, wenn der Ziel-Bucket nicht gefunden wird. Zweitens: Wenn der Kunde in eine Opt-In-Zielregion wie Hongkong oder Bahrain repliziert, sieht der Kunde bei Replikationsfehlern keine Metrik, wenn das Quellkonto sich nicht für die Zielregion angemeldet hat.
F: Was ist das Service Level Agreement (SLA) für Amazon S3 Replication Time Control?
Amazon S3 Replication Time Control ist darauf ausgelegt, 99,99 % Ihrer Objekte in 15 Minuten zu replizieren und wird durch ein Service Level Agreement gestützt. Wenn bei jedem Replikations-Regionspaar in einem monatlichen Rechnungszyklus weniger als 99,9 % Ihrer Objekte in 15 Minuten repliziert werden, bietet das S3 RTC SLA eine Servicegutschrift für jedes Objekt, bei dem zur Replikation mehr als 15 Minuten benötigt wurden. Die Service-Gutschrift deckt einen Prozentsatz aller replikationsbezogenen Gebühren zu den Objekten ab, die das SLA nicht erfüllt haben, darunter die RTC-Gebühr, Replikationsbandbreiten- und -Anfragegebühren sowie die Kosten zum Speichern der Kopie in der Ziel-Region im betroffenen monatlichen Rechnungszyklus. Mehr erfahren Sie im S3 Replication Time Control SLA.
F: Wie sind die Preise für S3 Replication und S3 Replication Time Control gestaltet?
Für S3 Replication (Cross-Region Replication und Same Region Replication) bezahlen Sie die S3-Gebühren für die Speicherung in der gewünschten S3-Zielspeicherklasse, die Speicherkosten für die primäre Kopie, für Replikation-PUT-Anforderungen sowie ggf. Abrufgebühren für seltenen Zugriff. Bei CRR bezahlen Sie auch für die regionsübergreifende Übertragung ausgehender Daten aus S3 in Ihre Zielregion. S3 Replication-Metriken werden zum selben Preis abgerechnet wie benutzerdefinierte Amazon CloudWatch-Metriken. Wenn Sie S3 Replication Time Control verwenden, zahlen Sie außerdem eine Gebühr für die Datenübertragung mit Replication Time Control. Weitere Informationen zu den Preisen finden Sie auf der Amazon S3-Preisseite.
Wenn das Quellobjekt mit dem Feature für den mehrteiligen Upload hochgeladen wird, erfolgt die Reduzierung mit derselben Anzahl von Teilen und Teilgrößen. Beispiel: Ein Objekt mit 100 GB, das mithilfe dem Feature für mehrteiligen Upload (800 Teile mit jeweils 128 MB) hochgeladen wird, veranlasst bei der Replikation Anfragekosten für 802 Anfragen (800 Anfragen zum Hochladen für Teile plus 1 zur Einleitung eines mehrteiligen Uploads plus 1 Anfrage zur Beendigung des mehrteiligen Uploads). Dabei entstehen Anfragekosten von 0,00401 USD (802 Anfragen x 0,005 USD pro 1 000 Anfragen) und (wenn die Replikation zwischen unterschiedlichen AWS-Regionen erfolgt ist) eine Gebühr von 2,00 USD (0,020 USD pro übertragenem Gigabyte x 100 GB) für die Datenübertragung zwischen Regionen. Nach der Platzierung werden für die 100 GB Speicherkosten basierend auf der Zielregion anfallen.
F. Wie werden mir die S3-Replikationsmetriken auf Amazon CloudWatch in Rechnung gestellt?
Alle Metriken der S3-Replikation, einschließlich ausstehender Bytes, ausstehender Operationen, Replikationslatenz und fehlgeschlagener Replikationen, werden zum gleichen Tarif wie die benutzerdefinierten Metriken von Amazon CloudWatch abgerechnet: 0,30 USD pro Metrik pro Monat für die ersten 10 000 Metriken, 0,10 USD pro Metrik pro Monat für die nächsten 240 000 Metriken, 0,05 USD pro Metrik pro Monat für die nächsten 750 000 Metriken und 0,02 USD pro Metrik pro Monat für mehr als 1 Million Metriken.
Verfügt Ihr S3-Bucket beispielsweise über 100 Replikationsregeln, für die jeweils Replikationsmetriken aktiviert sind, werden Ihnen monatlich Amazon-CloudWatch-Gebühren für 400 Replikationsmetriken berechnet (100 Replikationsregeln x 4 Metriken pro Replikationsregel). Die anteilige monatliche Gebühr für diese 400 Metriken beträgt 120 USD (400 Replikationsmetriken x 0,30 USD pro Metrik (für die ersten 10 000 Metriken)). Informationen zu Kosten von Amazon CloudWatch finden Sie auf der Seite mit Preisinformationen zu Amazon CloudWatch.
S3 Access Points für mehrere Regionen
Was sind S3 Access Points für mehrere Regionen?
Amazon S3 Access Points für mehrere Regionen beschleunigen die Leistung um bis zu 60 % beim Zugriff auf Datensätze, die über mehrere AWS-Regionen repliziert sind. Die auf AWS Global Accelerator basierenden S3-Zugriffspunkte für mehrere Regionen berücksichtigen Faktoren wie Netzwerküberlastung und den Standort der anfordernden Anwendung, um Ihre Anforderungen dynamisch über das AWS-Netzwerk an die Kopie Ihrer Daten mit der geringsten Latenz zu leiten. Dieses automatische Routing ermöglicht es Ihnen, die Vorteile der globalen Infrastruktur von AWS zu nutzen und gleichzeitig eine einfache Anwendungsarchitektur beizubehalten.
F: Warum sollte ich S3-Zugriffspunkte für mehrere Regionen verwenden?
S3 Multi-Region Access Points beschleunigen und vereinfachen die Speicherung für Ihre Multi-Region-Anwendungen. Durch das dynamische Routing von S3-Anforderungen an einen replizierten Datensatz verkürzen S3-Zugriffspunkte für mehrere Region die Latenz, wodurch Anwendungen bis zu 60 % schneller ausgeführt werden. S3-Zugriffspunkte für mehrere Regionen können Ihnen auch dabei helfen, robuste, regionenübergreifende und kontoübergreifende Anwendungen zu entwickeln, die besser vor versehentlichem oder unbefugtem Löschen von Daten geschützt sind. Mit S3-Zugriffspunkten für mehrere Regionen können Sie die Vorteile der globalen Infrastruktur von AWS nutzen und gleichzeitig eine einfache regionsunabhängige Architektur ihrer Anwendungen beibehalten.
F: Wie funktionieren S3-Zugriffspunkte für mehrere Regionen?
Zugriffspunkte für mehrere Regionen leiten Kundenanforderungen dynamisch an einen oder mehrere zugrunde liegende(n) S3-Bucket(s). Sie können Ihren Multi-Region-Zugriffspunkt so konfigurieren, dass er über einen Bucket pro AWS-Region in bis zu 17 AWS-Regionen leitet. Wenn Sie einen Multi-Region-Zugriffspunkt erstellen, generiert S3 automatisch einen DNS-kompatiblen Namen. Dieser Name wird als ein globaler Endpunkt verwendet, den Ihre Kunden verwenden können. Wenn Ihre Kunden Anforderungen an diesen Endpunkt richten, wird S3 diese Anforderungen dynamisch an einen der zugrunde liegenden Buckets weiterleiten, die in der Konfiguration Ihres Zugriffspunkts für mehrere Regionen angegeben sind. Internet-basierte Anforderungen werden in das globale AWS-Netzwerk aufgenommen, um überlastete Netzwerksegmente im Internet zu vermeiden, was Netzwerklatenz und Jitter verringern und die Leistung verbessern wird. Basierend auf AWS Global Accelerator können Anwendungen, die auf S3 über das Internet zugreifen, eine um bis zu 60 % verbesserte Leistung durch S3 Access Points für mehrere Regionen feststellen.
Zur direkten Kontrolle dieser Weiterleitung können Sie S3-Zugriffspunkte für mehrere Regionen in einer Aktiv-Aktiv- oder Aktiv-Passiv-Konfiguration bedienen. In einer Aktiv-Passiv-Konfiguration können Sie die Failover-Kontrollen von S3 Access Points für mehrere Regionen verwenden und einen Failover einleiten, um den Datenverkehr von S3-Anforderungen an die ausgewählte alternative AWS-Region und das Konto binnen Minuten weiterzuleiten.
In einer Aktiv-Aktiv-Konfiguration berücksichtigen S3-Zugriffspunkte für mehrere Regionen Faktoren wie Netzwerküberlastung und den Standort der anfordernden Anwendung, um Ihre Anfragen dynamisch über das AWS-Netzwerk an die am nächsten liegende Kopie Ihrer Daten zu leiten. Die S3-Zugriffspunkte für mehrere Regionen leiten Ihre Anforderungen durch den am nächsten liegenden AWS-Standort an Ihren Client und dann über das globale private AWS-Netzwerk an S3 weiter.
In beiden Konfigurationen ermöglichen S3 Access Points für mehrere Regionen Ihnen, die globale Infrastruktur von AWS zu nutzen und gleichzeitig eine einfache Anwendungsarchitektur beizubehalten.
F: Wie funktionieren Failover-Kontrollen für S3 Access Points für mehrere Regionen?
Standardmäßig leiten S3 Access Points für mehrere Regionen Anforderungen an den zugrunde liegenden Bucket, der dem Kunden basierend auf Netzwerklatenz in einer Aktiv-Aktiv-Konfiguration am nächsten ist. Sie können beispielsweise einen Zugriffspunkt für mehrere Regionen mit zugrundeliegenden Buckets in USA-Ost (Nord-Virginia) und Asien-Pazifik (Mumbai) konfigurieren. Bei dieser Konfiguration werden Ihre Kunden in Nordamerika an USA-Ost (Nord-Virginia) weitergeleitet und Ihre Kunden in Asien an Asien-Pazifik (Mumbai) . Dadurch wird die Latenz für Ihre an S3 getätigten Anforderungen gesenkt und die Leistung Ihrer Anwendung verbessert. Wenn Sie eine Aktiv-Passiv-Konfiguration bevorzugen, kann der gesamte Datenverkehr von S3-Anforderungen über den S3 Access Points für mehrere Regionen an USA-Ost (Nord-Virginia) als die aktive Region geleitet werden und es wird kein Verkehr an Asien-Pazifik (Mumbai) weitergeleitet. Falles es ein geplantes oder ungeplantes Bedürfnis gibt, einen Failover beim gesamten S3-Datenverkehr der Anforderungen durchzuführen, können Sie einen Failover einleiten, um zu Asien-Pazifik (Mumbai) als neue aktive Region binnen Minuten zu wechseln. Bestehende Uploads oder Downloads, die in USA-Ost (Nord-Virginia) ausgeführt werden, werden bis zum Abschluss fortgeführt und der neue Datenverkehr für S3-Anforderungen über dem Zugriffspunkt für mehrere Regionen wird an Asien-Pazifik (Mumbai) weitergeleitet.
F: Können S3-Zugriffspunkte für mehrere Regionen mit Buckets arbeiten, die verschiedenen AWS-Konten gehören?
Ja, Sie können einem neuen S3-Zugriffspunkt für mehrere Regionen Buckets in mehreren AWS-Konten hinzufügen, indem Sie die Konto-IDs eingeben, denen die Buckets zum Zeitpunkt der Erstellung gehören. Wenn die Buckets nicht bereits für die kontoübergreifende Replikation konfiguriert sind, können Sie dann die regionsübergreifenden S3-Replikationsregeln konfigurieren, um den Inhalt der Buckets zwischen AWS-Konten und -Regionen zu synchronisieren. Ihre Anwendungen können dann Daten über den globalen Endpunkt des Zugriffspunkts für mehrere Regionen für alle AWS-Konten und -Regionen anfordern oder schreiben.
F: Wie funktionieren die Einstellungen „Öffentlichen Zugriff blockieren“ für Zugriffspunkte für mehrere Regionen, die sich über mehrere AWS-Konten erstrecken?
Jeder S3-Zugriffspunkt für mehrere Regionen hat unterschiedliche Einstellungen für die Sperrung des öffentlichen S3-Zugriffs. Diese Einstellungen funktionieren in Verbindung mit den Einstellungen „Öffentlichen Zugriff blockieren“ für die Buckets, die dem Zugriffspunkt für mehrere Regionen zugrunde liegen, den Einstellungen „Öffentlichen Zugriff blockieren“ für die AWS-Konten, denen der Multi-Region-Zugriffspunkt gehört, und den Einstellungen „Öffentlichen Zugriff blockieren“ für die AWS-Konten, die die zugrunde liegenden Buckets besitzen.
Wenn Amazon S3 eine Anfrage autorisiert, wendet es die restriktivste Kombination dieser Einstellungen an. Wenn die Einstellungen „Öffentlichen Zugriff blockieren“ für eine dieser Ressourcen (den Zugriffspunkt für mehrere Regionen, den zugrunde liegenden Bucket, das Besitzerkonto des Zugriffspunkts für mehrere Regionen oder das Bucket-Besitzerkonto) den Zugriff auf die angeforderte Aktion oder Ressource blockieren, lehnt Amazon S3 die Anfrage ab.
Dieses Verhalten entspricht kontoübergreifenden S3-Zugriffspunkten. Dieselbe Autorisierungslogik wird bei der Bearbeitung von Anfragen für kontoübergreifende S3-Zugriffspunkte und kontoübergreifende S3-Punkte für mehrere Regionen angewendet.
F: Was ist der Unterschied zwischen regionenübergreifender S3-Replikation (S3 CRR) und den S3-Zugriffspunkten für mehrere Regionen?
S3 CRR und S3 Access Points für mehrere Regionen sind ergänzende Features, die gemeinsam Daten in AWS-Regionen replizieren und dann automatisch Anforderungen an die replizierte Kopie mit der niedrigsten Latenz weiterleiten. Die S3 Access Points für mehrere Regionen helfen Ihnen bei der Verwaltung von Anforderungen in AWS-Regionen. Gleichzeitig ermöglicht CRR es Ihnen, Daten in allen AWS-Regionen zu verschieben, um isolierte Replikate zu erstellen. Sie verwenden S3 Access Points für mehrere Regionen und CRR zusammen, um einen replizierten Datensatz für mehrere Regionen zu erstellen, der von einem einzigen globalen Endpunkt aus aufgerufen werden kann.
F: Wie viel kosten S3 Access Points für mehrere Regionen?
Wenn Sie einen S3 Multi-Region Access Point verwenden, um Anforderungen innerhalb von AWS weiterzuleiten, zahlen Sie geringe Kosten pro GB für die Datenweiterleitung für jedes verarbeitete Gigabyte (GB) sowie die Standardgebühren für S3-Anforderungen, Speicher, Datenübertragung und Replikation. Wenn Ihre Anwendung außerhalb von AWS läuft und über das Internet auf S3 zugreift, erhöhen S3 Multi-Region Access Points die Leistung, indem sie Ihre Anforderungen automatisch über einen AWS-Edge-Standort über das globale private AWS-Netzwerk an die nächstgelegene Kopie Ihrer Daten auf Basis der Zugriffslatenz weiterleiten. Wenn Sie Anfragen über das Internet beschleunigen, zahlen Sie die Kosten für das Datenrouting und die Kosten für die Internetbeschleunigung. Die Preise für die Internet-Beschleunigung von S3 Access Points für mehrere Regionen hängen davon ab, ob sich der Quell-Client in der gleichen oder in einer anderen AWS-Region befindet wie die Zielregion, und gelten zusätzlich zu den Standardpreisen für die S3-Datenübertragung. Zur Verwendung von Failover-Kontrollen von S3-Zugriffspunkten für mehrere Regionen werden Ihnen nur S3-API-Standardgebühren in Rechnung gestellt, um den aktuellen Kontrollzustand der Weiterleitung jeder Region anzuzeigen und Änderungen an den Kontrollen zur Einleitung eines Failovers zu senden. Bitte lesen Sie die Amazon-S3-Preisseite und die Registerkarte Übertragung, um mehr über Preise zu erfahren.
F: Kann ich Zahlungen durch den Anforderer mit S3-Zugriffspunkten für mehrere Regionen verwenden?
Ja, Sie können die zugrunde liegenden Buckets der S3-Zugriffspunkte für mehrere Regionen als Buckets mit Zahlungen durch den Anforderer konfigurieren. Mit Zahlungen durch den Anforderer zahlt der Anforderer alle Kosten im Zusammenhang mit der Endpunktnutzung, einschließlich der Kosten für Anfragen und Datenübertragungskosten, die sowohl mit dem Bucket als auch mit dem Zugriffspunkt für mehrere Regionen verbunden sind. In der Regel sollten Sie Ihre Buckets als Buckets mit Zahlungen durch den Anforderer konfigurieren, wenn Sie Daten teilen möchten, aber keine Gebühren für den Zugriff anderer auf die Daten anfallen. Im Allgemeinen zahlen Bucket-Besitzer für den gesamten Amazon S3-Speicher, der ihrem Bucket zugeordnet ist. Um mehr zu erfahren, besuchen Sie bitte S3 Requester Pays.
F: Wie unterscheidet sich S3 Transfer Acceleration von den S3-Zugriffspunkten für mehrere Regionen?
S3 Access Points für mehrere Regionen und S3 Transfer Acceleration bietet ähnliche Leistungsvorteile. Sie können S3 Transfer Acceleration verwenden, um die Übertragung von Inhalten von und zu Amazon S3 mit dem globalen AWS-Netzwerk zu beschleunigen. S3 Transfer Accelerator kann dabei helfen, weit entfernte Übertragungen von größeren Objekten zu und von einem einzigen Amazon-S3-Bucket zu beschleunigen. Mit S3 Access Points für mehrere Regionen können Sie ähnlich beschleunigte Übertragungen mit dem globalen AWS-Netzwerk durchführen, und das auch bei vielen S3-Buckets in mehreren AWS-Regionen für Internet-basierte, VPC-basierte und On-Premises-Anforderungen zu und von S3. Wenn Sie S3 Access Points für mehrere Regionen mit übergreifender S3-Replikation kombinieren, können die S3 Access Points dank Ihnen Ihre Anfragen dynamisch an die Datenkopie mit der niedrigsten Latenz für Anwendungen von Kunden in mehreren Standorten weiterleiten.
F: Welche ersten Schritte sind für S3-Zugriffspunkte für mehrere Regionen und Failover-Kontrollen erforderlich?
Die S3-Konsole bietet einen einfachen Workflow mit Anleitungen zur schnellen Einrichtung von allem, was für das Speichern in mehreren Regionen in S3 benötigt wird, und zwar in nur drei einfachen Schritten. Erstellen Sie zunächst einen Endpunkt für den S3-Zugriffspunkt für mehrere Regionen und geben Sie die AWS-Regionen an, die Sie replizieren und bei denen Sie Failovers durchführen möchten. Sie können Buckets in mehreren AWS-Konten zu einem neuen S3-Zugriffspunkt für mehrere Regionen hinzufügen, indem Sie die Konto-IDs eingeben, denen die Buckets zum Zeitpunkt der Erstellung gehören. Zweitens: Geben Sie für jede AWS-Region und für jedes S3-Bucket Ihren Endpunkt für S3-Zugriffspunkte für mehrere Regionen an, ob der Routing-Status aktiv oder passiv ist, ob aktive AWS-Regionen den Datenverkehr der S3-Anforderungen akzeptieren und ob passive Regionen nicht geleitet werden, bis Sie einen Failover eingeleitet haben. Drittens: Konfigurieren Sie S3 die regionsübergreifenden Replikationsregeln, um Ihre Daten in S3 zwischen den Regionen und/oder Konten. Sie können dann einen Failover jederzeit zwischen den AWS-Regionen binnen Minuten einleiten, um Ihre S3-Datenanforderungen zu verschieben und um die Verschiebung Ihres S3-Datenverkehrs zur neuen aktiven AWS-Region in Amazon CloudWatch zu überwachen. Alternativ können Sie mit AWS CloudFormation die Konfiguration Ihres Speichers für mehrere Regionen automatisieren. Alle für die Einrichtung eines Speichers für mehrere Regionen in S3 erforderlichen Bausteine, einschließlich den S3-Zugriffspunkte für mehrere Regionen, werden von CloudFormation unterstützt, damit Sie einen wiederholbaren Einrichtungsprozess außerhalb der S3-Konsole automatisieren können.
Datenverarbeitung
Objekt Lambda
F: Was ist S3 Objekt Lambda?
Mit S3 Objekt Lambda können Sie S3-GET-, LIST und HEAD-Anforderungen Ihren eigenen Code hinzufügen, um Daten zu ändern und zu verarbeiten, wenn sie an eine Anwendung zurückgegeben werden. Sie können benutzerdefinierten Code verwenden, um die von S3-GET-Anforderungen zurückgegebenen Daten zu ändern, um Zeilen zu filtern, die Größe von Bildern dynamisch anzupassen, vertrauliche Daten zu redigieren und vieles mehr. Sie können S3 Objekt Lambda auch verwenden, um die Ausgabe von S3-LIST-Anforderungen zu ändern, um eine benutzerdefinierte Ansicht von Objekten in einem Bucket zu erstellen, und S3-HEAD-Anforderungen, um Objektmetadaten wie Objektname und -größe zu ändern. Mit S3 Objekt Lambda können Sie die einzigartigen Datenformat-Anforderungen einer Anwendung problemlos erfüllen, ohne zusätzliche Infrastrukturen wie eine Proxy-Schicht erstellen und betreiben oder mehrere abgeleitete Kopien Ihrer Daten erstellen und verwalten zu müssen. S3 Objekt Lambda verwendet AWS Lambda-Funktionen, um die Ausgabe einer standardmäßigen S3-GET-, LIST- oder HEAD-Anforderung automatisch zu verarbeiten. AWS Lambda ist ein Serverless-Rechenservice, der kundenspezifischen Code ausführt, ohne dass die zugrunde liegenden Rechenressourcen verwaltet werden müssen.
Mit nur wenigen Klicks in der AWS-Managementkonsole können Sie eine Lambda-Funktion konfigurieren und an einen S3-Objekt-Lambda-Service-Zugriffspunkt anhängen. Ab diesem Zeitpunkt ruft S3 automatisch Ihre Lambda-Funktion auf, um alle über den S3-Objekt-Lambda-Endpunkt abgerufenen Daten zu verarbeiten und ein transformiertes Ergebnis an die Anwendung zurückzugeben. Sie können Ihre eigenen benutzerdefinierten Lambda-Funktionen erstellen und ausführen und die Datentransformation von S3 Objekt Lambda an Ihren spezifischen Anwendungsfall anpassen.
Um mit S3 Objekt Lambda zu beginnen, können Sie die S3-Managementkonsole, das SDK oder die API verwenden. Weitere Informationen finden Sie auf der Seite zu S3 Objekt Lambda oder im Benutzerhandbuch S3 Objekt.
F: Warum sollte ich S3 Objekt Lambda verwenden?
Sie sollten S3 Objekt Lambda verwenden, wenn Sie Daten im Einklang mit einer S3-GET-, LIST- oder HEAD-Anfrage verarbeiten möchten. Sie können S3 Objekt Lambda verwenden, um eine einzelne Kopie Ihrer Daten für viele Anwendungen freizugeben, ohne dass Sie eine benutzerdefinierte Verarbeitungsinfrastruktur erstellen und betreiben oder abgeleitete Kopien Ihrer Daten speichern müssen. Wenn Sie beispielsweise S3 Objekt Lambda verwenden, um S3-GET-Anforderungen zu verarbeiten, können Sie vertrauliche Daten aus Compliance-Gründen maskieren, Rohdaten umstrukturieren, um sie mit Anwendungen für Machine Learning kompatibel zu machen, und Daten filtern, um den Zugriff auf bestimmte Inhalte in einem S3-Objekt einzuschränken, oder um eine breite Palette von zusätzlichen Anwendungsfällen zu adressieren. Mit S3 Objekt Lambda können Sie Ihre Objektlisten anreichern, indem Sie einen externen Index abfragst, der zusätzliche Objekt-Metadaten enthält, deine Objektlisten filtern und maskieren, um nur Objekte mit einem bestimmten Objekt-Tag einzuschließen, oder allen Objektnamen in Ihren Objektlisten eine Dateierweiterung hinzufügen. Wenn Sie z. B. einen S3-Bucket mit mehreren diskreten Datensätzen haben, können Sie mit S3 Objekt Lambda eine S3-LIST-Antwort nach Anforderern filtern.
S3 Objekt Lambda kann mit nur wenigen Klicks in der Amazon-S3-Managementkonsole eingerichtet werden. Im Benutzerhandbuch erhalten Sie weitere Informationen.
F: Wie funktioniert S3 Objekt Lambda?
S3 Objekt Lambda verwendet von Ihnen angegebene Lambda-Funktionen, um die Ausgabe der GET-, LIST- und HEAD-Anforderung zu verarbeiten. Nachdem Sie eine Lambda-Funktion zum Verarbeiten der angeforderten Daten definiert haben, können Sie diese Funktion an einen S3-Objekt-Lambda-Zugriffspunkt anhängen. GET-, LIST- und HEAD-Anforderungen, die über einen S3-Objekt-Lambda-Zugriffspunkt gestellt werden, rufen jetzt die angegebene Lambda-Funktion auf. Lambda ruft dann das vom Client angeforderte S3-Objekt ab und verarbeitet dieses Objekt. Sobald die Verarbeitung abgeschlossen ist, überträgt Lambda das verarbeitete Objekt zurück an den aufrufenden Client. Weitere Informationen finden Sie im S3-Objekt-Lambda-Benutzerhandbuch.
F: Welche ersten Schritte sind für S3 Objekt Lambda erforderlich?
S3 Object Lambda kann auf mehrere Arten eingerichtet werden. Sie können S3 Object Lambda in der S3-Konsole einrichten, indem Sie zur Registerkarte „Object Lambda Access Point“ navigieren. Anschließend erstellen Sie einen S3-Objekt-Lambda-Zugriffspunkt, die Lambda-Funktion, die S3 für Ihre GET-, LIST- und HEAD-Anforderungen ausführen soll, und einen unterstützenden S3-Zugriffspunkt. Erteilen Sie allen Ressourcen die Berechtigung, mit Object Lambda zu interagieren. Zuletzt aktualisieren Sie Ihr SDK und Ihre Anwendung, um mithilfe des neuen S3-Objekt-Lambda-Zugriffspunkts Daten aus S3 mit dem Sprach-SDK Ihrer Wahl abzurufen. Sie können einen S3-Object-Lambda-Zugriffspunkt-Alias verwenden, wenn Sie Anfragen stellen. Aliase für S3-Object-Lambda-Zugriffspunkte automatisch generiert und sind mit S3-Bucket-Namen für Daten austauschbar, auf die über S3 Object Lambda zugegriffen wird. Für bestehende S3 Object Lambda-Zugriffspunkte werden Aliase automatisch zugewiesen und sind sofort einsatzbereit. In der AWS-Dokumentation finden Sie Beispielimplementierungen für Lambda-Funktionen, die Ihnen den Einstieg erleichtern.
Sie können auch AWS CloudFormation verwenden, um Ihre S3-Object-Lambda-Konfiguration zu automatisieren. Bei der Verwendung der AWS CloudFormation-Vorlage übergibt die Lambda-Funktion, die in Ihrem Konto bereitgestellt wird, S3-Objekte ohne Änderungen an Ihren anfragenden Client oder Ihre Anwendung zurück. Sie können benutzerdefinierten Code hinzufügen, um Daten zu ändern und zu verarbeiten, wenn sie an eine Anwendung zurückgegeben werden. Weitere Informationen finden Sie im S3-Objekt-Lambda-Benutzerhandbuch.
F: Welche Operationen kann ich mit S3 Objekt Lambda ausführen?
Jede in einer Lambda-Funktion unterstützte Operation wird mit S3 Objekt Lambda unterstützt. Dies bietet Ihnen eine breite Palette verfügbarer Optionen für die Bearbeitung Ihrer Anforderungen. Sie stellen Ihre eigene Lambda-Funktion bereit, um benutzerdefinierte Berechnungen für GET-, LIST- und HEAD-Anforderungen auszuführen, und geben Ihnen die Flexibilität, Daten gemäß den Anforderungen Ihrer Anwendung zu verarbeiten. Die Lambda-Verarbeitungszeit ist auf maximal 60 Sekunden begrenzt. Weitere Informationen finden Sie in der Dokumentation zu S3 Object Lambda.
F: Welche S3-Anforderungstypen unterstützt S3 Object Lambda?
S3 Objekt Lambda unterstützt GET-, LIST- und HEAD-Anforderungen. Alle anderen S3-API-Aufrufe, die an einen S3-Objekt-Lambda-Zugriffspunkt gesendet werden, geben die Standard-S3-API-Antwort zurück. Weitere Informationen zu S3 Objekt Lambda finden Sie im Benutzerhandbuch.
F: Was passiert, wenn eine S3-Objekt-Lambda-Funktion fehlschlägt?
Wenn eine S3-Objekt-Lambda-Funktion fehlschlägt, erhalten Sie eine Anforderungsantwort, in der der Fehler aufgeführt ist. Wie andere Aufrufe von Lambda-Funktionen überwacht AWS auch automatisch Funktionen in Ihrem Namen und meldet Metriken über Amazon CloudWatch. Um Ihnen bei der Fehlerbehebung zu helfen, protokolliert Lambda alle von Ihrer Funktion verarbeiteten Anforderungen und speichert die von Ihrem Code generierten Protokolle automatisch in Amazon CloudWatch Logs. Weitere Informationen zum Zugriff auf CloudWatch-Protokolle für AWS Lambda finden Sie in der CloudWatch-Dokumentation.
F: Beeinflusst S3 Object Lambda die SLA- oder S3-Haltbarkeit der S3-Verfügbarkeit?
S3 Objekt Lambda verbindet Amazon S3, AWS Lambda und optional andere AWS-Services Ihrer Wahl, um Objekte bereitzustellen, die für das Anfordern von Anwendungen relevant sind. Alle AWS-Services, die in Verbindung mit S3 Objekt Lambda verwendet werden, unterliegen weiterhin den jeweiligen Service Level Agreements (SLA). Falls beispielsweise ein AWS-Service seine Service-Verpflichtung nicht erfüllt, können Sie eine Service-Gutschrift erhalten, die in der SLA dieses Services dokumentiert ist. Das Erstellen eines S3-Objekt-Lambda-Zugriffspunkts hat keinen Einfluss auf die Haltbarkeit Ihrer Objekte. S3 Objekt Lambda ruft jedoch Ihre angegebene AWS-Lambda-Funktion auf, und Sie müssen sicherstellen, dass Ihre angegebene Lambda-Funktion beabsichtigt und korrekt ist. Die aktuellste Amazon S3 SLA finden Sie hier.
F: Wie viel kostet S3 Objekt Lambda?
Wenn Sie S3 Objekt Lambda verwenden, zahlen Sie eine Gebühr pro GB für jedes Gigabyte an Daten, die Sie über S3 Objekt Lambda erhalten. Außerdem fallen Gebühren für Anfragen an, die auf dem Anfragetyp basieren (GET-, LIST- und HEAD-Anfragen), und AWS Lambda berechnet die Zeit, in der die von Ihnen angegebene Funktion zur Verarbeitung der angeforderten Daten läuft. Informationen zu Preisdetails sowie ein Beispiel finden Sie auf der Preisseite zu S3.
Datenzugriff
Mountpoint für Amazon S3
F: Was ist Mountpoint für Amazon S3?
Mountpoint für Amazon S3 ist ein Open-Source-Datei-Client, mit dem Sie einen S3-Bucket auf Ihrer Rechen-Instance bereitstellen und als lokales Dateisystem darauf zugreifen können. Mountpoint für Amazon S3 übersetzt lokale Dateisystemvorgänge in REST-API-Aufrufe für in Amazon S3 gespeicherte Objekte. Mit Mountpoint für Amazon S3 erreichen Sie einen hohen Einzel-Instance-Durchsatz, um Aufträge schneller abzuschließen. Mountpoint für Amazon S3 wird vom AWS Support unterstützt. Kunden mit Zugriff auf AWS Enterprise Support erhalten rund um die Uhr technischen Support von Amazon-Supporttechnikern und Architekturberatung im Zusammenhang mit ihren Anwendungsfällen. Mountpoint für Amazon S3 funktioniert mit dem Linux-Betriebssystem und AWS-Computing-Services wie Amazon Elastic Compute Cloud (EC2). Weitere Informationen finden Sie auf der Seite Mountpoint für Amazon S3 oder im Benutzerhandbuch.
F: Wann sollte ich Mountpoint für Amazon S3 verwenden?
Mountpoint für Amazon S3 ist ideal für leseintensive Data-Lake-Workloads, die Petabytes an Daten verarbeiten, indem sie zufällige und sequentielle Lesevorgänge für vorhandene Dateien und sequentielle Schreibvorgänge zum Erstellen neuer Dateien verwenden. Diese Workloads schreiben von einem einzelnen Knoten aus und ändern keine vorhandenen Daten in Amazon S3. Zu den gängigen Anwendungsfällen gehören die Simulation von autonomen Fahrzeugen im Petabyte-Bereich, Machine-Learning-Training, Genomanalyse und Bildwiedergabe. Diese Workloads lassen sich schnell hoch- und herunterskalieren und verlassen sich auf die Elastizität von Amazon S3, um nicht ausgelastete Kapazitäten zu minimieren und die Kosten einer zu hohen Bereitstellung von Durchsatz zu vermeiden. Mit Mountpoint für Amazon S3 können Sie Rechenkosten einsparen, indem Sie die Netzwerkbandbreite Ihrer Rechen-Instances effizient nutzen und zuverlässig auf Tausende von Rechen-Instances für Data-Lake-Workloads im Petabyte-Bereich skalieren.
F: Welche Dateisystemvorgänge unterstützt Mountpoint für Amazon S3?
Mountpoint für Amazon S3 unterstützt grundlegende Dateisystemvorgänge wie das Lesen von Dateien mit einer Größe von bis zu 5 TB, das Schreiben neuer Dateien, das Auflisten vorhandener Dateien sowie das Erstellen und Auflisten von Verzeichnissen. Mountpoint für Amazon S3 unterstützt nicht das Ändern vorhandener Dateien oder das Löschen vorhandener Verzeichnisse. Mit diesen Operationen eignet sich Mountpoint für Amazon S3 ideal für Anwendungen, die Daten mit hohem Durchsatz in Amazon S3 Data Lakes lesen und schreiben. Es eignet sich nicht für Anwendungen, die eine Zusammenarbeit und Koordination über mehrere Datenverarbeitungsinstances oder Benutzer hinweg erfordern. Diese Anwendungen benötigen in der Regel gemeinsame Dateisystemfeatures wie das Anfügen an vorhandene Dateien und das Sperren von Dateien. Sie können Amazon FSx für Lustre für Data-Lake-Anwendungen verwenden, die POSIX-Semantik und Features des gemeinsamen Dateisystems benötigen.
F: Wie beginne ich mit Mountpoint für Amazon S3?
Sie können mit Mountpoint für Amazon S3 beginnen, indem Sie mithilfe der in der Dokumentation bereitgestellten Anweisungen einen S3-Bucket in einem lokalen Verzeichnis auf Ihrer Rechen-Instance bereitstellen. Sobald Sie den S3-Bucket in einem lokalen Verzeichnis gemountet haben, können Ihre Anwendungen auf S3-Objekte als lokal auf ihrer Rechen-Instance verfügbare Dateien zugreifen. Mountpoint für Amazon S3 unterstützt sequentielle und zufällige Lesevorgänge für vorhandene Amazon-S3-Objekte sowie sequentielle Schreibvorgänge für neue Objekte. Weitere Informationen zu den unterstützten Dateisystemoperationen finden Sie in der Semantik-Dokumentation für Mountpoint für Amazon S3. Sie können Mountpoint für Amazon S3 verwenden, um auf Objekte in allen S3-Speicherklassen zuzugreifen, mit Ausnahme von Objekten in S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive und Objekten in der Archive-Access-Ebene und der Deep-Archive-Access-Ebene in S3 Intelligent-Tiering.
F: Wie wird mir Mountpoint für Amazon S3 in Rechnung gestellt?
Für die Nutzung von Mountpoint für Amazon S3 fallen keine zusätzlichen Gebühren an. Sie zahlen für S3-API-Anfragen wie GET-, PUT- und LIST-Anfragen, die von Mountpoint für Amazon S3 gestellt werden, wenn Sie Dateisystemvorgänge wie Dateilese-, Dateischreib- und Verzeichnisauflistungsvorgänge ausführen. Preise für S3-Anfragen finden Sie auf der Preisseite.
F: Welche Leistung kann ich von Mountpoint für Amazon S3 erwarten?
Mountpoint für Amazon S3 bietet dieselbe Leistung wie die AWS SDKs. Das bedeutet, dass Data-Lake-Anwendungen hohe Einzel-Instance-Übertragungsraten erzielen und die verfügbare Netzwerkbandbreite auf ihrer Amazon-EC2-Instance effizient nutzen. Um einen noch höheren Durchsatz zu erzielen, können diese Anwendungen den Durchsatz über mehrere Instances hinweg aggregieren, um mehrere Tb/s zu erhalten.
F: Wie kann ich den Zugriff auf meine Daten kontrollieren, wenn ich Mountpoint für Amazon S3 verwende?
Wenn Sie Mountpoint für Amazon S3 verwenden, können Sie den Zugriff auf Ihre Daten mithilfe der vorhandenen Mechanismen für die Zugriffssteuerung von Amazon S3 steuern, einschließlich Bucket-Richtlinien und AWS Identity und Access Management (IAM)-Richtlinien. Mountpoint für Amazon S3 übersetzt Dateisystemvorgänge wie Lesen und Schreiben in Objekt-API-Anfragen, die an Ihren S3-Bucket gesendet werden. Anschließend wertet Amazon S3 alle relevanten Richtlinien aus, z. B. die des Benutzers und des Buckets, um zu entscheiden, ob die Anfrage autorisiert werden soll. Mountpoint für Amazon S3 führt keine neuen Mechanismen für die Zugriffssteuerung ein.
F: Unterstützt Mountpoint für Amazon S3 Metadaten im POSIX-Stil, wie Benutzer-ID, Gruppen-ID und Berechtigungsfelder?
Mountpoint für Amazon S3 unterstützt das Lesen oder Schreiben von POSIX-Metadaten wie Benutzer-ID, Gruppen-ID und Berechtigungsfeldern nicht. Sie können Amazon FSx für Lustre mit Amazon S3 oder AWS DataSync verwenden, um Metadaten im POSIX-Stil für S3-Objekte zu speichern.
F: Unterstützt Mountpoint für Amazon S3 den Zugriff über AWS PrivateLink?
Ja, Mountpoint für Amazon S3 unterstützt den Zugriff über AWS PrivateLink. AWS PrivateLink für S3 bietet private Konnektivität zwischen Amazon S3 und der On-Premises-Umgebung. Sie können Schnittstellen-VPC-Endpunkte für S3 in Ihrer VPC bereitstellen, um Ihre lokalen Anwendungen über AWS Direct Connect oder AWS VPN direkt mit S3 zu verbinden.
F: Unterstützt Mountpoint für Amazon S3 den Zugriff über Gateway-VPC-Endpunkte?
Ja, Mountpoint für Amazon S3 unterstützt den Zugriff über Gateway-VPC-Endpunkte. Wir empfehlen die Verwendung von VPC-Endpunkten mit AWS-PrivateLink-basierter Schnittstelle, um On-Premises oder von einer VPC in einer anderen AWS-Region auf S3 zuzugreifen. Für Ressourcen, die von einer VPC in derselben AWS-Region wie Ihr S3-Bucket auf S3 zugreifen, empfehlen wir die Verwendung von Gateway-VPC-Endpunkten, da diese nicht in Rechnung gestellt werden.
Kann ich von Amazon Elastic Kubernetes Service (Amazon EKS) Pods aus auf Amazon S3 zugreifen?
Ja, Sie können von Amazon EKS aus mit dem AWS-SDK und der AWS-CLI auf Amazon S3 zugreifen. Für Anwendungen, die eine Dateisystemschnittstelle zum Lesen und Schreiben von Daten verwenden, können Sie den Mountpoint für Amazon S3 Container Storage Interface (CSI)-Treiber verwenden. Mit dem CSI-Treiber von Mountpoint für Amazon S3 können Sie einen hohen Gesamtdurchsatz von bis zu Terabit pro Sekunde erreichen, ohne eine einzige Zeile Anwendungscode oder Ihr Genehmigungsmodell zu ändern. Wie Mountpoint für Amazon S3 unterstützt der S3-CSI-Treiber sequentielle und zufällige Lesevorgänge für bestehende Dateien sowie sequentielle Schreibvorgänge für die Erstellung neuer Dateien. Einzelheiten zu unterstützten Dateisystemoperationen finden Sie im Dateisystemverhalten von Mountpoint für Amazon S3. Die Installation, Konfiguration und Aktualisierung des Mountpoint für den CSI-Treiber von Amazon S3 ist mit nur wenigen Klicks in der EKS-Konsole, AWS CLI, EKS-API oder AWS CloudFormation möglich. Weitere Informationen finden Sie auf der GitHub-Seite zum Mountpoint für den CSI-Treiber von Amazon S3.
F: Welche Arten von Caching unterstützt Mountpoint für Amazon S3?
Mountpoint für Amazon S3 unterstützt verschiedene Arten von Lese-Caching, für die Sie sich entscheiden können, um wiederholte Leseanfragen zu beschleunigen. Zunächst können Sie einen lokalen Cache in Ihrem Amazon-EC2-Instance-Speicher oder einem Amazon-EBS-Volume verwenden. Sie sollten sich für den lokalen Cache entscheiden, wenn Sie wiederholt dieselben Daten aus derselben Rechen-Instance lesen und wenn Sie in Ihrem lokalen Instance-Speicher ungenutzten Speicherplatz für den wiederholt gelesenen Datensatz haben. Zweitens können Sie einen gemeinsam genutzten Cache in S3 Express One Zone verwenden. Sie sollten sich für den gemeinsamen Cache entscheiden, wenn Sie wiederholt kleine Objekte aus mehreren Rechen-Instances lesen oder wenn Sie die Größe Ihres Datensatzes, den Sie wiederholt lesen, nicht kennen und von der Elastizität der Cachegröße profitieren möchten. Sobald Sie sich angemeldet haben, speichert Mountpoint für Amazon S3 Objekte mit einer Größe von bis zu einem Megabyte in einem S3-Verzeichnis-Bucket, der S3 Express One Zone verwendet. Schließlich können Sie sich für einen lokalen Cache und einen gemeinsam genutzten Cache entscheiden, wenn Sie ungenutzten Speicherplatz in Ihrem lokalen Cache haben, aber auch einen gemeinsamen Cache für mehrere Instances wünschen. Erfahre mehr über Caching-Konfigurationen und wichtige Überlegungen in unserer Dokumentation auf GitHub.
Sind Sie startbereit?
Erfahren Sie mehr über Features für Datenverwaltung, Sicherheit, Zugriffsverwaltung, Analytik und mehr.
Erhalten Sie sofort Zugang zum kostenlosen Kontingent für AWS und beginnen Sie mit dem Experimentieren mit Amazon S3.
Fangen Sie an, mit Amazon S3 in der AWS-Konsole zu entwickeln.