S3 – Häufig gestellte allgemeine Fragen

F: Was ist Amazon S3?

Amazon S3 ist ein Objektspeicher zum Speichern und Abrufen beliebiger Datenmengen aus allen Speicherorten. Es handelt sich um einen einfachen Speicherservice, der branchenführende Haltbarkeit, Verfügbarkeit, Leistung, Sicherheit und praktisch unbegrenzte Skalierbarkeit zu sehr geringen Kosten bietet.

F: Was kann ich mit Amazon S3 tun?

Amazon S3 ist eine einfache Web-Service-Schnittstelle, mit der beliebige Datenmengen jederzeit und überall im Web gespeichert und abgerufen werden können. Mit diesem Web-Service können Sie unkompliziert Anwendungen erstellen, die Cloudspeicher nutzen. Da Amazon S3 hochgradig skalierbar ist und leistungsbasiert bezahlt wird, können Sie klein anfangen und Ihre Anwendung nach Bedarf erweitern, ohne Kompromisse in Bezug auf die Leistung und die Zuverlässigkeit eingehen zu müssen.

Amazon S3 ist außerdem noch sehr flexibel. Speichern Sie beliebige Datentypen und so viele Daten, wie Sie möchten, rufen Sie dieselben Daten beliebig oft oder nur für die Notfallwiederherstellung ab, erstellen Sie eine einfache FTP-Anwendung oder eine anspruchsvolle Webanwendung wie die Website von amazon.com. Mit Amazon S3 können sich Entwickler ganz auf Innovation konzentrieren, anstatt sich um die Speicherung ihrer Daten Gedanken machen zu müssen.

F: Was sind die ersten Schritte mit Amazon S3?

Klicken Sie auf diesen Link, um sich für Amazon S3 zu registrieren. Für den Zugriff auf diesen Service ist ein Amazon Web Services-Konto erforderlich. Wenn Sie noch kein Konto haben, werden Sie bei der Registrierung bei Amazon S3 zur Erstellung eines Kontos aufgefordert. Nach der Anmeldung erhalten Sie in der Dokumentation von Amazon S3 sowie mit dem Beispiel-Code des Ressourcen Centers Informationen über die Anwendung von Amazon S3.

F: Welche Möglichkeiten bietet Amazon S3 den Entwicklern, die sie mit einer lokalen Speicherlösung nicht haben?

Mit Amazon S3 profitiert jeder Entwickler von den Amazon-Vorteilen: hohe Skalierbarkeit ohne Vorleistungen und keine Kompromisse bei der Leistung. Entwickler können sich voll und ganz auf ihre Innovationen konzentrieren und unabhängig vom Erfolg ihres Unternehmens sicher sein, dass ihre Daten schnell zugänglich, stets verfügbar und sicher sind – günstig und einfach.

F: Welche Art von Daten können in Amazon S3 gespeichert werden?

Sie können praktisch alle Dateitypen in jedem Format speichern. Weitere Informationen finden Sie in der Lizenzvereinbarung von Amazon Web Services.

F: Welche Datenmenge kann in Amazon S3 gespeichert werden?

Das speicherbare Gesamtvolumen an Daten sowie die Anzahl der Objekte sind unbegrenzt. Einzelne Amazon S3-Objekte variieren in ihrer Größe von minimal 0 Bytes bis maximal 5 Terabytes. Das größte Objekt, das in einem einzelnen PUT hochgeladen werden kann, kann bis zu 5 GB groß sein. Für Objekte, die größer als 100 MB sind, empfiehlt sich die Funktion Multipart Upload.

F: Welche Speicherklassen bietet Amazon S3?

Amazon S3 bietet eine Vielzahl von Speicherklassen an, die für diverse Anwendungsfällen genutzt werden können. Dazu gehören S3 Standard für die allgemeine Speicherung von Daten mit häufigem Zugriff; S3 Intelligent-Tiering für Daten mit unbekannten oder sich ändernden Zugriffsmustern, S3 Standard – Infrequent Access (S3 Standard-IA) und S3 One Zone – Infrequent Access (S3 One Zone-IA) für Langzeitdaten mit selteneren Zugriffen sowie Amazon S3 Glacier (S3 Glacier) und Amazon S3 Glacier Deep Archive (S3 Glacier Deep Archive) für die Langzeitarchivierung und Erhaltung digitaler Daten. Wenn Sie Datenresidenzanforderungen haben, die von einer bestehenden AWS Region nicht erfüllt werden können, können Sie die Speicherklasse S3 Outposts verwenden, um Ihre S3-Daten On-Premise zu speichern. Weitere Informationen über diese Speicherklassen finden Sie auf der Seite Amazon-S3-Speicherklassen

F: Kann ich einen Bucket mit verschiedenen Objekten in verschiedenen Speicherklassen nutzen?

Ja, Sie können einen S3-Bucket mit verschiedenen Objekten nutzen, die in S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA und S3 One Zone-IA gespeichert sind.

F: Was macht Amazon mit den in Amazon S3 gespeicherten Daten?

Für Fakturierungszwecke speichert Amazon Ihre Daten und ermittelt die damit verbundene Nutzung. Amazon S3 greift außerhalb dieses Rahmens nicht auf Ihre Daten zu, es sei denn, dies ist aus rechtlichen Gründen erforderlich. Weitere Informationen finden Sie in der Lizenzvereinbarung von Amazon Web Services.

F: Speichert Amazon eigene Daten in Amazon S3?

Ja. Amazon-Entwickler nutzen Amazon S3 für zahlreiche unterschiedliche Projekte. Viele dieser Projekte verwenden Amazon S3 als autoritativen Datenspeicher, den sie für geschäftskritische Vorgänge verwenden.

F: Wie werden die Daten in Amazon S3 organisiert?

Bei Amazon S3 handelt es sich um einen einfachen, schlüsselbasierten Objektspeicher. Beim Speichern von Daten vergeben Sie einen einmaligen Objektschlüssel, der später für die Datenabfrage verwendet werden kann. Schlüssel können aus einer beliebigen Zeichenfolge bestehen und für die Imitation hierarchischer Attribute erstellt werden. Alternativ können Sie S3-Objekt-Tagging nutzen, um die Daten in allen Ihren S3-Buckets bzw. mit allen Präfixen zu organisieren.

F: Über welche Schnittstelle kann ich auf Amazon S3 zugreifen?

Amazon S3 umfasst benutzerfreundliche, auf Standards basierende REST-Schnittstellen für Web-Services, die mit jedem beliebigen Toolkit für die Internetentwicklung kompatibel sind. Die Abläufe wurden bewusst einfach gehalten, um das Hinzufügen neuer Verteilungsprotokolle und funktionaler Ebenen unkompliziert zu gestalten.

F: Wie zuverlässig ist Amazon S3?

Über Amazon S3 erhalten Entwickler Zugriff auf dieselbe hochgradig skalierbare, hoch verfügbare, schnelle und kostengünstige Datenspeicher-Infrastruktur, mit der Amazon sein eigenes globales Website-Netzwerk betreibt. Die Speicherklasse S3 Standard ist für eine Verfügbarkeit von 99,99 % konzipiert, die Speicherklassen S3 Standard-IA und S3-Intelligent-Tiering für eine Verfügbarkeit von 99,9 % und die Speicherklasse S3 One Zone-IA für eine Verfügbarkeit von 99,5 %. Die Speicherklassen S3 Glacier und S3 Glacier Deep Archive sind für eine Verfügbarkeit von 99,99 % und ein SLA von 99,9 % ausgelegt. Alle Speicherklassen werden durch das Amazon-S3-Service-Level-Agreement gestützt.

F: Wie wirken sich plötzlich auftretende Spitzen beim Datenverkehr von meiner Anwendung auf die Leistung von Amazon S3 aus?

Amazon S3 wurde von Grund auf für den Umgang mit dem Datenverkehr jeder beliebigen Internetanwendung entwickelt. Durch leistungsbasierte Zahlung und eine unbegrenzte Kapazität wird sichergestellt, dass sich Ihre Grenzkosten nicht ändern und Sie Ihren Service unterbrechungsfrei anbieten können. Die Skalierung von Amazon S3 ermöglicht die gleichmäßige Verteilung der Last, damit Datenverkehrsspitzen nicht nur einzelne Anwendungen betreffen.

F: Umfasst Amazon S3 ein Service Level Agreement (SLA)?

Ja. Wenn in einem Abrechnungszeitraum die monatliche Betriebszeit kürzer ist, als im SLA zugesagt, sieht das Amazon-S3-SLA eine Service-Gutschrift vor.

F: Was ist das Konsistenzmodell für Amazon S3?

Amazon S3 bietet automatisch hohe Read-after-Write-Konsistenz, ohne Änderungen an der Leistung oder Verfügbarkeit, ohne Abstriche bei der regionalen Isolierung für Anwendungen und ohne zusätzliche Kosten.

Nach dem erfolgreichen Schreiben eines neuen Objekts oder dem Überschreiben eines vorhandenen Objekts, erhält jede nachfolgende Leseanforderung sofort die neueste Version des Objekts. S3 bietet auch hohe Konsistenz für Listenvorgänge, sodass Sie nach einem Schreibvorgang sofort eine Auflistung der Objekte in einem Bucket durchführen können, bei der Änderungen berücksichtigt werden.

Welche Vorteile bietet die hohe Read-after-Write-Konsistenz?

Eine hohe Read-after-Write-Konsistenz ist sinnvoll, wenn Sie ein Objekt sofort nach einem Schreibvorgang lesen müssen. Beispielsweise ist eine hohe Read-after-Write-Konsistenz ideal, wenn unmittelbar nach dem Schreiben von Objekten häufig Lese- und Auflistungsvorgänge stattfinden. High-Performance-Computing-Workloads profitieren auch davon, dass, wenn ein Objekt überschrieben und dann viele Male gleichzeitig gelesen wird, eine hohe Read-after-Write-Konsistenz die Sicherheit bietet, dass der letzte Schreibvorgang über alle Lesevorgänge hinweg gelesen wird. Diese Anwendungen profitieren automatisch und umgehend von einer hohen Read-after-Write-Konsistenz. Die hohe Konsistenz von S3 senkt außerdem die Kosten, da keine zusätzliche Infrastruktur erforderlich ist, um eine hohe Konsistenz bereitzustellen.  

AWS-Regionen

F: Wo werden meine Daten gespeichert?

Bei der Erstellung Ihres Amazon S3-Buckets legen Sie eine AWS-Region fest. Bei den Speicherklassen S3 Standard, S3 Standard – IA und S3 Glacier werden Ihre Objekte automatisch auf mehreren Geräten gespeichert, die jeweils mindestens drei Availability Zones in einer AWS-Region umfassen und mehrere Kilometer voneinander entfernt sind. Objekte, die in der Speicherklasse S3 One Zone – IA gespeichert werden, werden redundant innerhalb einer einzigen Verfügbarkeitszone (Availability Zone) in der gewählten AWS-Region gespeichert. Für S3 on Outposts werden Ihre Daten in Ihrer Outpost On-Premise-Umgebung gespeichert, es sei denn, Sie entscheiden sich manuell für die Übertragung in eine AWS Region. Weitere Informationen über die Verfügbarkeit von Amazon-S3-Services nach AWS-Regionen finden Sie unter Regionale Produkte und Services.

F: Was ist eine AWS-Region?

Eine AWS-Region ist ein geografischer Bereich, in dem AWS mehrere physisch getrennte und isolierte Availability Zones zur Verfügung stellt, die mit geringer Latenz, hohem Durchsatz und hoch redundanten Netzwerken miteinander verbunden sind.

F: Was ist eine AWS Availability Zone (AZ)?

Eine AWS Availability Zone ist ein physisch isolierter Ort innerhalb einer AWS-Region. S3 betreibt in jeder AWS-Region mindestens drei AZs, die zum Schutz vor lokalen Ereignissen wie Feuer oder Überschwemmungen jeweils mehrere Kilometer voneinander entfernt sind.

Die Speicherklassen Amazon S3 Standard, S3 Standard – Infrequent Access und S3 Glacier replizieren Daten auf mindestens drei AZs, damit sie geschützt sind, falls eine ganze AZ ausfällt. Das gilt auch für Regionen, in denen weniger als drei AZs öffentlich verfügbar sind. Der Zugriff auf die in diesen Speicherklassen gespeicherten Objekte ist von allen AZs in der AWS-Region aus möglich.

Die Speicherklasse Amazon-S3-One-Zone-IA repliziert Daten innerhalb einer einzigen AZ. Die in S3 One Zone-IA gespeicherten Daten sind nicht resistent gegen den physischen Verlust einer Availability Zone infolge von Katastrophen wie Erdbeben oder Überschwemmungen.

F: Wie entscheide ich, in welcher AWS Region meine Daten gespeichert werden sollen?

Es sind verschiedene Faktoren zu berücksichtigen, die von der betreffenden Anwendung abhängen. So möchten Sie Ihre Daten möglicherweise in einer Region speichern, die...

  • ... sich in der Nähe Ihrer Kunden, Ihrer Rechenzentren oder Ihrer sonstigen AWS-Ressourcen befindet, sodass Verzögerungszeiten beim Datenzugriff reduziert werden.
  • ... sich aus Gründen der geografischen Redundanz und für Disaster Recovery-Zwecke nicht in der Nähe Ihrer sonstigen Tätigkeiten befindet.
  • ... Ihnen die Einhaltung bestimmter rechtlicher und regulatorischer Anforderungen ermöglicht.
  • ... Ihnen die Reduzierung der Speicherkosten ermöglicht. Um Geld zu sparen, können Sie eine Region mit einem niedrigeren Preisniveau wählen. S3-Preisinformationen finden Sie auf der Seite Preise von S3.

F: Wo auf der Welt ist Amazon S3 verfügbar?

Amazon S3 ist in allen AWS-Regionen weltweit verfügbar und Sie können Amazon S3 unabhängig von Ihrem Standort verwenden. Sie müssen nur festlegen, in welcher bzw. welchen AWS-Region(en) Ihre Amazon S3-Daten gespeichert werden sollen. Eine Liste der AWS-Regionen, in denen S3 zurzeit verfügbar ist, finden Sie in der Tabelle mit der regionalen AWS-Verfügbarkeit.

Fakturierung

F: Wie viel kostet Amazon S3?

Mit Amazon S3 zahlen Sie nur das, was Sie tatsächlich nutzen. Es gibt keine Mindestgebühr. Kalkulieren Sie Ihre voraussichtliche Monatsrechnung mit dem AWS-Preisrechner.

In Regionen, in denen uns niedrigere Kosten entstehen, erheben wir auch niedrigere Gebühren. Einige Preise sind in den einzelnen Amazon S3-Regionen unterschiedlich. Die abgerechneten Preise richten sich nach dem Standort Ihres S3-Buckets. Für Daten, die innerhalb einer Amazon S3-Region über eine COPY-Anforderung übertragen werden, fallen keine Datenübertragungsgebühren an. Für Daten, die über die Anforderung COPY zwischen AWS-Regionen übertragen werden, fallen die im Abschnitt mit den Preisen auf der Amazon S3-Detailseite angegebenen Preise an. Für Daten, die innerhalb derselben Region zwischen Amazon EC2 (oder jedem beliebigen AWS-Service) und Amazon S3 übertragen werden, z. B. Daten, die innerhalb der Region USA Ost (Nord-Virginia) übertragen werden, werden keine Datenübertragungsgebühren berechnet. Daten, die zwischen Amazon EC2 (oder jedem beliebigen AWS-Service) und Amazon S3 in allen anderen Regionen übertragen werden, werden gemäß den Preisen auf der Seite mit den Preisen für Amazon S3 in Rechnung gestellt, z. B. Daten, die zwischen der Region Amazon EC2 USA Ost (Nord-Virginia) und der Region Amazon S3 USA West (Nordkalifornien) übertragen werden. Die Preise für S3 für Outposts finden Sie auf der Seite Preise für Outposts.

F: Wie wird mir Amazon S3 in Rechnung gestellt?

Sie können mit der Verwendung dieses Service beginnen, ohne dass Ihnen Einrichtungsgebühren oder sonstige Verpflichtungen entstehen. Am Monatsende werden Ihnen die Nutzungsgebühren für den betreffenden Monat automatisch in Rechnung gestellt. Sie können Ihre Gebühren für den aktuellen Abrechnungszeitraum jederzeit auf der Amazon Web Services-Website nachverfolgen. Melden Sie sich hierzu bei Ihrem Amazon Web Services-Konto an und klicken Sie unter „Ihr Web Services-Konto“ auf „Fakturierungs- und Kostenmanagementkonsole“.

Mit dem kostenlosen Nutzungskontingent für AWS* können Sie Amazon S3 in allen Regionen außer der Region „AWS GovCloud“ kostenlos nutzen. Bei der Anmeldung erhalten AWS-Neukunden ein Jahr lang monatlich 5 GB Amazon S3-Standardspeicher, 20 000 GET-Anforderungen, 2 000 PUT-Anforderungen und 15 GB für ausgehende Datenübertragungen (ins Internet, andere AWS-Regionen oder CloudFront). Ungenutzte monatliche Nutzung wird nicht auf den nächsten Monat übertragen.

Amazon S3 rechnet für folgende Verwendungsarten Gebühren ab. Beachten Sie, dass in den folgenden Berechnungen davon ausgegangen wird, dass keine kostenlosen AWS-Kontingente vorliegen.

Verwendeter Speicher:

Eine Übersicht der Preise für Amazon S3-Speicher finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

Bei der Anzahl des in einem Monat abgerechneten Speicherplatzes handelt es sich um die durchschnittliche, im Laufe des Monats verwendete Speichermenge. Darin enthalten sind alle Objektdaten sowie Metadaten, die in den Buckets Ihres AWS-Kontos gespeichert werden. Die gemessenen „TimedStorage-ByteHrs“ werden am Monatsende summiert, um Ihre monatliche Gebühr zu ermitteln.

Speicherbeispiel:

Angenommen, Sie speichern im März 15 Tage lang 100 GB (107 374 182 400 Bytes) Amazon S3 Standard-Daten in Ihrem Bucket und während der letzten 16 Tage im März 100 TB (109 951 162 777 600 Bytes) an Amazon S3 Standard-Daten.

Ende März ergibt sich die folgende in Byte-Stunden ausgedrückte Nutzung: Gesamtzahl der Byte-Stunden = [107 374 182 400 Bytes x 15 Tage x (24 Stunden/Tag)] + [109 951 162 777 600 Bytes x 16 Tage x (24 Stunden/Tag)] = 42 259 901 212 262 400 Byte-Stunden. Bitte berechnen Sie die Stunden auf der Grundlage der tatsächlichen Anzahl von Tagen in einem gegebenen Monat. In unserem Beispiel wird beispielsweise der März verwendet, der 31 Tage oder 744 Stunden hat.

Umgerechnet in GB-Monate ergibt dies: 42 259 901 212 262 400 Byte-Stunden/1 073 741 824 Bytes pro GB/744 Stunden pro Monat = 52 900 GB-Monate

Dieses Verwendungsvolumen verteilt sich über zwei Volumenkontingente. Nachfolgend werden die monatlichen Speichergebühren berechnet (unter der Annahme, dass die Daten in der Region USA Ost (Nord-Virginia) gespeichert werden): 50 TB-Kontingent: 51 200 GB x 0,023 USD = 1 177,60 USD; 50 TB- bis 450 TB-Kontingent: 1 700 GB x 0,022 USD = 37,40 USD

Gesamtspeicherkosten = 1.177,60 USD + 37,40 USD = 1.215,00 USD

Übertragene eingehende Netzwerkdaten:

Die Preise für eingehende Amazon S3-Datenübertragungen sind auf der Seite mit der Preisübersicht für Amazon S3 aufgeführt. Dies gilt für an Ihre Amazon S3-Buckets gesendete Daten. 

Übertragene ausgehende Netzwerkdaten:

Die Preise für ausgehende Amazon-S3-Datenübertragungen sind auf der Seite mit der Preisübersicht für Amazon S3 aufgeführt. Bei Amazon S3 fällt diese Gebühr an, wenn Daten in Ihren Buckets an einem Standort außerhalb der angegebenen Amazon S3-Region gelesen werden.

Gebührenstufen für ausgehende Datenübertragungen umfassen Ihre gesammelten ausgehenden Datenübertragungen aus einer bestimmten Region in das Internet für Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS und Amazon VPC. Diese Gebührenstufen gelten nicht für ausgehende Datenübertragungen aus Amazon S3 aus einer AWS-Region in eine andere AWS-Region.

Beispiel für die ausgehende Datenübertragung:
Angenommen, Sie befinden sich in der Region USA Ost (Nord-Virginia) und übertragen in einem Monat mit 31 Tagen täglich 1 TB Daten aus Amazon S3 in das Internet. Weiter soll angenommen werden, dass Sie in derselben Region aus einer Amazon EC2-Instance im selben Monat mit 31 Tagen täglich 1 TB Daten in das Internet übertragen.

Ihre gesammelte Datenübertragung beträgt dann 62 TB (31 TB von Amazon S3 und 31 TB von Amazon EC2). Dies entspricht 63.488 GB (62 TB * 1.024 GB/TB).

Dieses Verwendungsvolumen erstreckt sich auf drei verschiedene Volumenstufen. Die monatliche Gebühr für ausgehende Datenübertragung ist im Folgenden aufgeführt. Dabei wird davon ausgegangen, dass die Datenübertragung in der Region USA Ost (Nord-Virginia) stattfindet.
Stufe 10 TB: 10.239 GB (10 × 1.024 GB/TB) x 0,09 USD – 1 (kostenlos) = 921,51 USD
Stufe 10 TB bis 50 TB: 40 960 GB (40×1 024) x 0,085 USD = 3 481,60 USD
Stufe 50 TB bis 150 TB: 12.288 GB (Rest) x 0,070 USD = 860,16 USD

Gesamtsumme: = 921,51 USD + 3.481,60 USD + 860,16 USD = 5.263,27 USD

Datenanforderungen:

Die Preisgestaltung der Amazon-S3-Anforderungen ist in der Preistabelle von Amazon S3 aufgeführt.

Anforderungsbeispiel:
Nehmen wir an, Sie übertragen im Monat März täglich 10.000 Daten in Amazon S3 und 20.000 aus Amazon S3. Am 31. März löschen Sie 5 000 Dateien.
PUT-Anforderungen gesamt = 10.000 Anforderungen x 31 Tage = 310.000 Anforderungen
GET-Anforderungen gesamt = 20.000 Anforderungen x 31 Tage = 620.000 Anforderungen
DELETE-Anforderungen gesamt = 5.000 x 1 Tag = 5.000 Anforderungen

Die Gebühren für Anforderungen sind im Folgenden aufgeführt. Dabei wird davon ausgegangen, dass sich Ihr Bucket in der USA Ost (Nord-Virginia) befindet.
310.000 PUT-Anforderungen: 310.000 Anforderungen x 0,005 USD/1.000 = 1,55 USD
620 000 GET-Anforderungen: 620 000 Anforderungen x 0,004 USD/10 000 Anforderungen = 0,25 USD
5 000 DELETE-Anforderungen = 5 000 Anforderungen x 0,00 USD (keine Gebühr) = 0,00 USD

Datenabrufe:

Die Preise für Amazon-S3-Datenabrufe gelten für die Speicherklassen S3 Standard – Infrequent Access (S3 Standard – IA) und S3 One Zone – IA. Sie sind auf der Seite mit der Preisübersicht für Amazon S3 aufgeführt.

Beispiel für Datenabrufe:
Angenommen, Sie rufen in einem Monat 300 GB aus S3 Standard – IA ab. Davon gehen 100 GB ins Internet, 100 GB zu EC2 in derselben AWS-Region und 100 GB zu CloudFront in derselben AWS-Region.

Ihre Datenabrufgebühren für den Monat würden wie folgt berechnet: 300 GB x 0,01 USD / GB = 3,00 USD. Beachten Sie, dass Sie auch die Gebühren für die Netzwerkdatenübertragung für den Anteil zahlen, der an das Internet gesendet wurde.

Hier finden Sie Details dazu, wie archivierte Objekte in Amazon S3 Glacier abgerechnet werden.

* * Ihre Nutzung des kostenlosen Nutzungskontingent wird jeden Monat für alle Regionen außer der AWS GovCloud-Region berechnet und automatisch auf die Rechnung angewandt. Unverwendete monatliche Nutzung wird nicht prolongiert. Eventuell geltende Einschränkungen finden Sie in den Angebotsbedingungen.

F: Warum unterscheiden sich die Preise je nach ausgewählter Amazon S3 Region?

In Regionen, in denen uns niedrigere Kosten entstehen, erheben wir auch niedrigere Gebühren. Beispielsweise sind unsere Kosten in der Region USA Ost (Nord-Virginia) niedriger als in der Region USA West (Nordkalifornien).

F: Wie wird mir die Nutzung von Versioning in Rechnung gestellt?

Normale Amazon S3-Tarife fallen für jede Version eines gespeicherten oder angeforderten Objekts an. Betrachten wir beispielsweise das folgende Szenario, um die Speicherkosten bei der Nutzung von Versioning zu veranschaulichen (unter der Annahme, dass der aktuelle Monat 31 Tage hat).

1) Tag 1 des Monats: Sie führen eine PUT-Anforderung von 4 GB (4.294.967.296 Bytes) für Ihren Bucket aus.
2) Tag 16 des Monats: Sie führen eine PUT-Anfrage von 5 GB (5 368 709 120 Bytes) innerhalb desselben Buckets aus und verwenden denselben Schlüssel wie bei der ursprünglichen PUT-Anfrage an Tag 1.

Bei der Analyse der Speicherkosten der obigen Vorgänge beachten Sie bitte, dass das 4-GB-Objekt von Tag 1 nicht aus dem Bucket gelöscht wird, wenn das 5-GB-Objekt am Tag 15 geschrieben wird. Das 4-GB-Objekt wird hingegen als ältere Version gespeichert und das 5-GB-Objekt wird zur zuletzt geschriebenen Version des Objekts in Ihrem Bucket. Am Ende des Monats:

Gesamtzahl verwendeter Byte-Stunden
[4 294 967 296 Bytes x 31 Tage x (24 Stunden/Tag)] + [5 368 709 120 Bytes x 16 Tage x (24 Stunden/Tag)] = 5 257 039 970 304 Byte-Stunden

Umrechnung in Gesamtzahl GB-Monate:
5.257.039.970.304 Byte-Stunden x (1 GB/1.073.741.824 Bytes) x (1 Monat/744 Stunden) = 6.581 GB-Monate

Die Kosten errechnen sich aus den aktuellen Tarifen für Ihre Region, die Sie auf der Seite mit der Preisübersicht für Amazon S3 finden.

F: Wie wird der Zugriff auf Amazon S3 über die AWS-Managementkonsole in Rechnung gestellt?

Beim Zugriff auf den Service über die AWS Management-Konsole gelten die normalen Preise für Amazon S3. Für eine verbesserte Benutzerfreundlichkeit kann die AWS Management-Konsole Anforderungen proaktiv ausführen. Einige interaktive Vorgänge führen ebenfalls zur Ausgabe mehrerer Anforderungen an den Service.

F: Wie wird abgerechnet, wenn über ein anderes AWS-Konto auf meine Amazon S3-Buckets zugegriffen wird?

Normale Amazon S3-Preise gelten, wenn auf Ihren Speicher über ein anderes AWS-Konto zugegriffen wird. Sie können Ihren Bucket auch als „Zahlung durch den Anforderer“-Bucket einrichten. In diesem Fall bezahlt der Anforderer die Kosten für die Anforderungen und Downloads Ihrer Amazon S3-Daten.

Weitere Informationen über die "Zahlung durch den Anforderer" -Bucketkonfigurationen finden Sie in der Amazon S3-Dokumentation.

F: Sind Steuern bereits in den Preisen enthalten?

Falls nicht anders angegeben, gelten unsere Preise zuzüglich anfallender Steuern und Abgaben, u. a. MwSt. und Umsatzsteuer. Bei Kunden mit japanischer Rechnungsadresse unterliegt die Nutzung von AWS-Services der japanischen Verbrauchssteuer.

Weitere Informationen zu Steuern auf AWS-Services »

Amazon S3 und IPv6

F: Was ist IPv6?

Alle Server und Geräte, die mit dem Internet verbunden sind, müssen eine eindeutige Adresse haben. Internet Protocol Version 4 (IPv4) war das Originalschema für 32-Bit-Adressen. Das anhaltende Wachstum des Internets würde jedoch dazu führen, dass alle verfügbaren IPv4-Adressen nach einiger Zeit in Gebrauch sind. Internet Protocol Version 6 (IPv6) ist ein Adressierungsmechanismus, der dazu konzipiert wurde, die globalen Adresseinschränkungen von IPv4 zu überwinden.

F: Was kann ich mit IPv6 tun?

Mit der IPv6-Unterstützung für Amazon S3 können Anwendungen eine Verbindung zu Amazon S3 herstellen, ohne Software oder Systeme für die Übersetzung von IPv6 in IPv4 zu benötigen. Sie können Compliance-Anforderungen erfüllen, eine Integration mit bestehenden Vor-Ort-Anwendungen auf IPv6-Basis einfacher durchführen und die Notwendigkeit teurer Netzwerkausrüstung zum Verarbeiten der Adressenübersetzung eliminieren. Sie können jetzt außerdem die vorhandenen Funktionen zum Filtern von Quelladressen in IAM-Richtlinien und Bucket-Richtlinien mit IPv6-Adressen nutzen, um Ihre Optionen zum Schützen von Anwendungen bei der Zusammenarbeit mit Amazon S3 zu erweitern.

F: Was sind die ersten Schritte mit IPv6 mit Amazon S3?

Sie können damit beginnen, Ihre Anwendung auf den neuen „Dual Stack“-Endpunkt von Amazon S3 zu verweisen, der Zugriff sowohl über IPv4 als auch über IPv6 unterstützt. In den meisten Fällen wird für den Zugriff über IPv6 keine weitere Konfiguration benötigt, da die meisten Netzwerkclients standardmäßig IPv6-Adressen bevorzugen. Anwendungen, die durch die Verwendung von IPv6 beeinträchtigt werden, können jederzeit auf die standardmäßigen nur IPv4-fähigen Endpunkte zurückgeschaltet werden. IPv6 für Amazon S3 wird in allen kommerziellen AWS-Regionen unterstützt, einschließlich der AWS GovCloud-Regionen (USA) und der Amazon Web Services-Regionen China (Peking), die von Sinnet betrieben wird, und China (Ningxia), die von NWCD betrieben wird. 

F: Muss ich mit einer Änderung der Amazon S3-Leistung rechnen, wenn ich IPv6 nutze?

Nein, die Leistungen von Amazon S3 ist mit IPv4 und IPv6 gleich.

Ereignisbenachrichtigung

F: Was sind Amazon S3-Ereignisbenachrichtigungen?

Amazon S3-Ereignisbenachrichtigungen können als Reaktion auf Aktionen in Amazon S3 wie PUT, POST, COPY oder DELETE versendet werden. Benachrichtigungen können über Amazon SNS oder Amazon SQS versendet oder direkt an AWS Lambda gesendet werden.

F: Was kann ich mit Amazon S3-Ereignisbenachrichtigungen tun?

S3-Ereignisbenachrichtigungen ermöglichen Ihnen das Auslösen von Workflows, das Versenden von Warnungen und andere Aktionen als Reaktion auf Änderungen Ihrer Objekte, die in Amazon S3 gespeichert sind. Mit S3-Ereignisbenachrichtigungen können Sie Auslöser für die Ausführung von Aktionen einrichten, zum Beispiel für die Transkodierung von Mediendateien beim Hochladen, die Verarbeitung von Datendateien, wenn diese verfügbar werden, und die Synchronisierung von S3-Objekten mit anderen Datenspeichern. Sie können außerdem Ereignisbenachrichtigungen anhand von Objektnamenpräfixen und -suffixen einrichten. Zum Beispiel können Sie wahlweise Benachrichtigungen über Objektnamen erhalten, die mit "images/" beginnen.

F: Was ist in einer Amazon S3-Ereignisbenachrichtigung enthalten?

Eine detaillierte Beschreibung der Informationen in Amazon S3-Ereignisbenachrichtigungen finden Sie unter dem Thema Amazon S3-Ereignisbenachrichtigungen konfigurieren im Amazon-S3-Entwicklerhandbuch.

F: Wie kann ich Amazon S3-Ereignisbenachrichtigungen einrichten?

Eine detaillierte Beschreibung der Konfiguration von Ereignisbenachrichtigungen finden Sie unter dem Thema Amazon S3-Ereignisbenachrichtigungen konfigurieren im Amazon S3-Entwicklerhandbuch. Weitere Informationen über AWS-Messaging-Services finden Sie in der Amazon SNS-Dokumentation und der Amazon SQS-Dokumentation.

F: Was kostet die Nutzung von Amazon S3-Ereignisbenachrichtigungen?

Für die Nutzung von Amazon S3-Ereignisbenachrichtigungen werden keine zusätzlichen Gebühren berechnet. Sie zahlen lediglich für die Nutzung von Amazon SNS oder Amazon SQS für die Lieferung von Ereignisbenachrichtigungen oder für die Ausführung einer AWS Lambda-Funktion. Besuchen Sie die Seiten mit den Preisen für Amazon SNS, Amazon SQS oder AWS Lambda, um Einzelheiten zu den Preisen für diese Services zu finden.

Amazon S3 Transfer Acceleration

F: Was ist S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration ermöglicht die schnelle, einfache und sichere Übertragung von Dateien über große Entfernungen zwischen Ihrem Client und Ihrem Amazon S3-Bucket. S3 Transfer Acceleration nutzt die weltweit verteilten AWS-Edge-Standorte von Amazon CloudFront. Wenn Daten an einem AWS-Edge-Standort eintreffen, werden sie über einen optimierten Netzwerkpfad an Ihren Amazon S3-Bucket weitergeleitet.

F: Was sind die ersten Schritte bei S3 Transfer Acceleration?

Um mit der Nutzung von S3 Transfer Acceleration zu beginnen, aktivieren Sie S3 Transfer Acceleration in einem S3-Bucket mithilfe der Amazon S3-Konsole, der Amazon S3-API oder der AWS CLI. Nachdem S3 Transfer Acceleration aktiviert wurde, können Sie mit Ihren Amazon S3-PUT- und -GET-Anforderungen auf den Endpunkt-Domain-Namen „s3-accelerate“ verweisen. Ihre Anwendung für die Datenübertragung muss einen der beiden folgenden Endpunkttypen verwenden, um auf den Bucket für schnellere Datenübertragung zuzugreifen: .s3-accelerate.amazonaws.com oder .s3-accelerate.dualstack.amazonaws.com für den „Dual Stack“-Endpunkt. Wenn Sie die Standard-Datenübertragung verwenden möchten, können Sie weiterhin die regulären Endpunkte verwenden.

Es gibt bestimmte Einschränkungen dazu, welche Buckets S3 Transfer Acceleration unterstützen. Weitere Informationen finden Sie im Amazon S3-Entwicklerhandbuch.

F: Wie schnell ist S3 Transfer Acceleration?

Mit S3 Transfer Acceleration können Sie Ihre Bandbreite voll nutzen, die Auswirkungen der Entfernung auf den Durchsatz minimieren und die gleichbleibend schnelle Datenübertragung zu Amazon S3 unabhängig vom Standort des Clients sicherstellen. Die Beschleunigung hängt dabei vor allem von der verfügbaren Bandbreite, der Entfernung zwischen Quelle und Ziel und den Paketverlustraten im Netzwerkpfad ab. Allgemein ist die Beschleunigung höher, wenn die Quelle weiter vom Ziel entfernt ist, wenn es mehr verfügbare Bandbreite gibt und/oder wenn das Objekt größer ist.

Ein Kunde hat eine fünfzigprozentige Reduzierung der Durchschnittszeit für die Aufnahme von 300 MB an Dateien von einer globalen Benutzerbasis, die in den USA, in Europa und in Teilen Asiens verteilt ist, zu einem Bucket in der Asien-Pazifik-Region (Sydney) gemessen. Ein anderer Kunde hat Fälle beobachtet, in denen die Leistung für Benutzer in Südostasien und Australien beim Hochladen von 250 MB an Dateien (zu jeweils 50 MB) in einen S3-Bucket in der Region USA Ost (Nord-Virginia) um 500 % erhöht wurde.

Mit dem Geschwindigkeitsvergleichstool erhalten Sie eine Vorschau der Leistungsvorteile für Ihren Standort.

F: Wer sollte S3 Transfer Acceleration verwenden?

S3 Transfer Acceleration wurde entwickelt, um die Übertragungsgeschwindigkeiten aus aller Welt in S3-Buckets zu optimieren. Wenn Sie Daten in einen zentralisierten Bucket von geografisch verteilten Standorten aus hochladen oder wenn Sie regelmäßig mehrere GB oder TB an Daten über Kontinente hinweg übertragen, können Sie mit S3 Transfer Acceleration Stunden oder Tage an Datenübertragungszeit sparen.

F: Wie sicher ist S3 Transfer Acceleration?

S3 Transfer Acceleration bietet die gleiche Sicherheit wie reguläre Übertragungen zu Amazon S3. Alle Amazon S3-Sicherheitsfunktionen, zum Beispiel Zugriffsbeschränkungen basierend auf der IP-Adresse eines Clients, werden ebenfalls unterstützt. S3 Transfer Acceleration kommuniziert mit Clients über Standard-TCP und erfordert keine Firewall-Änderungen. An AWS-Edge-Standorten werden keine Daten gespeichert.

F: Was geschieht, wenn S3 Transfer Acceleration nicht schneller ist als eine reguläre Amazon S3-Übertragung?

Jedes Mal, wenn Sie S3 Transfer Acceleration zum Hochladen eines Objekts verwenden, überprüfen wir, ob S3 Transfer Acceleration wahrscheinlich schneller als eine reguläre Amazon S3-Übertragung sein wird. Wenn wir ermitteln, dass S3 Transfer Acceleration wahrscheinlich nicht schneller als eine reguläre Amazon S3-Übertragung des gleichen Objekts in die gleiche AWS-Zielregion sein wird, erheben wir für die Verwendung von S3 Transfer Acceleration für diese Übertragung keine Gebühr und umgehen möglicherweise das S3 Transfer Acceleration-System für diesen Upload.

F: Kann ich S3 Transfer Acceleration für mehrteilige Uploads verwenden?

Ja, S3 Transfer Acceleration unterstützt alle Funktionen auf Bucket-Ebene, einschließlich mehrteiliger Uploads.

F: Wie kann ich mich zwischen S3 Transfer Acceleration und PUT/POST von Amazon CloudFront entscheiden?

S3 Transfer Acceleration optimiert das TCP-Protokoll und fügt zusätzliche Informationen zwischen dem Client und dem S3-Bucket hinzu, sodass S3 Transfer Acceleration die bessere Wahl ist, wenn ein höherer Durchsatz gewünscht wird. Wenn Sie Objekte haben, die kleiner als 1 GB sind, oder wenn der gesamte Datensatz kleiner als 1 GB ist, sollten Sie für eine optimale Leistung die PUT-/POST-Befehle von Amazon CloudFront verwenden.

F: Wie kann ich mich zwischen S3 Transfer Acceleration und der AWS Snow-Familie (Snowball, Snowball Edge und Snowmobile) entscheiden?

Die AWS Snow-Familie ist ideal für Kunden, die große Datenstapel in einer einzigen Übertragung verschieben. AWS Snowball hat normalerweise eine Durchlaufzeit von fünf bis sieben Tagen. S3 Transfer Acceleration kann über eine voll ausgenutzte 1-Gbps-Leitung in der gleichen Zeit normalerweise bis zu 75 TB übertragen. Allgemein ist S3 Transfer Acceleration eine gute Wahl, wenn die Übertragung über das Internet mehr als eine Woche dauert oder wenn es wiederkehrende Übertragungsaufträge gibt und mehr als 25 Mbps an Bandbreite verfügbar sind. Sie können aber auch beide Methoden verwenden: Führen Sie die ersten umfangreichen Datenübertragungen mit AWS Snowball (bzw. mit einer Reihe von AWS Snowball-Übertragungen) und danach inkrementelle Änderungen mit S3 Transfer Acceleration durch.

F: Kann S3 Transfer Acceleration AWS Direct Connect ergänzen?

AWS Direct Connect ist eine gute Wahl für Kunden, die ein privates Netzwerk benötigen oder Zugriff auf den AWS Direct Connect-Datenaustausch haben. S3 Transfer Acceleration eignet sich vor allem für das Versenden von Daten von verteilten Client-Standorten über das öffentliche Internet oder in Fällen, in denen der Durchsatz aufgrund variabler Netzwerkbedingungen schlecht ist. Einige AWS Direct Connect-Kunden verwenden S3 Transfer Acceleration für Übertragungen an Filialen, die möglicherweise unter einer schlechten Internetleistung leiden.

F: Kann S3 Transfer Acceleration das AWS Storage Gateway oder das Gateway eines Drittanbieters ergänzen?

Wenn Sie das Bucket-Ziel im Gateway Ihres Drittanbieters mit dem Domänennamen eines S3 Transfer Acceleration-Endpunkts konfigurieren können, können Sie diesen Vorteil nutzen.

Weitere Informationen zur AWS-Implementierung erhalten Sie unter Storage Gateway – Häufig gestellte Fragen im Abschnitt zu Dateien.

F: Kann S3 Transfer Acceleration integrierte Software von Drittanbietern ergänzen?

Ja. Softwarepakete, die eine direkte Verbindung mit Amazon S3 herstellen, können S3 Transfer Acceleration nutzen, wenn sie ihre Aufträge an Amazon S3 senden.

Weitere Informationen über Storage Partner Solutions »

F: Ist S3 Transfer Acceleration HIPAA-fähig?

Ja, AWS hat sein HIPAA-Compliance-Programm auf Amazon S3 Transfer Acceleration als HIPAA-fähigen Service ausgeweitet. Wenn Sie ein aktives Business Associate Agreement (BAA) mit AWS haben, können Sie Amazon S3 Transfer Acceleration verwenden, um die schnelle, einfache und sichere Übertragung von Dateien, darunter auch geschützte Gesundheitsinformationen (Protected Health Information, PHI), über weite Entfernungen zwischen Ihrem Client und Ihrem Amazon S3-Bucket zu ermöglichen.

Weitere Informationen zur HIPAA-Konformität »

Sicherheit

F: Wie sicher sind meine Daten in Amazon S3?     

Amazon S3 ist standardmäßig sicher. Bei der Erstellung haben nur die Ressourcenbesitzer Zugriff auf die von ihnen erstellten Amazon S3-Ressourcen. Amazon S3 unterstützt Funktionen zur Benutzerauthentifizierung, um den Zugriff auf die Daten zu kontrollieren. Sie haben Zugriff auf die Kontrollmechanismen wie die Bucket-Richtlinien und Zugriffskontrolllisten (ACLs), um bestimmten Benutzern und Benutzergruppen selektiv Zugriffsrechte zu erteilen. Die Amazon S3-Konsole hebt Ihre öffentlich zugänglichen Buckets hervor, zeigt die Quelle des öffentlichen Zugangs an und warnt Sie außerdem, wenn durch Änderungen an Bucket-Richtlinien oder Bucket-Zugriffssteuerungslisten Ihr Bucket öffentlich zugänglich wird. Sie sollten Block Public Access für alle Konten und Buckets aktivieren, von denen Sie nicht möchten, dass sie öffentlich zugänglich sind. 

Über SSL-Endpunkte, die das HTTPS-Protokoll verwenden, können Sie sicher Ihre Daten in Amazon S3 hoch- bzw. herunterladen. Wenn Sie zusätzliche Sicherheit benötigen, können Sie mit der Option Server Side Encryption (SSE) Daten während der Speicherung verschlüsseln. Sie können Ihre Amazon S3-Buckets so konfigurieren, dass Objekte vor dem Speichern automatisch verschlüsselt werden, wenn die eingehenden Speicheranforderungen keine Verschlüsselungsinformationen enthalten. Alternativ können Sie mit Ihren eigenen Verschlüsselungsbibliotheken Daten vor dem Speichern in Amazon S3 verschlüsseln.

Weitere Informationen zur Sicherheit auf AWS finden Sie auf der Seite AWS Security. Sicherheitsinformationen zu S3 finden Sie auf der Seite S3 Security oder im S3 Security Best Practices Guide.

F: Wie kann ich den Zugriff auf meine über Amazon S3 gespeicherten Daten kontrollieren?

Den Kunden stehen vier Mechanismen zur Verfügung, mit denen sie den Zugriff auf Amazon S3-Ressourcen kontrollieren können: IAM-Richtlinien (Identity and Access Management), Bucket-Richtlinien, ACLs (Access Control Lists bzw. Zugriffskontrolllisten) und die Abfrage-String-Authentifizierung. IAM ermöglicht es Unternehmen mit großen Mitarbeiterzahlen, eine Vielzahl an Benutzern in einem einzelnen AWS-Konto zu erstellen und zu verwalten. Mit IAM-Richtlinien können Kunden IAM-Benutzern umfangreiche Kontrollfunktionen für den Zugriff auf ihren Amazon S3-Bucket oder auf Amazon S3-Objekte bieten und verfügen gleichzeitig über die vollständige Kontrolle über sämtliche Aktionen, die die Benutzer durchführen. Bei Bucket-Richtlinien definieren Kunden Regeln, die umfassend für alle Anfragen an ihre Amazon S3-Ressourcen angewandt werden. So kann beispielsweise festgelegt werden, dass für ein Subset von Amazon S3-Ressourcen Schreibberechtigungen gewährt werden. Kunden können den Zugriff auch basierend auf bestimmten Aspekten der Anforderung, z. B. HTTP-Referrer und IP-Adresse, einschränken. Mit ACLs können Kunden spezifische Genehmigungen (d. h. READ (Lesen), WRITE (Schreiben), und FULL_CONTROL (volle Kontrolle)) für bestimmte Nutzer und einzelne Buckets oder Objekte festlegen. Bei der Abfrage-String-Authentifizierung haben Kunden die Möglichkeit, eine URL zu einem Amazon S3-Objekt zu erstellen, die nur für einen begrenzten Zeitraum gültig ist. Nähere Informationen zu den unterschiedlichen Kontrollrichtlinien in Amazon S3 finden Sie im Amazon S3 Developer Guide unter Access Control.

F: Unterstützt Amazon S3 Funktionen zur Datenzugriffsprüfung?

Ja, Kunden können optional Amazon S3-Buckets konfigurieren, um Zugriffsprotokolle für sämtliche Zugriffe zu erstellen. Alternativ können Kunden, die IAM-Informationen/Informationen über die Identität von Benutzern in ihren Protokollen erfassen müssen, AWS CloudTrail-Datenereignisse konfigurieren.

Diese Zugriffsprotokolle können für die Durchführung von Audits verwendet werden und enthalten Details zu den jeweiligen Datenabrufen, wie beispielsweise die Art des Abrufs, die bei dem Abruf verwendeten Dateien oder die das Datum und die Uhrzeit des Abrufs.

F: Welche Möglichkeiten der Datenverschlüsselung stehen mir in Amazon S3 zur Verfügung?

Sie können die Verschlüsselung von Daten mit SSE-S3, SSE-C, SSE-KMS oder einer Client-Bibliothek wie beispielsweise Amazon S3 Encryption Client wählen. Mit allen vier Möglichkeiten können Sie vertrauliche Daten während der Speicherung auf Amazon S3 verschlüsseln.

SSE-S3 bietet eine integrierte Lösung, wobei Amazon wichtige Aspekte von Management und Schutz übernimmt und mehrere Sicherheitsebenen verwendet. Wenn Sie möchten, dass sich Amazon um die Verwaltung Ihrer Schlüssel kümmert, sollten Sie SSE-S3 auswählen.

SSE-C ermöglicht Ihnen, Amazon S3 beim Verschlüsseln und Entschlüsseln Ihrer Objekte zu nutzen und gleichzeitig die Kontrolle über die Verschlüsselungscodes zu behalten. Mit SSE-C brauchen Sie keine clientseitige Bibliothek zu implementieren oder zu verwenden, um die Verschlüsselung und Entschlüsselung von Objekten durchzuführen, die Sie auf Amazon S3 speichern. Sie müssen aber die Schlüssel verwalten, die Sie an Amazon S3 senden, um Objekte zu ver- und entschlüsseln. Verwenden Sie SSE-C, wenn Sie Ihre eigenen Verschlüsselungscodes verwalten möchten, aber keine clientseitige Verschlüsselungsbibliothek implementieren oder nutzen möchten.

SSE-KMS ermöglicht Ihnen die Verwendung von AWS Key Management Service (AWS KMS) zum Verwalten Ihrer Verschlüsselungsschlüssel. Die Verwendung von AWS KMS zum Verwalten Ihrer Schlüssel bietet mehrere zusätzliche Vorteile. Mit AWS KMS gibt es separate Berechtigungen für die Verwendung des KMS-Schlüssels. Dies bietet sowohl eine zusätzliche Kontrollebene als auch Schutz gegen nicht autorisierten Zugriff auf die in Amazon S3 gespeicherten Objekte. AWS KMS bietet einen Audit-Trail, sodass Sie sehen können, wer Ihren Schlüssel wann benutzt hat, um auf welches Objekt zuzugreifen, und welche fehlgeschlagenen Versuche es von Benutzern ohne Berechtigung gab, die Daten zu entschlüsseln. Außerdem bietet AWS KMS zusätzliche Sicherheitskontrollen zur Unterstützung der Kunden beim Einhalten der Branchenanforderungen PCI-DSS, HIPAA/HITECH und FedRAMP.

Durch die Verwendung einer Client-Bibliothek für die Verschlüsselung wie beispielsweise Amazon S3 Encryption Client behalten Sie die Kontrolle über die Schlüssel und führen Verschlüsselung und Entschlüsselung von Objekten clientseitig mit einer Verschlüsselungsbibliothek Ihrer Wahl durch. Manche Kunden möchten die vollständige Kontrolle über die Verschlüsselung und Entschlüsselung von Objekten behalten. In diesem Fall werden nur verschlüsselte Objekte über das Internet zu Amazon S3 gesendet. Verwenden Sie eine clientseitige Bibliothek, wenn Sie die Kontrolle über Ihre Verschlüsselungscodes behalten wollen, eine clientseitige Verschlüsselungsbibliothek implementieren oder verwenden können und Ihre Objekte verschlüsseln müssen, bevor sie zur Speicherung zu Amazon S3 gesendet werden.

Nähere Informationen zur Verwendung der Verschlüsselung mit Amazon S3 SSE-S3, SSE-C oder SSE-KMS finden Sie im Amazon S3-Entwicklerhandbuch unter Verwenden der Datenverschlüsselung.

F: Kann ich bei Nutzung von Amazon S3 die Datenschutzbestimmungen der EU einhalten?

Kunden haben die Wahl, sämtliche Daten in der EU zu speichern, indem sie die Region EU (Frankfurt), EU (Irland), EU (London) oder EU (Paris) wählen. Sie können auch S3 auf Outposts verwenden, um alle Ihre Daten On-Premise auf dem Outpost zu halten, und Sie können wählen, ob Sie Daten zwischen Outposts oder in eine AWS Region übertragen möchten. Dennoch liegt es in Ihrer Verantwortung sicherzustellen, dass Sie die Datenschutzbestimmungen der EU einhalten. Weitere Informationen finden Sie im AWS GDPR Center. Wenn Sie spezifischere Standortanforderungen oder andere Datenschutzbestimmungen haben, die Sie dazu verpflichten, Daten an einem Ort aufzubewahren, an dem es keine AWS Region gibt, können Sie S3 auf Outposts verwenden.

F: Was ist ein Amazon VPC-Endpunkt für Amazon S3?

Ein Amazon VPC-Endpunkt für Amazon S3 ist eine logische Entität innerhalb einer VPC, die die Verbindung zu S3 über das globale Amazon-Netzwerk ermöglicht. Es gibt zwei Arten von VPC-Endpunkten für S3 - Gateway-VPC-Endpunkte und Schnittstellen-VPC-Endpunkte. Gateway-Endpunkte sind ein Gateway, das Sie in Ihrer Routentabelle angeben, um von Ihrer VPC über das Amazon-Netzwerk auf S3 zuzugreifen. Schnittstellenendpunkte erweitern die Funktionalität von Gateway-Endpunkten, indem sie private IP-Adressen verwenden, um Anforderungen aus Ihrer VPC, lokal oder aus einer anderen AWS-Region an S3 weiterzuleiten. Weitere Informationen finden Sie in der Dokumentation.

F: Kann ich einem bestimmten Amazon VPC-Endpunkt Zugriff auf meinen Amazon S3-Bucket gewähren?

Sie können den Zugriff auf Ihren Bucket von einem bestimmten Amazon VPC-Endpunkt oder eine Gruppe von Endpunkten aus mithilfe von Amazon S3-Bucket-Richtlinien begrenzen. S3-Bucket-Richtlinien unterstützen nun die Bedingung aws:sourceVpce, mit der Sie den Zugriff beschränken können. Weitere Details und Beispielrichtlinien finden Sie unter Nutzung von VPC-Endpunkten.

F: Was ist AWS PrivateLink für Amazon S3?

AWS PrivateLink für S3 bietet private Konnektivität zwischen Amazon S3 und der On-Premise-Umgebung. Sie können Schnittstellen-VPC-Endpunkte für S3 in Ihrer VPC bereitstellen, um Ihre lokalen Anwendungen über AWS Direct Connect oder AWS VPN direkt mit S3 zu verbinden. Sie müssen keine öffentlichen IP-Adressen mehr verwenden, keine Firewall-Regeln ändern oder ein Internet-Gateway konfigurieren, um aus der On-Premise-Umgebung auf S3 zuzugreifen. Weitere Informationen finden Sie in der Dokumentation.

F: Wie kann ich mit der Nutzung der Schnittstellen-VPC-Endpunkte für S3 beginnen?

Sie können einen Schnittstellen-VPC-Endpunkt mithilfe der AWS VPC-Verwaltungskonsole, der AWS-CLI, des AWS SDK oder der API erstellen. Weitere Informationen finden Sie in der Dokumentation.

F: Wann sollte ich Gateway-VPC-Endpunkte anstelle von AWS PrivateLink-basierten Schnittstellen-VPC-Endpunkten auswählen?

Wir empfehlen, dass Sie Schnittstellen-VPC-Endpunkte verwenden, um von lokal oder von einer VPC in einer anderen AWS-Region auf S3 zuzugreifen. Für Ressourcen, die über VPC in derselben AWS-Region wie S3 auf S3 zugreifen, empfehlen wir die Verwendung von Gateway-VPC-Endpunkten, da diese nicht in Rechnung gestellt werden. Weitere Informationen finden Sie in der Dokumentation.

F: Kann ich sowohl Schnittstellenendpunkte als auch Gateway-Endpunkte für S3 in derselben VPC verwenden?

Ja. Wenn Sie über einen vorhandenen Gateway-VPC-Endpunkt verfügen, erstellen Sie einen Schnittstellen-VPC-Endpunkt in Ihrer VPC und aktualisieren Sie Ihre Clientanwendungen mit den spezifischen VPC-Endpunktnamen. Wenn Ihre VPC-Endpunkt-ID des Schnittstellenendpunkts beispielsweise vpce-0fe5b17a0707d6abc-29p5708s in der Region us-east-1 lautet, lautet Ihr endpunktspezifischer DNS-Name vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce. amazonaws.com. In diesem Fall werden nur die Anforderungen an die spezifischen Namen des VPC-Endpunkts über die Schnittstellen-VPC-Endpunkte an S3 weitergeleitet, während alle anderen Anforderungen weiterhin über den Gateway-VPC-Endpunkt weitergeleitet werden. Weitere Informationen finden Sie in der Dokumentation.

F: Was ist Amazon Macie und wie kann ich es benutzen, um meine Daten zu schützen?

Amazon Macie ist ein KI-gesteuerter Sicherheitsservice, der Ihnen dabei hilft, Datenverlust zu vermeiden, indem er vertrauliche, in Amazon S3 gespeicherte Daten automatisch erkennt, klassifiziert und schützt. Amazon Macie verwendet Machine Learning für die Neuorganisation vertraulicher Daten wie persönliche identifizierbare Informationen (Personally Identifiable Information, PII) oder geistiges Eigentum, weist einen Geschäftswert zu und stellt Transparenz bezüglich des Speicherorts dieser Daten sowie des Verwendens dieser Daten in Ihrer Organisation bereit. Amazon Macie überwacht fortlaufend Datenzugriffsaktivitäten für Anomalien und stellt Warnungen bereit, wenn ein Risiko durch einen nicht autorisierten Zugriff oder unbeabsichtigte Datenlecks erkannt wird.

Sie können Amazon Macie zum Schutz vor Sicherheitsbedrohungen verwenden, indem Sie Ihre Daten und Kontoanmeldeinformationen fortlaufend überwachen. Amazon Macie bietet Ihnen eine automatische und einfache Methode zum Erkennen und Klassifizieren Ihrer Geschäftsdaten. Es stellt Kontrollen mithilfe vorlagenbasierter Lambda-Funktionen bereit, um den Zugriff zu widerrufen oder Passwort-Zurücksetzungsrichtlinien beim Erkennen eines verdächtigen Verhaltens oder nicht autorisierten Datenzugriffs auf Entitäten oder Drittanbieter-Anwendungen auszulösen. Wenn Warnungen generiert werden, können Sie Amazon Macie für die Vorfallreaktion verwenden und dabei Amazon CloudWatch Events nutzen, um schnell Maßnahmen zum Schutz Ihrer Daten zu ergreifen. Weitere Informationen finden Sie im Amazon Macie-Benutzerhandbuch.

F. Was ist Access Analyzer for S3 und wie funktioniert es?

Access Analyzer for S3 ist eine Funktion, die Ihre Zugriffsrichtlinien überwacht und sicherstellt, dass die Richtlinien nur den beabsichtigten Zugriff auf Ihre S3-Ressourcen ermöglichen. Access Analyzer for S3 wertet Ihre Bucket-Zugriffsrichtlinien aus und ermöglicht es Ihnen, Buckets mit potenziell unbeabsichtigtem Zugriff zu erkennen und schnell zu korrigieren.

Access Analyzer for S3 warnt, wenn ein Bucket vorhanden ist, der so konfiguriert ist, dass er den Zugriff auf Personen im Internet ermöglicht oder der mit anderen AWS-Konten geteilt wird. Sie erhalten Einblicke oder "Kenntnisse" über die Quelle und die Ebene des öffentlichen oder gemeinsamen Zugangs. Access Analyzer for S3 informiert Sie beispielsweise pro-aktiv, wenn Lese- oder Schreibzugriffe unbeabsichtigt über eine Zugriffskontrollliste (ACL) oder eine Bucket-Richtlinie bereitgestellt wurden. Mit diesen Kenntnissen können Sie die beabsichtigte Zugriffsrichtlinie sofort festlegen oder wiederherstellen.

Wenn Sie Ergebnisse überprüfen, die einen potenziell gemeinsamen Zugriff auf einen Bereich anzeigen, können Sie den gesamten öffentliche Zugriff auf den Bereich mit einem einzigen Klick in der S3-Verwaltungskonsole blockieren. Sie können auch einen Drilldown in die Berechtigungseinstellungen auf Bucket-Ebene ausführen, um detaillierte Zugriffsebenen zu konfigurieren. Zu Prüfungszwecken können die Ergebnisse von Access Analyzer for S3 als CSV-Bericht heruntergeladen werden. Weitere Informationen finden Sie unter IAM Access Analyzer.

S3 Access Points

Was ist Amazon S3 Acces Points?

Heutzutage verwalten Kunden den Zugriff auf ihre S3-Buckets mithilfe einer einzigen Bucket-Richtlinie, die den Zugriff für Hunderte von Anwendungen mit unterschiedlichen Berechtigungsstufen steuert.

Amazon S3 Access Points vereinfacht die Verwaltung des Datenzugriffs in großem Maßstab für Anwendungen, die gemeinsam genutzte Datensätze in S3 verwenden. Mit S3 Access Points können Sie jetzt auf einfache Weise Hunderte von Access Points pro Bucket erstellen und so den Zugriff auf gemeinsam genutzte Datensätze neu bereitstellen. Access Points bieten einen benutzerdefinierten Pfad zu einem Bucket mit einem eindeutigen Hostnamen und einer Zugriffsrichtlinie, die die spezifischen Berechtigungen und Netzwerkkontrollen für alle über den Access Point gestellten Anforderungen erzwingen. Weitere Informationen finden Sie auf der Seite S3 Access Points und im Benutzerhandbuch.

F: Warum sollte ich einen Access Point verwenden?

S3-Zugriffspunkte vereinfachen die Verwaltung des Datenzugriffs für Ihren Anwendungssatz auf Ihre freigegebenen Datensätze in S3. Sie müssen keine allgemeingültige, komplexe Bucket-Richtlinie mehr verwalten, die Hunderte verschiedener Berechtigungsregeln enthält, die geschrieben, gelesen, nachverfolgt und geprüft werden müssen. Mit S3 Access Points können Sie anwendungsbezogene Zugriffspunkte erstellen, die den Zugriff auf freigegebene Datensätze über anwendungsspezifische Richtlinien gewähren.

Mit Access Points können Sie eine große Bucket-Richtlinie in separate diskrete Access Point-Richtlinien für jede Anwendung zerlegen, die auf den gemeinsam genutzten Datensatz zugreifen muss. Dadurch können Sie sich darauf konzentrieren, die richtige Zugriffsrichtlinie für eine Anwendung zu entwickeln, und müssen sich keine Gedanken darüber machen, ob der Zugriff anderer Anwendungen auf den freigegebenen Datensatz möglicherweise unterbrochen wird. Sie können auch eine Service Control Policy (SCP) erstellen und angeben, dass alle Access Points auf eine Virtual Private Cloud (VPC) beschränkt sein sollen. Dadurch werden Ihre Daten wie durch eine Firewall innerhalb Ihrer privaten Netzwerke geschützt. 

F: Wie funktionieren S3 Access Points?

Jeder S3-Zugriffspunkt ist mit einer für einen Anwendungsfall oder eine Anwendung spezifischen Zugriffsrichtlinie konfiguriert, und ein Bucket kann Hunderte von Zugriffspunkten enthalten. Sie können beispielsweise einen Zugriffspunkt für Ihren S3-Bucket erstellen, der Gruppen von Benutzern oder Anwendungen Zugriff auf Ihren Data Lake gewährt. Ein Access Point kann einen einzelnen Benutzer oder eine einzelne Anwendung oder Gruppen von Benutzern oder Anwendungen unterstützen, wodurch die Verwaltung der einzelnen Access Points getrennt erfolgen kann. 

Jeder Zugriffspunkt ist einem einzelnen Bucket zugeordnet und enthält eine Netzwerkursprungskontrolle sowie eine Kontrolle zum Blockieren öffentlicher Zugriffe. Sie können z. B. einen Zugriffspunkt mit einer Netzwerkursprungskontrolle erstellen, die den Speicherzugriff nur über Ihre Virtual Private Cloud zulässt, einem logisch isolierten Bereich in der AWS Cloud. Sie können auch einen Zugriffspunkt mit einer Zugriffspunktrichtlinie erstellen, die so konfiguriert ist, dass nur der Zugriff auf Objekte mit bestimmten Präfixen oder auf Objekte mit bestimmten Tags erlaubt ist.

Der Zugriff auf Daten in gemeinsam genutzten Bereichen kann über einen Zugangspunkt auf zwei Arten erfolgen. Für S3-Objektoperationen können Sie den ARN des Zugangspunkts anstelle eines Bucket-Namens verwenden. Für Anfragen, die einen Bucket-Namen im Standard-S3-Bucket-Namensformat erfordern, können Sie stattdessen einen Zugriffspunkt-Alias verwenden. Aliase für S3 Zugriffspunkte werden automatisch generiert und sind überall dort, wo Sie einen Bucket-Namen für den Datenzugriff verwenden, mit S3 Bucket-Namen austauschbar. Jedes Mal, wenn Sie einen Zugriffspunkt für einen Bucket erstellen, generiert S3 einen neuen Zugriffspunkt-Alias. Eine vollständige Liste der kompatiblen Vorgänge und AWS-Services finden Sie in der S3-Dokumentation.

F: Gibt es ein Kontingent für die Anzahl der Access Points, die ich erstellen kann?

Standardmäßig können Sie 1 000 Access Points pro Region pro Konto erstellen. Im Gegensatz zu den S3-Buckets gibt es keine festgelegte Begrenzung für die Anzahl der Access Points pro AWS-Konto. Navigieren Sie zum Erhöhen dieses Kontingents zu AWS Service Quotas.

F: Wie werden Anfragen bei Verwendung eines Access Points autorisiert?

S3-Zugangspunkte haben ihre eigene IAM-Zugangspunktrichtlinie. Sie schreiben Zugangspunktrichtlinie wie eine Bucket-Richtlinie, wobei Sie die Zugangspunk-ARN als Ressource verwenden. Zugangspunktrichtlinie können den Zugriff auf die vom Access Point angeforderten S3-Daten gewähren oder einschränken. Amazon S3 wertet alle relevanten Richtlinien aus, einschließlich der Richtlinien für Benutzer, Bucket, Zugriffspunkt, VPC-Endpunkt und Service-Kontrollrichtlinien sowie der Zugriffssteuerungslisten, um zu entscheiden, ob die Anforderung autorisiert werden soll.

F: Wie schreibe ich Access-Point-Richtlinien?

Sie können eine Access Point-Richtlinie genau wie eine Bucket-Richtlinie schreiben und IAM-Regeln verwenden, um die Berechtigungen und die Access Point-ARN im Richtliniendokument zu steuern.

F: Inwiefern unterscheidet sich die Einschränkung des Zugriffs auf bestimmte VPCs mithilfe von Netzwerkursprungskontrollen für Access Points von der Einschränkung des Zugriffs auf VPCs mithilfe der Bucket-Richtlinie?

Sie können weiterhin Bucket-Richtlinien verwenden, um den Bucket-Zugriff auf bestimmte VPCs zu beschränken. Zugriffspunkte bieten eine einfachere und überprüfbare Möglichkeit, alle oder einen Teil der Daten in einem gemeinsam genutzten Datensatz mithilfe von API-Steuerelementen für alle Anwendungen in Ihrer Organisation auf Nur-VPC-Datenverkehr zu sperren. Mithilfe einer AWS Organizations Service Control-Richtlinie (Service Control Policy, SCP) können Sie festlegen, dass jeder in Ihrer Organisation erstellte Zugriffspunkt den API-Parameterwert für die Netzwerkursprungskontrolle auf "vpc" setzt. Jeder neu erstellte Zugangspunkt beschränkt dann automatisch den Datenzugriff auf den reinen VPC-Verkehr. Es ist keine zusätzliche Zugriffsrichtlinie erforderlich, um sicherzustellen, dass Datenanforderungen nur von bestimmten VPCs verarbeitet werden.

F: Kann ich eine Richtlinie "Kein Internetzugriff" für alle Access Points in meinem Unternehmen durchsetzen?

Ja. Um eine Richtlinie "Kein Internetzugriff auf Daten" für Zugriffspunkte in Ihrer Organisation zu erzwingen, sollten Sie sicherstellen, dass alle Zugriffspunkte nur den VPC-Zugriff erzwingen. Dazu schreiben Sie einen AWS-SCP, der nur den Wert "vpc" für den Parameter "Network Origin Control" in der API create_access_point() unterstützt. Wenn Sie zuvor mit dem Internet verbundene Zugangspunkte erstellt haben, können diese entfernt werden. Sie müssen auch die Bucket-Richtlinie in jedem Ihrer Buckets ändern, um den Internetzugang über den Bucket-Hostnamen direkt auf Ihren Bucket weiter einzuschränken. Da andere AWS-Services möglicherweise direkt auf Ihren Bucket zugreifen, stellen Sie sicher, dass Sie den Zugriff so einrichten, dass die gewünschten AWS-Services zugelassen werden, indem Sie die Richtlinie so ändern, dass diese AWS-Services zugelassen werden. Beispiele hierzu finden Sie in der S3-Dokumentation.

F: Kann ich den direkten Zugriff auf einen Bucket mithilfe des Bucket-Hostnamens vollständig deaktivieren?

Derzeit nicht, aber Sie können eine Bucket-Richtlinie anhängen, die Anforderungen ablehnt, die nicht über einen Zugriffspunkt gestellt wurden. Weitere Informationen finden Sie in der S3-Dokumentation.

F: Kann ich einen Zugriffspunkt aus einem Bucket ersetzen oder entfernen?

Ja. Wenn Sie einen Access Point entfernen, wird der Zugriff auf den zugeordneten Bucket über andere Access Points und über den Bucket-Hostnamen nicht unterbrochen.

Was sind die Kosten für Amazon S3-Access Points?

Für Zugriffspunkte oder Buckets, die Zugriffspunkte verwenden, fallen keine zusätzlichen Gebühren an. Es gelten die üblichen Amazon S3-Anfragetarife.

F: Welche ersten Schritte sind für S3 Access Points erforderlich?

Über die AWS-Managementkonsole, die AWS Command Line Interface (CLI), die API (Application Programming Interface) und den SDK-Client (AWS Software Development Kit) können Sie Access Points für neue Buckets sowie für Ihre vorhandenen Buckets erstellen. Weitere Informationen zu S3 Access Points finden Sie im Benutzerhandbuch.

Zuverlässigkeit und Datenschutz

F: Wie stabil ist Amazon S3?

Die Speicherklassen Amazon S3 Standard, S3 Standard-IA, S3 Intelligent Tiering, S3 One Zone-IA, S3 Glacier und S3 Glacier Deep Archive sind alle für eine Objektlebensdauer von 99,999999999 % (11 9en) über ein bestimmtes Jahr konzipiert. Diese Zuverlässigkeitsstufe entspricht einem jährlich zu erwartenden Objektverlust von 0,000000001 %. Wenn Sie beispielsweise 10 000 000 Objekte mit Amazon S3 speichern, können Sie davon ausgehen, dass im Durchschnitt alle 10 000 Jahre ein einziges Objekt verloren geht. S3 auf Outposts ist für die dauerhafte und redundante Speicherung von Daten über mehrere Geräte und Server auf Ihrem Outpost ausgelegt. Darüber hinaus sind Amazon S3 Standard, S3 Standard-IA, S3 Glacier und S3 Glacier Deep Archive so konzipiert, dass die Daten im Falle eines Verlusts der gesamten S3 Availability Zone erhalten bleiben.

Wie bei allen Umgebungen besteht die bewährte Methode darin, eine Sicherung anzulegen und Sicherheitsvorkehrungen gegen böswilliges oder versehentliches Löschen zu treffen. Für S3-Daten umfasst die bewährte Methode sichere Zugriffsberechtigungen, regionsübergreifende Replikation, Versioning und eine funktionierende, regelmäßig getestete Sicherung. 

F: Wie erreichen Amazon S3 und Amazon S3 Glacier eine Haltbarkeit von 99,999999999 %?

Die Speicherklassen Amazon S3 Standard, S3 Standard – IA und S3 Glacier speichern Ihre Objekte redundant auf mehreren Geräten in mindestens drei Availability Zones (AZs) in einer Amazon S3-Region, bevor SUCCESS gemeldet wird. Die Speicherklasse S3 One Zone – IA speichert Daten redundant auf mehreren Geräten innerhalb einer einzigen AZ. Diese Services sollen gleichzeitigen Geräteausfällen entgegenwirken, indem sie Redundanzverluste schnell erkennen und beheben und die Integrität Ihrer Daten regelmäßig anhand von Prüfsummen überprüfen.

F: Welche Prüfsummen wendet Amazon S3 an, um Datenkorruption festzustellen?

Amazon S3 verwendet eine Kombination von Content-MD5-Prüfsummen und zyklischer Redundanzprüfungen (CRCs) zum Entdecken von Datenkorruption. Amazon S3 führt diese Prüfsummen auf Daten im Ruhemodus aus und behebt alle Verfälschungen mittels redundanter Daten. Darüber hinaus berechnet der Dienst Prüfsummen des gesamten Netzwerkverkehrs, um beschädigte Datenpakete beim Speichern oder Empfangen von Daten festzustellen.

F: Was ist Versioning?

Versioning ermöglicht Ihnen, sämtliche Versionen aller in einem Amazon S3 Bucket gespeicherten Objekte zu speichern, abzurufen oder wiederherzustellen. Nachdem Versioning für einen Bucket aktiviert wurde, speichert Amazon S3 existierende Objekte jedes Mal, wenn Sie einen PUT-, POST-, COPY- oder DELETE-Vorgang an Ihnen durchführen. Standardmäßig rufen GET-Anforderungen die zuletzt geschriebene Version ab. Ältere Versionen eines überschriebenen oder gelöschten Objekts können wiederhergestellt werden, wenn die gewünschte Version in der Anforderung spezifiziert wird.

F: Weshalb sollte ich Versioning verwenden?

Amazon S3 bietet dem Kunden eine Speicherinfrastruktur mit hoher Beständigkeit. Versioning stellt eine zusätzliche Sicherheitsstufe bereit, da der Kunde versehentlich überschriebene oder gelöschte Objekte wiederherstellen kann. Auf diese Weise ist die Wiederherstellung nach unbeabsichtigten Nutzeraktionen oder Anwendungsausfällen problemlos möglich. Sie können Versioning auch zur Vorratsdatenspeicherung und Archivierung verwenden.

F: Was sind die ersten Schritte zur Verwendung von Versioning?

Als ersten Schritt zur Verwendung von Versioning können Sie eine Einstellung an Ihrem Amazon S3-Bucket ändern. Weitere Informationen zum Aktivieren des Versionings finden Sie in der technischen Dokumentation zu Amazon S3.

F: Wie schützt mich Versioning vor zufälliger Löschung meiner Objekte?

Wenn ein Benutzer einen DELETE-Vorgang für ein Objekt ausführt, können darauffolgende Standardanforderungen (ohne Versioning) das Objekt nicht mehr abrufen. Alle Versionen dieses Objekts sind jedoch weiter in Ihrem Amazon S3-Bucket gespeichert und können abgerufen oder wiederhergestellt werden. Nur der Eigentümer eines Amazon S3-Buckets kann eine Version permanent löschen. Sie können Lebenszyklusregeln festlegen, um die Lebensdauer und Kosten der Speicherung mehrerer Versionen Ihrer Objekte im Griff zu behalten.

F: Kann ich einen Papierkorb oder ein Rollback-Zeitfenster für meine Amazon S3-Objekte einrichten, um nach Lösch- oder Überschreibungsvorgängen eine Wiederherstellung zu ermöglichen?

Mithilfe von Lebenszyklusregeln und Versioning können Sie ein Rollback-Zeitfenster für Ihre Amazon S3-Objekte implementieren. Für Ihren Bucket mit aktiviertem Versioning können Sie beispielsweise eine Regel festlegen, gemäß der alle vorherigen Versionen im kostengünstigeren Glacier-Speicher archiviert und alle 100 Tage gelöscht werden. Dadurch erhalten Sie bei günstigeren Speicherkosten ein Zeitfenster von 100 Tagen, um Änderungen an Ihren Daten rückgängig zu machen.

F: Wie kann ich den optimalen Schutz meiner gespeicherten Versionen gewährleisten?

Die Löschfunktion des Versionings mit Multi-Factor Authentication (MFA) kann eine zusätzliche Sicherheitsebene schaffen. Standardmäßig benötigen Sie für alle Anforderungen an Ihren Amazon S3 Bucket Ihre Zugangsdaten für das AWS-Konto. Wenn Sie Versioning mit MFA Delete für Ihren Amazon S3 Bucket aktivieren, benötigen Sie zwei Formen der Authentifizierung, um eine Version eines Objekts dauerhaft zu löschen: Ihre AWS-Zugangsdaten und einen gültigen sechsstelligen Code sowie eine Seriennummer von einem Authentifizierungsgerät, das sich in Ihrem physischen Besitz befindet. Nähere Informationen zum Versioning mit MFA Delete, beispielsweise wie ein Authentifizierungsgerät erworben und aktiviert wird, finden Sie in der technischen Dokumentation zu Amazon S3 .

F: Wie wird mir die Nutzung von Versioning in Rechnung gestellt?

Normale Amazon S3-Tarife fallen für jede Version eines gespeicherten oder angeforderten Objekts an. Betrachten wir beispielsweise das folgende Szenario, um die Speicherkosten bei der Nutzung von Versioning zu veranschaulichen (unter der Annahme, dass der aktuelle Monat 31 Tage hat).

1) Tag 1 des Monats: Sie führen eine PUT-Anforderung von 4 GB (4.294.967.296 Bytes) für Ihren Bucket aus.
2) Tag 16 des Monats: Sie führen eine PUT-Anfrage von 5 GB (5 368 709 120 Bytes) innerhalb desselben Buckets aus und verwenden denselben Schlüssel wie bei der ursprünglichen PUT-Anfrage an Tag 1.

Bei der Analyse der Speicherkosten der obigen Vorgänge beachten Sie bitte, dass das 4-GB-Objekt von Tag 1 nicht aus dem Bucket gelöscht wird, wenn das 5-GB-Objekt am Tag 15 geschrieben wird. Das 4-GB-Objekt wird hingegen als ältere Version gespeichert und das 5-GB-Objekt wird zur zuletzt geschriebenen Version des Objekts in Ihrem Bucket. Am Ende des Monats:

Gesamtzahl verwendeter Byte-Stunden
[4 294 967 296 Bytes x 31 Tage x (24 Stunden/Tag)] + [5 368 709 120 Bytes x 16 Tage x (24 Stunden/Tag)] = 5 257 039 970 304 Byte-Stunden

Umrechnung in Gesamtzahl GB-Monate:
5.257.039.970.304 Byte-Stunden x (1 GB/1.073.741.824 Bytes) x (1 Monat/744 Stunden) = 6.581 GB-Monate

Die Kosten errechnen sich aus den aktuellen Tarifen für Ihre Region, die Sie auf der Seite mit der Preisübersicht für Amazon S3 finden.

Speicherklassen

S3 Intelligent-Tiering

F: Was ist S3 Intelligent-Tiering?

Amazon S3 Intelligent-Tiering (S3 Intelligent-Tiering) ist eine S3-Speicherklasse zur Optimierung der Speicherkosten durch automatisches Verschieben von Daten auf die kostengünstigste Zugriffsebene ohne Betriebsaufwand. Es ist der einzige Cloud-Speicher, der automatische Kosteneinsparungen durch Verschieben von Daten auf granularer Objektebene zwischen den Zugriffsebenen ermöglicht, wenn sich die Zugriffsmuster ändern. Dies ist die perfekte Speicherklasse, wenn Sie die Speicherkosten für Daten mit unbekannten oder sich ändernden Zugriffsmustern optimieren möchten. Gegen eine geringe monatliche Gebühr für Objektüberwachung und Automatisierung überwacht S3 Intelligent-Tiering die Zugriffsmuster und bewegt die Objekte automatisch von einer Ebene zur anderen. Bei S3 Intelligent-Tiering werden keine Abrufgebühren erhoben. Wenn später auf ein Objekt auf der Stufe für den weniger häufigen Zugriff zugegriffen wird, wird es automatisch zurück auf die Stufe für den häufigen Zugriff verschoben. Es werden keine Zusatzgebühren erhoben, wenn Objekte innerhalb der S3 Intelligent-Tiering-Speicherklasse zwischen Zugriffsstufen verschoben werden.

F: Wie funktioniert S3 Intelligent-Tiering?

Die Amazon-S3-Intelligent-Tiering-Speicherklasse wurde entwickelt, um die Speicherkosten zu optimieren, indem Daten automatisch auf die kostengünstigste Zugriffsebene verschoben werden, wenn sich die Zugriffsmuster ändern. Gegen eine geringe monatliche Gebühr für die Objektüberwachung und -automatisierung überwacht S3 Intelligent-Tiering die Zugriffsmuster und verschiebt Objekte, auf die nicht zugegriffen wurde, automatisch in kostengünstigere Zugriffsebenen. S3 Intelligent-Tiering bietet automatische Speicherkosteneinsparungen in zwei Zugriffsebenen mit niedriger Latenz und hohem Durchsatz. Für Daten, auf die asynchron zugegriffen werden kann, können die Kunden automatische Archivierungsfunktionen innerhalb der S3-Intelligent-Tiering-Speicherklasse aktivieren. Bei S3 Intelligent-Tiering werden keine Abrufgebühren erhoben. Wenn später auf ein Objekt auf der Stufe für den weniger häufigen Zugriff zugegriffen wird, wird es automatisch zurück auf die Stufe für den häufigen Zugriff verschoben. Es werden keine zusätzlichen Ebenen- oder Lebenszyklusgebühren erhoben, wenn Objekte innerhalb der S3 Intelligent-Tiering-Speicherklasse zwischen Zugriffsstufen verschoben werden.

S3 Intelligent-Tiering arbeitet mit der Speicherung von Objekten in vier Zugriffsebenen: zwei Zugriffsebenen mit niedriger Latenz, die für häufige und seltene Zugriffe optimiert sind, und zwei Opt-in-Archivzugriffsebenen, die für den asynchronen Zugriff konzipiert und für seltene Zugriffe optimiert sind. Auf S3 Intelligent-Tiering hochgeladene oder übertragene Objekte werden automatisch in der Stufe für häufigen Zugriff gespeichert. S3-Intelligent-Tiering verschiebt Objekte, auf die an 30 aufeinander folgenden Tagen nicht zugegriffen wurde, in die Stufe für seltenen Zugriff. Sobald Sie eine oder beide Archive-Access-Ebenen (Archivzugriffsebenen) aktiviert haben, verschiebt S3-Intelligent-Tiering automatisch Objekte, auf die 90 aufeinanderfolgende Tage lang nicht zugegriffen wurde, in die Archive-Access-Ebene und nach 180 aufeinanderfolgenden Tagen ohne Zugriff auf die Deep-Archive-Access-Ebene (Tiefe-Archivzugriffsebene). Wenn das Objekt, das Sie abrufen wollen, in den Archive- oder Deep-Archive-Zugriffsebenen gespeichert ist, müssen Sie, bevor Sie das Objekt abrufen können, zunächst ein Exemplar mit RestoreObject wiederherstellen. Weitere Informationen zum Wiederherstellen von archivierten Objekten finden Sie unter Wiederherstellen von archivierten Objekten. Wenn auf die Objekte später zugegriffen wird, werden die Objekte zurück auf die Stufe des häufigen Zugriffs verschoben. Es gibt keine Abrufgebühren, daher werden Sie keine unerwarteten Erhöhungen der Speicherkosten feststellen, wenn sich die Zugriffsmuster ändern.

F: Warum sollte ich mich für S3 Intelligent-Tiering entscheiden?

S3 Intelligent-Tiering ist die einzige Speicherklasse der Welt mit zwei Tiers, bei der Sie mit dem Frequent Access Tier einen hohen Durchsatz und eine niedrige Latenz erreichen können, wenn Sie Ihre Daten sofort benötigen, und mit zwei optionalen Archive Tiers, bei denen Sie nur 1 USD pro TB pro Monat zahlen, wenn die Daten ruhen. S3 Intelligent-Tiering ist für Daten mit unbekannten oder sich ändernden Zugriffsmustern. Bei Datensätzen mit wechselnden Zugriffsmustern, bei denen über lange Zeiträume hinweg nur selten auf Teilmengen von Objekten zugegriffen werden kann, reduzieren die Archivzugriffsebenen Ihre Speicherkosten um bis zu 95 %.

F: Welche Leistung bietet S3 Intelligent-Tiering?

Häufige und seltene Zugriffsebenen von S3-Intelligent-Tiering sorgen für niedrige Latenzzeiten und hohe Durchsatzleistung. Die Archivzugriffsebene hat die gleiche Leistung wie S3 Glacier, und die tiefe Archivzugriffsebene hat die gleiche Leistung wie die Speicherklasse S3 Glacier Deep Archive. Sie sollten die Archivzugriffsebenen nur dann aktivieren, wenn auf Ihre Objekte von Ihrer Anwendung asynchron zugegriffen werden kann. Wenn das Objekt, das Sie abrufen wollen, in den Archive- oder Deep-Archive-Zugriffsebenen gespeichert ist, müssen Sie, bevor Sie das Objekt abrufen können, zunächst ein Exemplar mit RestoreObject wiederherstellen. Weitere Informationen zum Wiederherstellen von archivierten Objekten finden Sie unter Wiederherstellen von archivierten Objekten. Objekte in der Ebene Archivzugriff werden innerhalb von 3 – 5 Stunden in die Ebene Frequent Access verschoben und innerhalb von 12 Stunden, wenn sie sich in der Ebene Deep Archive Access befinden. Wenn Sie einen schnelleren Zugriff auf ein Objekt der Archive-Access-Ebene benötigen, können Sie für einen schnelleren Abruf bezahlen, indem Sie über die Konsole die Geschwindigkeit des beschleunigten Abrufs auswählen.

F: Welche Haltbarkeit und welche Verfügbarkeit bietet S3-Intelligent-Tiering?

S3 Intelligent-Tiering ist für die gleiche Haltbarkeit von 99,999999999 % wie die Speicherklasse S3 Standard ausgelegt. S3 Intelligent-Tiering wurde für eine Verfügbarkeit von 99,9 % entwickelt und umfasst ein Service Level Agreement mit Service-Gutschriften, sollte die Verfügbarkeit in einem beliebigen Abrechnungszeitraum geringer ausfallen, als von uns zugesagt.

F: Wie kann ich meine Daten in S3 Intelligent-Tiering importieren?

Es gibt zwei Möglichkeiten, Daten in S3 Intelligent-Tiering zu importieren. Sie können einen direkten PUT-Import in S3 Intelligent-Tiering durchführen, indem Sie INTELLIGENT_TIERING im x-amz-storage-Header angeben, oder Sie können Lebenszyklusrichtlinien festlegen, um Objekte von S3 Standard oder S3 Standard-IA nach S3 INTELLIGENT_TIERING zu übertragen.

F: Wie werde ich für S3 Intelligent-Tiering berechnet?

S3 Intelligent-Tiering stellt Ihnen monatlich Speicherplatz, Anforderungen und Datentransfer in Rechnung und erhebt eine geringe monatliche Gebühr für die Überwachung und Automatisierung pro Objekt. Die S3 Intelligent-Tiering-Speicherklasse speichert Objekte in zwei Speicherzugriffsebenen: einer Frequent-Access-Ebene für häufigen Zugriff zu S3 Standard-Speicherpreisen und eine Infrequent-Access-Ebene für seltenen Zugriff zu S3 Standard - Infrequent Access-Speicherpreisen. S3 Intelligent Tiering hat außerdem zwei optionale Archivebenen, Eine Archive Access-Ebene für Archivzugriff zu S3 Glacier-Speicherpreisen und eine Deep Archive Access-Ebene für tiefen Archivzugriffs zu S3 Glacier Deep Archive-Speicherpreisen.

Für S3 Intelligent-Tiering werden keine Abrufgebühren erhoben. Gegen eine geringe Überwachungs- und Automatisierungsgebühr überwacht S3 Intelligent-Tiering Zugriffsmuster und verschiebt Objekte automatisch zwischen vier Zugriffsebenen, um Ihre Speicherkosten und Leistung zu optimieren. Zusätzlich gibt es zwei optionale asynchrone Archivzugriffesebenen.

Es gibt keine Mindestgröße für abrechenbare Objekte in S3 Intelligent-Tiering, aber Objekte, die kleiner als 128 KB sind, kommen nicht für die automatische Ausrichtung in Frage. Diese kleinen Objekte werden nicht überwacht und werden immer zu den Tarifen der Stufe Frequent Access abgerechnet, ohne Überwachungs- und Automatisierungsgebühren. Für jedes Objekt, das in der Archive Access-ebene oder Deep Archive-Zugriffsebene in S3 Intelligent-Tiering archiviert wird, verwendet Amazon S3 8 KB Speicherplatz für den Objektnamen und andere Metadaten (berechnet mit S3 Standard-Speicherraten) und 32 KB Speicherplatz für den Index und zugehörige Metadaten (berechnet mit S3 Glacier und S3 Glacier Deep Archive Speicherraten).

F: Wie aktiviere ich S3 Intelligent-Tiering-Archivzugriffsebenen?

Sie können die Archive Access-Ebene und die Deep Archive Access-Ebene aktivieren, indem Sie eine Konfiguration auf Bucket-, Präfix- oder Objekt-Tag-Ebene mithilfe der Amazon S3-API, CLI oder S3-Managementkonsole erstellen. Sie sollten nur dann eine oder beide Archivzugriffsebenen aktivieren, wenn auf Ihre Objekte von Ihrer Anwendung asynchron zugegriffen werden kann.

F: Kann ich die Zeit bis zur Archivierung von Objekten innerhalb der Intelligent-Tiering-Speicherklasse S3 verlängern?

Ja. In der Konfiguration auf Bucket-, Präfix- oder Objekt-Tag-Ebene können Sie die letzte Zugriffszeit für Archivierungsobjekte in S3 Intelligent-Tiering verlängern. Wenn diese Option aktiviert ist, werden Objekte, auf die seit mindestens 90 aufeinander folgenden Tagen nicht mehr zugegriffen wurde, standardmäßig automatisch in die Archivzugriffsebene verschoben. Objekte, auf die seit mindestens 180 aufeinanderfolgenden Tagen nicht mehr zugegriffen wurde, werden automatisch in die Stufe Deep Archive Access verschoben. Die Standardkonfiguration für die aufeinander folgenden Tage seit dem letzten Zugriff vor der automatischen Archivierung im S3 Intelligent-Tiering kann bis zu 2 Jahre verlängert werden.

F: Wie greife ich auf ein Objekt aus den Archive Access- oder Deep Archive Access-Ebenen der Speicherklasse S3 Intelligent-Tiering zu?

Um auf ein Objekt in den Ebenen Archiv oder Deep Archive Access zuzugreifen, müssen Sie eine Wiederherstellungsanforderung ausgeben, und das Objekt wird wieder in die Ebene Frequent Access verschoben, und zwar innerhalb der Speicherklasse S3 Intelligent-Tiering. Objekte in der Archivzugriffsebene werden innerhalb von 3-5 Stunden in die Frequent Access-ebene verschoben, Objekte in der tiefen Archivzugriffsebene werden innerhalb von 12 Stunden in die Frequent Access-ebene verschoben. Sobald sich das Objekt in der Frequent Access-Ebene befindet, können Sie eine GET-Anforderung zum Abrufen des Objekts stellen.

F: Woher weiß ich, in welcher S3 Intelligent-Tiering-Zugriffsebene meine Objekte gespeichert sind?

Sie können Amazon S3 Inventory verwenden, um die Zugriffsebene von Objekten zu melden, die in der S3 Intelligent-Tiering-Speicherklasse gespeichert sind. Amazon S3 Inventory bietet CSV-, ORC- oder Parkett-Ausgabedateien, die Ihre Objekte und die entsprechenden Metadaten täglich oder wöchentlich für einen S3-Bucket oder ein gemeinsames Präfix auflisten. Sie können auch eine HEAD-Anfrage zu Ihren Objekten stellen, um die S3 Intelligent-Tiering-Archivzugriffsebenen zu melden.

F: Gibt es eine Mindestdauer für S3 Intelligent-Tiering?

Nein. Die S3 Intelligent-Tiering-Speicherklasse hat keine Mindestspeicherdauer.

F: Gibt es eine abrechenbare Mindestobjektgröße für S3 Intelligent-Tiering?

Nein. Die S3 Intelligent-Tiering-Speicherklasse hat keine Mindestgröße für abrechenbare Objekte, aber Objekte, die kleiner als 128 KB sind, kommen nicht für die automatische Ausrichtung in Frage. Diese kleineren Objekte werden immer zu den Tarifen der Ebene Frequent Access abgerechnet, ohne Überwachungs- und Automatisierungsgebühren. Für jedes Objekt, das auf der Archivzugriffsebene oder der tiefen Archivzugriffsebene in S3 Intelligent-Tiering archiviert wird, benutzt Amazon S3 8 KB Speicherplatz für den Namen des Objekts und andere Metadaten (abgerechnet zu S3 Standard-Speichertarifen) und 32 KB Speicherplatz für Index- und zugehörige Metadaten (abgerechnet zu S3 Glacier und S3 Glacier Deep Archive-Speichertarifen). Weitere Einzelheiten finden Sie auf der Amazon-S3-Preisseite

S3 Standard-Infrequent Access (S3 Standard-IA)

F: Was versteht man unter S3 Standard – Infrequent Access?

Amazon S3 Standard – Infrequent Access (S3 Standard – IA) ist eine Amazon S3-Speicherklasse für Daten, auf die seltener zugegriffen wird, die bei Bedarf jedoch schnell abrufbar sein müssen. S3 Standard-IA bietet die hohe Lebensdauer, den hohen Durchsatz und die geringen Latenzzeiten der Speicherklasse Amazon S3 Standard zu einem günstigen Speicher- und Abrufpreis pro GB. Diese Kombination aus niedrigen Kosten und hoher Leistung machen S3 Standard – IA zur idealen Lösung für langfristige Speicherung, Sicherung und als Datenspeicher für Notfallwiederherstellungen. Die Speicherklasse S3 Standard-IA wird auf der Objektebene eingestellt und kann im selben Bucket wie die Speicherklassen S3 Standard- oder S3 One Zone-IA verbleiben, sodass Sie S3-Lebenszyklusrichtlinien für die automatische Objektübertragung zwischen Speicherklassen verwenden können, ohne die Anwendung zu ändern.

F: Welche Argumente sprechen für eine Nutzung von S3 Standard-IA?

S3 Standard – IA ist die ideale Speicherlösung für Daten, auf die seltener zugegriffen wird, die bei Bedarf jedoch schnell abrufbar sein müssen. S3 Standard-IA eignet sich optimal für die langfristige Speicherung von Dateien, ältere synchronisierte und freigegebene Daten und andere ältere Daten.

F: Welche Leistung bietet S3 Standard-IA?

S3 Standard-IA bietet dieselbe Latenz- und Durchsatzleistung wie die Speicherklasse S3 Standard. 

 

F: Wie kann ich meine Daten in S3 Standard-IA importieren?

Es gibt zwei Möglichkeiten, Daten in S3 Standard – IA zu importieren. Sie können einen direkten PUT-Import in S3 Standard – IA durch Eingabe von STANDARD_IA in die x-amz-storage-class-Kopfzeile durchführen. Außerdem können Sie Lebenszyklusrichtlinien festlegen, um Objekte aus der Speicherklasse S3 Standard in die Speicherklasse S3 Standard-IA zu verschieben.

F: Welche Gebühren werden mir berechnet, wenn ich die Speicherklasse eines Objekts mit einer COPY-Anforderung von S3 Standard-IA in S3 Standard ändere?

Ihnen werden Gebühren für eine S3 Standard-IA-COPY-Anforderung und einen S3 Standard-IA-Datenabruf in Rechnung gestellt.

F: Gibt es bei S3 Standard-IA eine Mindestgebühr für die Speicherdauer?

S3 Standard – IA wurde für Langzeitdaten mit selteneren Zugriffen konzipiert, die für Monate oder auch Jahre gespeichert werden. Für Daten, die innerhalb von 30 Tagen aus S3 Standard – IA gelöscht werden, werden 30 volle Tage berechnet. Informationen zu den Preisen von S3-Standard-IA finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

F: Gibt es bei S3 Standard-IA eine Mindestgebühr für den Objektspeicher?

S3 Standard – IA ist für größere Objekte ausgelegt und sieht eine Mindestgebühr für 128 KB Objektspeicher vor. Objekte, die kleiner als 128 KB sind, werden mit einer Größe von 128 KB berechnet. Beispiel: Für ein Objekt mit einer Größe von 6 KB werden in S3 Standard-IA 6 KB berechnet plus einer Gebühr für die Mindestobjektgröße, die 122 KB des Speicherpreises in S3 Standard-IA entspricht. Informationen zu den Preisen von S3-Standard-IA finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

F: Kann ich Objekte aus S3 Standard-IA in S3 One Zone-IA oder S3 Glacier verschieben?

Ja. Sie können zusätzlich zu den Lebenszyklusrichtlinien, mit denen Objekte von S3 Standard in S3 Standard-IA migriert werden, weitere Lebenszyklusrichtlinien einrichten, mit denen Objekte von S3 Standard-IA in S3 One Zone-IA oder S3 Glacier verschoben werden.

S3 One Zone-Infrequent Access (S3 One Zone-IA)

F: Was versteht man unter der Speicherklasse S3 One Zone – IA?

Die Speicherklasse S3 One Zone – IA ist eine Amazon S3-Speicherklasse, in der Kunden Objekte auf Wunsch in einer einzigen Availability Zone speichern können. S3 One Zone – IA-Speicher speichert Daten redundant in dieser einzigen Availability Zone. So fallen um 20 % niedrigere Speicherkosten an als bei der geografisch redundanten S3 Standard – IA-Speicherung, bei der Daten redundant in mehreren, geografisch voneinander getrennten Availability Zones gespeichert werden.

S3 One Zone-IA sichert in seinem SLA eine Verfügbarkeit von 99 % zu und ist auf eine Zuverlässigkeit von 11 x die Zahl 9 innerhalb der Availability Zone ausgelegt. Die Daten in der Speicherklasse S3 One Zone-IA sind jedoch nicht resistent gegen den physischen Verlust einer gesamten Availability Zone.

Die Speicherklasse S3 One Zone-IA bietet dieselben Amazon S3-Funktionen wie S3 Standard und S3 Standard-IA und wird über die Amazon S3-API, die CLI und die Konsole genutzt. Die Speicherklasse S3 One Zone – IA wird auf der Objektebene eingestellt und kann im selben Bucket verbleiben wie die Speicherklassen S3 Standard und S3 Standard – IA. Sie können S3-Lebenszyklusrichtlinien verwenden, um Objekte automatisch zwischen den Speicherklassen zu verschieben, ohne die Anwendung zu ändern.

F: Für welche Anwendungsfälle ist die Speicherklasse S3 One Zone-IA besonders gut geeignet?

Kunden können S3 One Zone-IA als Speicher für Daten nutzen, auf die nur selten zugegriffen wird, z. B. Sicherungskopien, Notfallwiederherstellungskopien oder andere leicht wiederherstellbare Daten.

F: Welche Leistung bietet die Speicherklasse "S3 One Zone-IA"?

Die Speicherklasse „S3 One Zone-IA“ bietet die gleichen Latenz- und Durchsatzleistungen wie die Speicherklassen „S3 Standard“ und „S3 Standard – Infrequent Access“.

F: Wie zuverlässig ist die Speicherklasse "S3 One Zone-IA"?

Die Speicherklasse S3 One Zone – IA ist auf eine Zuverlässigkeit von 99,999999999 % innerhalb einer Availability Zone ausgelegt. Die Daten in der Speicherklasse S3 One Zone-IA sind jedoch nicht resistent gegen den Verlust der Verfügbarkeit oder den physischen Verlust einer gesamten Availability Zone. Im Gegensatz dazu sind die Speicherklassen S3 Standard, S3 Intelligent-Tiering, S3 Standard – Infrequent Access und S3 Glacier so konzipiert, dass sie den Verlust der Verfügbarkeit oder die Zerstörung einer Availability Zone auffangen können. S3 One Zone-IA bietet eine mindestens ebenso hohe Zuverlässigkeit und Verfügbarkeit wie die meisten modernen physischen Rechenzentren. Darüber hinaus bietet sie den Vorteil der Speicherelastizität sowie die Funktionen von Amazon S3.

F: Ist eine „Zone“ bei S3 One Zone-IA das Gleiche wie eine AWS Availability Zone?

Ja. Jede AWS-Region ist ein separater geografischer Bereich. Jede Region verfügt über mehrere isolierte Standorte, die als Availability Zones bezeichnet werden. Die Speicherklasse Amazon S3 One Zone-IA nutzt eine einzelne AWS Availability Zone innerhalb der Region.

F: Auf wie viel Notfallwiederherstellungsschutz verzichte ich, wenn ich S3 One Zone-IA nutze?

Jede Availability Zone verwendet eine redundante Energieversorgung und ein redundantes Netzwerk. Die Availability Zones innerhalb einer AWS-Region befinden sich in Zonen mit unterschiedlichem Überschwemmungs- und Erdbebenrisiko und sind aus Brandschutzgründen geografisch voneinander getrennt. Die Speicherklassen S3 Standard und S3 Standard-IA speichern Ihre Daten redundant in mehreren Availability Zones und schützen sie so vor solchen Katastrophen. S3 One Zone-IA bietet Schutz vor Geräteausfällen innerhalb einer Availability Zone. Die Daten sind jedoch nicht resistent gegen den physischen Verlust der Availability Zone infolge von Katastrophen wie Erdbeben und Überschwemmungen. Mit den Optionen S3 One Zone-IA, S3 Standard- und S3 Standard-IA können Sie die Speicherklasse auswählen, die Ihren Anforderungen an den Speicher im Hinblick auf Zuverlässigkeit und Verfügbarkeit am besten entspricht.

S3 auf Outposts

F: Was ist Amazon S3 auf Outposts?

Amazon S3 on Outposts bietet Objekt-Speicherplatz in Ihrer On-Premise-Umgebung, wobei die S3-APIs und Funktionen verwendet werden, die Sie heute in AWS verwenden. AWS Outposts ist ein vollständig verwalteter Service, der die AWS-Infrastruktur, AWS-Services, APIs und Tools in praktisch jedem Rechenzentrum, jedem Co-Location-Bereich und jeder lokalen Einrichtung erweitert. Mit S3 auf Outposts können Sie Kundendaten, die vor Ort generiert wurden, sicher verarbeiten und speichern, bevor sie in eine AWS Region verschoben werden, lokal auf Daten für Anwendungen zugreifen, die vor Ort ausgeführt werden, oder Daten auf Ihrem Outpost für Unternehmen an Standorten mit Anforderungen an die Datenresidenz oder in regulierten Branchen speichern. Um mehr über S3 auf Outposts zu erfahren, besuchen Sie die Übersichtsseite.
 

Amazon S3 Glacier

F: Was ist Amazon S3 Glacier?

S3 Glacier ist eine sichere, langlebige und kostengünstige Speicherklasse zur Datenarchivierung. Sie können zuverlässig jede beliebige Datenmenge zu Kosten speichern, die mit lokalen Speicherlösungen mithalten können bzw. sogar noch darunter liegen. Um die Kosten niedrig zu halten und dennoch für unterschiedliche Anforderungen geeignet zu sein, bietet Amazon S3 Glacier drei Abrufoptionen, die von wenigen Minuten bis zu mehreren Stunden reichen. Sie können Objekte direkt auf Amazon S3 Glacier hochladen oder S3-Lifecycle-Richtlinien benutzen, um Daten von einer der Amazon-S3-Speicherklassen für aktive Daten (S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA und S3 One Zone-IA) auf S3 Glacier zu übertragen.

F: Warum sollte ich Amazon S3 Glacier benutzen?

Amazon S3 Glacier ist ideal für die Archivierung von Daten, die langfristige Sicherung und die externe Datenspeicherung. Amazon S3 Glacier ist eine kostengünstige Option für langlebige Archivdatensätze, auf die vielleicht ein oder zwei Mal pro Jahr zugegriffen wird und die innerhalb von wenigen Minuten bis zu 12 Stunden abgerufen werden können. Zu den Beispielen für Archivierungszwecke gehören digitale Medienarchive, Finanz- und Gesundheitsdaten, genomische Rohdaten, langfristige Datenbank-Backups und Daten, die zur Einhaltung gesetzlicher Vorschriften aufbewahrt werden müssen.

F: Wie bekomme ich meine Daten in Amazon S3 Glacier?

Es gibt zwei Möglichkeiten, Daten in Amazon S3 Glacier zu importieren. Sie können direkt in Amazon S3 Glacier posten, indem Sie GLACIER im x-amz-storage-class Header angeben. Sie können auch S3 Lifecycle-Regeln benutzen, um Objekte von einer der Amazon S3-Speicherklassen für aktive Daten (S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA und S3 One Zone-IA) basierend auf dem Objektalter in Amazon S3 Glacier zu überführen. Benutzen Sie die Amazon S3 Management Console, die AWS SDKs oder die Amazon S3 APIs, um direkt in Amazon S3 Glacier zu PUTen oder Regeln für die Archivierung zu definieren.

Hinweis: Amazon S3 Glacier ist auch über die ursprünglichen direkten Glacier-APIs und über die Amazon S3 Glacier Management Console verfügbar. Für ein verbessertes Erlebnis mit Zugriff auf den gesamten Funktionsumfang von S3, einschließlich Lifecycle Management, S3 Replication, S3 Storage Lens und mehr, empfehlen wir, S3 APIs und die S3 Management Console zu benutzen, um die Funktionen von S3 Glacier zu nutzen.

F: Wie kann ich meine Objekte abrufen, die in Amazon S3 Glacier archiviert sind und werde ich benachrichtigt, wenn das Objekt wiederhergestellt wird?

Auf Objekte, die in Amazon S3 Glacier archiviert werden, wird asynchron zugegriffen. Um Daten abzurufen, die in der Speicherklasse Amazon S3 Glacier gespeichert sind, starten Sie eine Abrufanforderung über die Amazon-S3-APIs oder die Amazon-S3-Managementkonsole. Die Abrufanfrage erstellt eine temporäre Kopie Ihrer Daten in der Speicherklasse S3 Standard-IA, während die archivierten Daten in Amazon S3 Glacier intakt bleiben. Sie können die Anzahl der Tage angeben, für die die temporäre Kopie in Amazon S3 gespeichert wird. Sie können dann über eine Amazon-S3-GET-Anfrage auf das archivierte Objekt auf Ihre temporäre Kopie aus S3 zugreifen.

Mit den Wiederherstellungsbenachrichtigungen können Sie jetzt mit einer S3-Ereignisbenachrichtigung benachrichtigt werden, wenn ein Objekt erfolgreich aus S3 Glacier wiederhergestellt wurde und Ihnen die temporäre Kopie zur Verfügung gestellt wird. Der Bucket-Besitzer (oder andere, wie durch eine IAM-Richtlinie erlaubt) kann die Ausgabe von Benachrichtigungen an Amazon Simple Queue Service (SQS) oder Amazon Simple Notification Service (SNS) veranlassen. Benachrichtigungen können auch an AWS Lambda zur Verarbeitung durch eine Lambda-Funktion übermittelt werden.

F: Wie lange dauert die Wiederherstellung meiner in Amazon S3 Glacier archivierten Objekte?

Bei der Verarbeitung eines Abrufauftrags ruft Amazon S3 zunächst die angeforderten Daten aus Amazon S3 Glacier ab und erstellt dann eine temporäre Kopie der angeforderten Daten in Amazon S3. Dies dauert in der Regel ein paar Minuten. Die Zugriffszeit für Ihre Anfrage hängt von der von Ihnen gewählten Abrufoption ab: Expedited, Standard oder Massenabrufe. Für alle außer den größten Objekten (ab 250 MB) stehen die Daten, auf die Sie über „Expedited“-Abrufe zugreifen, normalerweise innerhalb von 1 bis 5 Minuten zur Verfügung. „Standard“-Objektabrufe werden normalerweise innerhalb von 3 bis 5 Stunden abgeschlossen. Bulk-Abrufe werden in der Regel innerhalb von fünf bis zwölf Stunden ausgeführt. Weitere Informationen zu den Abrufoptionen von Amazon S3 Glacier finden Sie unter Wiederherstellung eines archivierten Objekts im S3-Benutzerhandbuch.

Mit Amazon S3 Glacier bereitgestellten Kapazitätseinheiten können Sie eine feste Vorausgebühr für einen bestimmten Monat zahlen, um die Verfügbarkeit von Abrufkapazitäten für beschleunigte Abrufe aus Amazon S3 Glacier zu gewährleisten. Sie können 2 bereitgestellte Kapazitätseinheiten pro Monat erwerben, um die Datenmenge, die Sie abrufen können, zu erhöhen. Jede Kapazitätseinheit gewährleistet, dass alle 5 Minuten mindestens drei Schnellabrufe durchgeführt werden können und bietet einen Abrufdurchsatz von bis zu 150 MB/s. Wenn Ihre Arbeitslast einen äußerst zuverlässigen und vorhersehbaren Zugriff auf eine Teilmenge Ihrer Daten innerhalb von Minuten erfordert, sollten Sie bereitgestellte Abrufkapazität erwerben. Ohne bereitgestellte Kapazität werden in Zeiten hoher Nachfrage möglicherweise keine beschleunigten Abrufe akzeptiert. Wenn Sie unter irgendwelchen Umständen Zugang zu beschleunigten Abrufen benötigen, empfehlen wir Ihnen den Kauf von bereitgestellter Abrufkapazität.

Sie können bereitgestellte Kapazität über die Amazon S3-Konsole, die REST-API für den Kauf bereitgestellter Kapazität, die AWS SDKs oder die AWS CLI erwerben. Eine bereitgestellte Kapazitätseinheit hat eine Laufzeit von einem Monat, als dessen Startdatums das Datum und die Uhrzeit des Kaufs zu verstehen ist. Die Einheit läuft am Verfallsdatum ab, das auf die Sekunde genau einen Monat nach dem Startdatum liegt. Informationen zu den Preisen für bereitgestellte Kapazität finden Sie unter Amazon S3 Preise.

F: Wie werden die Speicherkosten für in Amazon S3 Glacier archivierte Amazon-S3-Objekte berechnet?

Der für einem Monat in Rechnung gestellte Speicherplatz basiert auf der durchschnittlichen, im Laufe des Monats genutzten Speicherkapazität, die in sog. Gigabyte-Monaten (GB-Monaten) gemessen wird. Amazon S3 berechnet die Objektgröße als die Menge der von Ihnen gespeicherten Daten plus zusätzliche 32 KB Amazon-S3 -Glacier-Daten plus zusätzliche 8 KB Amazon-S3-Standard-Speicherklassen-Daten. Amazon S3 Glacier benötigt zusätzlich 32 KB Daten pro Objekt für den Index und die Metadaten von S3 Glacier, damit Sie Ihre Daten identifizieren und abrufen können. Amazon S3 benötigt 8 KB zum Speichern und Verwalten des benutzerdefinierten Namens und der Metadaten für Objekte, die in Amazon S3 Glacier archiviert werden. Damit können Sie eine Echtzeitliste aller Ihrer Amazon S3-Objekte abrufen, einschließlich derjenigen, die unter Verwendung der Amazon-S3-Glacier-Speicherklasse, der Amazon S3 LIST API oder des S3-Inventarberichts gespeichert sind. 

Wenn Sie beispielsweise 100 000 Objekte mit einer Größe von jeweils 1 GB archiviert haben, würde Ihr abrechenbarer Speicherplatz folgendermaßen aussehen:
1,000032 GB für jedes Objekt x 100 000 Objekte = 100 003,2 GB Amazon S3 Glacier-Speicher.
0,000008 GB für jedes Objekt x 100 000 Objekte = 0,8 GB Amazon-S3-Standardspeicher.

Die Gebühren errechnen sich aus den aktuellen Tarifen für Ihre AWS-Region, die Sie auf der Seite mit der Preisübersicht für Amazon S3 finden. Weitere Beispiele für die Preisgestaltung von Amazon S3 finden Sie in den FAQs zur S3-Abrechnung oder Sie können den AWS-Preisrechner benutzen.

F: Gibt es für Amazon S3 Glacier eine Mindestspeicherdauer und Mindestgebühren für die Speicherung von Objekten?

Amazon S3 Glacier ist für langlebige Daten gedacht, auf die nur selten zugegriffen wird und die über Monate oder Jahre gespeichert werden. Objekte, die in S3 archiviert werden, müssen mindestens 90 Tage lang gespeichert werden. Für Objekte, die vor 90 Tagen gelöscht, überschrieben oder übertragen werden, wird eine anteilige Gebühr in Höhe der Speichergebühr für die verbleibenden Tage erhoben. Informationen zu den Preisen von Amazon S3 Glacier finden Sie auf der Amazon-S3-Preisseite.

Amazon S3 Glacier hat eine Mindestgröße von 40 KB für die Speicherung von Objekten. Objekte, die kleiner als 40 KB sind, können gespeichert werden, aber es wird eine Gebühr für 40 KB Speicherplatz erhoben. 

F: Was kostet das Abrufen von Daten aus Amazon S3 Glacier?

Es gibt drei Möglichkeiten, Daten aus Amazon S3 Glacier abzurufen - Expedited, Standard und Massenabrufe - und jede hat eine andere Abrufgebühr pro GB und eine Gebühr pro Anfrage (d.h. Sie zahlen für Anfragen, die für Ihre Amazon-S3-Objekte gestellt werden). Detaillierte Preise für S3 Glacier nach AWS-Region finden Sie auf der Amazon-S3-Preisseite.

F: Bietet Amazon S3 kostengünstigere Speicherklassen zum Archivieren von Objekten?

Ja, mit Amazon S3 können Sie Amazon S3 Glacier und Amazon S3 Glacier Deep Archive für Speicher, auf den selten zugegriffen wird und für die Archivierung von Daten verwenden. Amazon S3 Glacier speichert Daten für nur 0,004 USD pro Gigabyte und Monat. Amazon S3 Glacier stellt drei Optionen für Zugriffe auf Archive bereit, die von wenigen Minuten bis zu mehreren Stunden dauern können, um die Kosten niedrig zu halten und dennoch variierende Abrufanforderungen zu erfüllen. S3 Glacier Deep Archive ist die kostengünstigste Speicherklasse von Amazon S3 und unterstützt die Langzeitarchivierung und Erhaltung digitaler Daten, auf die ein oder zwei Mal im Jahr zugegriffen wird. Beispiele für Archivnutzungsfälle sind u. a. digitale Medienarchive, Finanz- und Patientenakten, unformatierte Daten genomischer Sequenzen, langfristige Datenbanksicherungen und Daten, deren Aufbewahrung vorgeschrieben ist.

F: Welche Backend-Infrastruktur unterstützt die Speicherklassen S3 Glacier und S3 Glacier Deep Archive?

Wir konzentrieren uns bevorzugt auf die Kundenergebnisse Leistung, Langlebigkeit, Verfügbarkeit und Sicherheit. Diese Frage wird jedoch häufig von unseren Kunden gestellt. Wir verwenden eine Reihe von verschiedenen Technologien, die es uns ermöglichen, unseren Kunden diese Preise anzubieten. Unsere Services werden unter Verwendung gängiger Datenspeichertechnologien entwickelt. Mithilfe von AWS entwickelter Software werden diese zu speziellen, kostenoptimierten Systemen zusammengefügt. S3 Glacier profitiert von unserer Fähigkeit, die Sequenz der Ein- und Ausgaben zu optimieren, um die Effizienz beim Zugriff auf den zugrunde liegenden Speicher zu maximieren.

Amazon S3 Glacier Deep Archive

F: Was ist Amazon S3 Glacier Deep Archive?

S3 Glacier Deep Archive ist eine Amazon-S3-Speicherklasse, die einen sicheren, beständigen Objektspeicher zur langfristigen Aufbewahrung von Daten bietet, auf die nur ein- oder zweimal im Jahr zugegriffen wird. Bereits ab 0,00099 USD pro GB und Monat (das ist weniger als ein Zehntelcent bzw. ca. 1 USD pro TB und Monat) bietet S3 Glacier Deep Archive den preiswertesten Speicherplatz in der Cloud. Dies ist wesentlich kostengünstiger, als Daten in On-Premises-Magnetbandbibliotheken oder ausgelagert zu archivieren.

F: Für welche Anwendungsfälle ist S3 Glacier Deep Archive am besten geeignet?

S3 Glacier Deep Archive ist die ideale Speicherklasse, um die wichtigsten Datensätze Ihres Unternehmens offline zu schützen und um Daten langfristig aufzubewahren, wenn dies etwa in den Unternehmensrichtlinien oder Verträgen festgeschrieben oder gesetzlich erforderlich ist. Kunden sind von den Leistungen von S3 Glacier Deep Archive überzeugt. Der Service hat sich bewährt beim Schutz wichtigen geistigen Eigentums, von Finanz- und ärztlichen Unterlagen, Forschungsergebnissen, Rechtsunterlagen und Studien zur seismischen Erschließung sowie bei der langfristigen Datenspeicherung, darunter vor allem in stark regulierten Branchen wie den Finanzdienstleistungen, dem Gesundheitswesen, dem Öl- und Gassektor sowie dem öffentlichen Sektor. Außerdem wird er von anderen Branchen, etwa der Medien- und Unterhaltungsbranche geschätzt, die wichtiges geistiges Eigentum sicher aufbewahren möchten. Kunden, die S3 Glacier Deep Archive verwenden, brauchen lokal verwendete Magnetbänder und die ausgelagerte Archivierung dieser Bandarchive häufig gar nicht mehr oder zumindest in wesentlich geringerem Umfang.

F: Was ist der Unterschied zwischen S3 Glacier Deep Archive und S3 Glacier?

S3 Glacier Deep Archive erweitert unser Datenarchivierungsangebot und ermöglicht es Ihnen, die optimale Speicherklasse basierend auf den Speicher- und Abrufkosten und Abrufzeiten auszuwählen. Wählen Sie S3 Glacier, wenn Sie archivierte Daten üblicherweise in 1-5 Minuten mit „Expedited“-Abrufen abrufen müssen. S3 Glacier Deep Archive hingegen eignet sich für Daten, auf die Sie wahrscheinlich nicht zugreifen müssen, die aber trotzdem langfristig und sicher aufbewahrt werden müssen. S3 Glacier Deep Archive ist bis zu 75 % günstiger als S3 Glacier. Sie haben über die Standard-Abrufgeschwindigkeit innerhalb von 12 Stunden Zugriff auf die Daten. Mit der Option "Bulk-Abruf", bei der die Daten innerhalb von 48 Stunden verfügbar sind, können Sie die Abrufkosten noch weiter senken.

F: Was sind meine ersten Schritte mit S3 Glacier Deep Archive?

Die einfachste Methode, Daten in S3 Glacier Deep Archive zu speichern, ist, Daten direkt über die S3 API hochzuladen. Als Speicherklasse geben Sie einfach „S3 Glacier Deep Archive“ an. Dazu verwenden Sie die AWS-Managementkonsole, die S3 REST API, die AWS SDKs oder die AWS-Befehlszeilenschnittstelle.

Sie können als ersten Schritt mit S3 Glacier Deep Archive auch Richtlinien zur Datenmigration über S3 Lifecycle erstellen. Auf diese Weise legen Sie den Lebenszyklus des Objekts fest und reduzieren so die Speicherkosten. Diese Richtlinien können so festgelegt werden, dass Objekte basierend auf ihrem Alter nach S3 Glacier Deep Archive migriert werden. Sie können die Richtlinien für ein S3-Bucket oder für bestimmte Präfixe bestimmen. Lebenszyklusübergänge werden nach dem Upload-Preis von S3 Glacier Deep Archive abgerechnet.

S3 Glacier Deep Archive lässt sich jetzt in Tape Gateway integrieren, eine Cloud-basierte virtuelle Bandbibliothek und Funktion von AWS Storage Gateway. So können Sie Ihre virtuellen, bandgestützen, langfristigen Sicherungen und Archive in S3 Glacier Deep Archive speichern und erhalten die günstigste Cloud-Speicheroption für diese Daten. Erstellen Sie zunächst mit AWS Storage Gateway Console oder der API ein virtuelles Band und legen Sie als Speicherziel für das Archiv entweder S3 Glacier oder S3 Glacier Deep Archive fest. Wenn Ihre Sicherungsanwendung das Band auswirft, wird es am ausgewählten Speicherziel archiviert.

F: Welche Empfehlung gibt es für die Migration von Daten aus einem bestehenden Bandarchiv nach S3 Glacier Deep Archive?

Es gibt verschiedene Möglichkeiten zur Migration von Daten aus bestehenden Bandarchiven nach S3 Glacier Deep Archive. Sie können beispielsweise die bestehenden Sicherungsanwendungen über AWS Tape Gateway und eine VTL-Schnittstelle (Virtual Tape Library) integrieren. Diese Schnittstelle präsentiert die virtuellen Bänder der Sicherungsanwendung. Sie können dann direkt zur Datenspeicherung in Amazon S3, S3 Glacier und S3 Glacier Deep Archive verwendet werden.

Daten lassen sich auch mit AWS Snowball oder Snowmobile migrieren. Snowball und Snowmobile beschleunigen das Verschieben von Datenmengen im Terabyte- oder Petabyte-Bereich in und aus AWS. Für den physischen Transport kommen sichere Speichergeräte zum Einsatz. Die Verwendung von Snowball hilft bei der Bewältigung von Herausforderungen, die beim Übertragen von großen Datenmengen auftreten können, darunter hohe Netzwerkkosten, lange Übertragungszeiten und Sicherheitsbedenken.

Außerdem können Sie auch mit AWS Direct Connect dedizierte Netzwerkverbindungen zwischen Ihrem Standort und AWS herstellen. Häufig können Sie mit Direct Connect Ihre Netzwerkkosten senken, den Bandbreitendurchsatz erhöhen und eine konsistentere Netzwerkverbindung bereitstellen, als dies bei einer internetbasierten Verbindung möglich wäre.

F: Wie werden in S3 Glacier Deep Archive gespeicherte Objekte abgerufen?

Sie können zum Abrufen von in S3 Glacier Deep Archive gespeicherten Daten über die Amazon S3 APIs oder die Amazon S3-Managementkonsole eine Wiederherstellungsanforderung auslösen. Bei der Wiederherstellung wird eine temporäre Kopie Ihrer Daten in der Speicherklasse S3 One Zone-IA erstellt. Die in S3 Glacier Deep Archive archivierten Daten bleiben dabei unverändert. Sie können die Anzahl der Tage angeben, die die temporäre Kopie in S3 gespeichert werden soll. Über das Anwenden einer Amazon S3-GET-Anforderung auf das archivierte Objekt können Sie anschließend auf Ihre temporäre Kopie in S3 zugreifen.

Beim Wiederherstellen eines archivierten Objekts können Sie im Bereich "Ebene" des Anforderungstexts die folgenden Optionen festlegen: "Standard" ist die Standardebene, mit der Sie innerhalb von zwölf Stunden Zugriff auf alle archivierten Objekte haben; mit der Option "Bulk" können Sie große Mengen an Daten (sogar im Petabyte-Bereich) günstig und innerhalb von 48 Stunden abrufen.

F: Wie wird mir die Nutzung von S3 Glacier Deep Archive in Rechnung gestellt?

Die Speicherkosten für S3 Glacier Deep Archive hängen von der Menge der gespeicherten Daten (in GB), der Anzahl der PUT-/Lebenszyklusübergangsanforderungen, den Abrufen in GB und der Anzahl der Wiederherstellungsanforderungen ab. Das Preismodell ist ähnlich dem von S3 Glacier. Informationen zu den Preisen von S3 Glacier Deep Archive finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

F: Wie wird die Nutzung von S3 Glacier Deep Archive auf meiner AWS-Rechnung und im AWS-Kostenmanagement-Tool angezeigt?

Die Nutzung von S3 Glacier Deep Archive und die damit verbundenen Kosten werden auf Ihrer monatlichen AWS-Rechnung als Einzelposten und getrennt von Ihrer Nutzung und den Kosten von Amazon S3 angezeigt. Falls Sie jedoch das Tool AWS-Kostenmanagement verwenden, sind die Nutzung und die Kosten für S3 Glacier Deep Archive in den ausführlichen monatlichen Ausgabeberichten in der Nutzung und den Kosten für Amazon S3 enthalten und werden nicht als getrennter Einzelposten aufgeführt.

F: Gelten für S3 Glacier Deep Archive eine Mindestspeicherdauer und Mindestgebühren für den Objektspeicher?

S3 Glacier Deep Archive wurde für Daten mit einer Aufbewahrungsdauer von 7–10 Jahren oder länger entwickelt, auf die nur selten zugegriffen wird. In S3 Glacier Deep Archive archivierte Objekte werden mindestens 180 Tage lang gespeichert. Für Objekte, die vor Ablauf von 180 Tagen gelöscht werden, wird eine anteilige Speicherkostengebühr für die verbliebenen Tage in Rechnung gestellt. Informationen zu den Preisen von S3 Glacier Deep Archive finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

Die Mindestgröße für den Objektspeicher, der bei S3 Glacier Deep Archive in Rechnung gestellt wird, beträgt 40 KB. Kleinere Objekte können gespeichert werden, werden aber mit 40 KB Speicherplatz in Rechnung gestellt. Informationen zu den Preisen von S3 Glacier Deep Archive finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

 

F: Wie lässt sich S3 Glacier Deep Archive in andere AWS-Services integrieren?

Deep Archive ist in die Funktionalität von Amazon S3 integriert, einschließlich S3 Object Tagging, S3 Lifecycle-Richtlinien, S3 Object Lock und der Replikation von S3. Mit den S3-Funktionen zur Speicherverwaltung können Sie mit einem einzigen Amazon S3-Bucket einen Mix aus Daten in S3 Glacier Deep Archive, S3 Standard, S3 Standard-IA, S3 One Zone-IA und S3 Glacier speichern. Speicheradministratoren können Entscheidungen so basierend auf der Art der Daten und den Datenzugriffsmustern treffen. Kunden können mit den Lifecycle-Richtlinien von Amazon S3 Daten mit zunehmendem Alter automatisch in günstigere Speicherklassen migrieren oder sie mit den regionsübergreifenden oder regioninternen Replikationsrichtlinien von S3 in der gleichen oder einer anderen Region replizieren.

Der Service AWS Storage Gateway integriert Tape Gateway mit der Speicherklasse Amazon S3 Glacier Deep Archive und ermöglicht es Ihnen, virtuelle Bänder in der kostengünstigsten Speicherklasse von Amazon S3 zu speichern, wodurch die monatlichen Kosten für die Speicherung Ihrer Langzeitdaten in der Cloud um bis zu 75 % reduziert werden. Mit dieser Funktion unterstützt Tape Gateway die Archivierung Ihrer neuen virtuellen Bänder direkt in S3 Glacier und S3 Glacier Deep Archive und hilft Ihnen bei der Erfüllung Ihrer Sicherungs-, Archivierungs- und Wiederherstellungsanforderungen. Mit Tape Gateway können Sie bandgestützte Sicherungen in AWS verschieben, ohne Änderungen an Ihren bestehenden Sicherungs-Workflows vorzunehmen. Tape Gateway unterstützt die meisten gängigen Sicherungsanwendungen wie Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (unter Windows OS) und Microsoft Data Protection Manager.

Speicherverwaltung

S3 Object Tags

F: Was sind S3 Object Tags?

Bei S3 Object Tags handelt es sich um Schlüssel-Wert-Paare für S3-Objekte, die jederzeit während der Lebensdauer des Objekts erstellt, aktualisiert oder gelöscht werden können. Mit diesen Tags können Sie Identity and Access Management (IAM)-Richtlinien erstellen, S3 Lifecycle-Richtlinien einrichten und Speichermetriken anpassen. Mit diesen Tags auf Objektebene können dann die Übergänge zwischen Speicherklassen verwaltet und Objekte im Hintergrund als abgelaufen markiert werden. Sie können Tags neuen Objekten hinzufügen, wenn Sie diese hochladen, oder Tags bereits vorhandenen Objekten hinzufügen. Jedem S3-Objekt können bis zu zehn Tags hinzugefügt werden. Für das Hinzufügen von Objekt-Tags können Sie entweder die AWS-Managementkonsole, die REST-API, die AWS-CLI oder die AWS-SDKs verwenden. 

Weitere Informationen finden Sie im Benutzerhandbuch für S3 Object Tags.

F: Was spricht für die Verwendung von Objekt-Tags?

Bei Object Tags handelt es sich um ein Tool, mit dem Sie die Verwaltung Ihres S3-Speichers vereinfachen können. Da Sie die Möglichkeit haben, Tags jederzeit während der Lebensdauer Ihres Objekts erstellen, aktualisieren und löschen zu können, ist Ihr Speicher flexibel an die Anforderungen Ihres Unternehmens anpassbar. Mithilfe dieser Tags können Sie den Zugriff auf Objekte steuern, die mit bestimmten Schlüssel-Wert-Paaren getaggt wurden, damit vertrauliche Daten tatsächlich nur für eine ausgewählten Gruppe oder einen bestimmten Benutzer zugänglich sind. Objekt-Tags können außerdem verwendet werden, um Objekte zu kennzeichnen, die zu einem bestimmten Projekt oder einem bestimmten Geschäftsbereich gehören. Diese lassen sich sowohl in Verbindung mit S3-Lebenszyklusrichtlinien verwenden, um Übergänge zu anderen Speicherklassen (S3 Standard-IA, S3 One Zone-IA und S3 Glacier) zu verwalten, als auch mit S3-Replikation für die selektive Replikation von Daten zwischen AWS-Regionen.

F: Wie kann ich Objekt-Tags für meine Objekte aktualisieren?

Object Tags können während der Lebensdauer Ihres S3-Objekts jederzeit über die AWS-Management-Konsole, die REST-API, AWS-CLI oder AWS-SDKs geändert werden. Beachten Sie bitte, dass alle Änderungen an Tags, die außerhalb der AWS Management-Konsole vorgenommen werden, für die gesamte Tag-Gruppe erfolgen. Wenn Sie einem bestimmten Objekt fünf Tags zugeordnet haben und einen sechsten Tag hinzufügen möchten, müssen Sie die ursprünglichen fünf Tags in diese Anforderung einschließen.

F: Welche Kosten fallen für Objekt-Tags an?

Die Preise für Object Tags richten sich nach der Menge der Tags und den Anfragekosten für das Hinzufügen von Tags. Die Anforderungen, die mit dem Hinzufügen und Aktualisieren von Object Tags verbunden sind, entsprechen den Preisen für vorhandene Anfragepreise. Weitere Informationen finden Sie auf der Amazon-S3-Preisseite.

F: Welche ersten Schritte sind für Storage Class Analysis erforderlich?

Sie können über die AWS Management-Konsole oder die S3 PUT Bucket Analytics-API eine Richtlinie zur Speicherklassenanalyse konfigurieren, um selten genutzten Speicher zu ermitteln, der in die S3 Standard-IA- oder S3 One Zone-IA-Speicherklasse übertragen oder in der S3 Glacier-Speicherklasse archiviert werden kann. Auf der Registerkarte "Management" in der S3-Konsole können Sie Storage Class Analysis, S3 Inventory und S3 CloudWatch Metrics verwalten.

S3 Inventory

F: Was ist S3 Inventory?

Der S3 Inventory-Bericht stellt eine Alternative mit Zeitplanung zur synchronen Listen-API von Amazon S3 dar. Sie können S3 Inventory so konfigurieren, dass es täglich oder wöchentlich für ein S3-Bucket oder ein Präfix eine Übersicht über Ihre Objekte und die zugehörigen Metadaten in Form einer CSV (Comma Separated Values), einer ORC (Optimized Row Columnar) oder einer Parquet-Datei zur Verfügung stellt. Mit S3 Inventory können Sie Geschäftsabläufe und Aufträge mit großem Datenumfang vereinfachen oder beschleunigen. Sie können S3 Inventory auch zur Verifizierung der Verschlüsselung und des Replikationsstatus Ihrer Objekte verwenden, um geschäftliche, Compliance- und behördliche Anforderungen zu erfüllen. Weitere Informationen finden Sie im Amazon S3 Inventory-Benutzerhandbuch.

F: Welche ersten Schritte sind für S3 Inventory erforderlich?

Mit der AWS-Managementkonsole oder der PUT Bucket Inventory Configuration-API können Sie einen täglichen oder wöchentlichen Bestandsbericht aller Objekte in Ihrem S3-Bucket oder einer Untergruppe der Objekte unter einem gemeinsam genutzten Präfix konfigurieren. Bei der Konfiguration können Sie ein Ziel-S3-Bucket für Ihren S3 Inventory-Bericht, das Ausgabeformat der Ausgabedatei (CSV, ORC oder Parquet) und spezielle Objektmetadaten angeben, die für Ihre Geschäftsanwendung erforderlich sind, z. B. Objektname, Größe, Datum der letzten Änderung, Speicherklasse, Versions-ID, Löschmarkierung, Flag für veraltete Version, Flag für mehrteiligen Upload, Replikationsstatus oder Verschlüsselungsstatus. Sie können S3 Inventory als direkte Eingabe für Ihre Anwendungs-Workflows oder Big-Data-Aufträge verwenden. Zusätzlich können Sie S3 Inventory mithilfe von Standard SQL-Sprache mit Amazon Athena, Amazon Redshift Spectrum und anderen Tools wie Presto, Hive und Spark abfragen.

Weitere Informationen finden Sie im Amazon-S3-Inventurbenutzerhandbuch.

F: Wie wird mir die Nutzung von S3 Inventory in Rechnung gestellt?

Sie finden Informationen zu den Preisen für S3 Inventory auf der Seite mit der Preisübersicht für Amazon S3. Wenn Sie die Verschlüsselung mit SSE-KMS konfigurieren, fallen KMS-Kosten für die Verschlüsselung an. Weitere Informationen finden Sie auf der Seite mit der Preisübersicht für KMS.

S3 Batch Operations

F: Was sind S3-Stapeloperationen?

Mit S3 Batch Operations automatisieren Sie die Ausführung eines einzelnen Vorgangs (wie das Kopieren eines Objekts oder das Ausführen einer AWS Lambda-Funktion) über viele Objekte hinweg. Mit S3 Batch Operations können Sie mit wenigen Klicks in der S3 Konsole oder einer einzigen API-Abfrage eine Änderung an Milliarden von Objekten vornehmen, ohne eigene Anwendungscode schreiben oder Rechencluster für Speicherverwaltungsanwendungen ausführen zu müssen. Mit S3 Batch Operations können Sie nicht nur Ihre Speicheroperationen über viele Objekte hinweg verwalten, sondern auch Wiederholungsversuche. S3 Batch Operations zeigen Ihnen außerdem den Fortschritt an, senden Benachrichtigungen, liefern einen Abschlussbericht und übermitteln Ereignisse an AWS CloudTrail für alle Operationen, die an Ihren Zielobjekten durchgeführt werden. S3 Batch Operations kann von der S3-Konsole aus oder über die AWS-Befehlszeilenschnittstelle und SDK verwendet werden. 

Besuchen Sie die Seite S3 Batch-Operationen oder das Benutzerhandbuch, um mehr zu erfahren.

F: Was sind die ersten Schritte mit S3 Batch Operations?

Rufen Sie die Amazon S3-Konsole auf oder verwenden Sie die AWS CLI oder das SDK, um Ihren ersten Auftrag für S3 Batch Operations zu erstellen. Ein Auftrag für S3 Batch Operations besteht aus der Liste der zu verarbeitenden Objekte und der Art der auszuführenden Operation (die vollständige Liste der verfügbaren Operationen finden Sie hier). Wählen Sie zunächst einen S3 Inventory-Bericht aus oder erstellen Sie eine eigene, benutzerdefinierte Liste mit Objekten, die von S3 Batch Operations verarbeitet werden sollen. Ein S3 Inventory-Bericht ist eine Datei, in der alle in einem S3-Bucket oder Präfix gespeicherten Objekte aufgelistet sind. Als nächstes wählen Sie aus einer Reihe von S3-Operationen aus, die von S3 Batch Operations unterstützt werden, wie z.B. das Ersetzen von Tag-Sets, das Ändern von ACLs, das Kopieren von Speicher von einem Bereich in einen anderen oder das Einleiten einer Wiederherstellung von Glacier in S3. Sie können dann Ihre Aufträge für S3 Batch Operations mit bestimmten Parametern wie Tag-Werten, ACL-Empfängern und einer Wiederherstellungsdauer anpassen. Um Ihre Speicheraktionen weiter anzupassen, können Sie Ihre eigene Lambda-Funktion schreiben und diesen Code durch S3 Batch Operations aufrufen.

Sobald Sie Ihre S3 Batch Operations Aufgabe erstellt haben, verarbeitet S3 Batch Operations Ihre Objektliste und sendet den Auftrag bei Bedarf in den Zustand „wartet auf Bestätigung". Nachdem Sie die Auftragsdetails bestätigt haben, beginnt S3 Batch Operations mit der Ausführung des von Ihnen angegebenen Vorgangs. Sie können den Fortschritt Ihres Auftrags programmatisch oder über die S3-Konsole anzeigen, Benachrichtigungen über den Abschluss erhalten und einen Abschlussbericht überprüfen, in dem die an Ihrem Speicher vorgenommenen Änderungen aufgeführt sind.

Wenn Sie daran interessiert sind, mehr über S3 Batch Operations zu erfahren, sehen Sie sich die Videos der Tutorials an und lesen Sie die Dokumentation.

S3 Object Lock

F: Was ist die Amazon S3-Objektsperre?

Amazon S3 Object Lock ist eine Amazon S3-Funktion, die das Löschen von Objektversionen für einen bestimmten oder unbegrenzten Zeitraum verhindert. So können Sie Aufbewahrungsrichtlinien als zusätzliche Datenschutzmaßnahme oder zur Einhaltung gesetzlicher Bestimmungen durchsetzen. Sie können Workloads aus bestehenden WORM-Systemen (Write Once Read Many) in Amazon S3 migrieren und S3 Object Lock auf der Objekt- und Bucket-Ebene konfigurieren, sodass Objektversionslöschungen vor den festgelegten Aufbewahrungsdaten oder vor Ablauf einer gesetzlichen Aufbewahrungspflicht verhindert werden. Der Schutz durch S3 Object Lock bleibt erhalten, unabhängig davon, in welcher Speicherklasse sich die Objektversion befindet. Sie bleibt auch während S3 Lifecycle-Übertragungen zwischen Speicherklassen erhalten. 

Verwenden Sie die S3-Objektsperre, wenn gesetzliche Vorgaben festlegen, dass Daten WORM-geschützt sein müssen, oder wenn Sie eine zusätzliche Sicherheitsebene für Daten in Amazon S3 erstellen möchten. S3 Object Lock unterstützt Sie bei der Einhaltung gesetzlicher Vorgaben, die festlegen, dass Daten in einem unveränderlichen Format gespeichert werden müssen, und schützt Sie außerdem vor versehentlichem oder böswilligen Löschen von Daten in Amazon S3.

Weitere Informationen finden Sie im Benutzerhandbuch für S3 Object Lock.

F: Wie funktioniert Amazon S3 Object Lock?

Amazon S3 Object Lock verhindert das Löschen einer Objektversion für die Dauer eines festgelegten Aufbewahrungszeitraums oder unbegrenzt, bis eine gesetzliche Aufbewahrungsfrist entfernt wurde. Mit S3 Object Lock stellen Sie sicher, dass eine Objektversion unveränderlich bleibt, solange der WORM-Schutz auf sie angewandt wird. Sie können den WORM-Schutz anwenden, indem Sie einer Objektversion entweder ein maximales Aufbewahrungsdatum oder eine gesetzliche Aufbewahrungsfrist über das AWS SDK, die CLI, die REST API oder die S3-Managementkonsole zuweisen. Sie können Aufbewahrungseinstellungen innerhalb einer PUT-Anfrage oder auf ein bestehendes Objekt anwenden, nachdem es erstellt wurde.

Das maximale Aufbewahrungsdatum definiert den Zeitraum, in dem eine Objektversion unveränderlich bleiben muss. Sobald einem Objekt ein maximales Aufbewahrungsdatum zugeordnet wurde, kann diese Objektversion erst nach Ablauf des Aufbewahrungsdatums geändert oder gelöscht werden. Wenn ein Benutzer versucht, ein Objekt vor dem Aufbewahrungsdatum zu löschen, wird die Operation verweigert.

Alternativ können Sie ein Objekt unveränderlich machen, indem Sie eine gesetzliche Aufbewahrungsfrist anwenden. Eine gesetzliche Aufbewahrungsfrist verhindert auf unbestimmte Zeit, dass eine Objektversion verändert oder gelöscht wird, bis sie explizit entfernt wird. Zum Einrichten oder Entfernen gesetzlicher Aufbewahrungsfristen muss Ihr AWS-Konto über eine Schreibberechtigung für die Aktion PutObjectLegalHold verfügen. Die gesetzliche Aufbewahrungsfrist kann auf jedes Objekt in einem Bucket mit aktivierter S3-Objektsperre angewendet werden, unabhängig davon, ob dieses Objekt derzeit durch eine Aufbewahrungsfrist mit WORM geschützt ist.

Die S3-Objektsperre kann in einem Modus oder in zwei Modi konfiguriert werden. Wenn die Bereitstellung im Governance-Modus erfolgt, können AWS-Konten mit bestimmten IAM-Berechtigungen den WORM-Schutz von einer Objektversion entfernen. Wenn aufgrund von Richtlinien eine stärkere Unveränderlichkeit gewünscht wird, können Sie den Compliance-Modus verwenden. Im Compliance-Modus kann der WORM-Schutz von keinem Benutzer entfernt werden. Das gilt auch für das Root-Konto.

F: Welche elektronischen Speicher-Services von AWS wurden hinsichtlich Finanzdienstleistungsregulierungen beurteilt?

In der Finanzdienstleistungsbranche bietet die S3-Objektsperre eine zusätzliche Unterstützung für Broker, die Datensätze in einem nicht löschbaren und nicht überschreibbaren Format aufbewahren müssen, um die gesetzlichen Anforderungen der SEC-Regel 17a-4(f), der FINRA-Regel 4511 oder der CFTC-Verordnung 1.31 zu erfüllen. Sie können den Zeitrahmen für die Aufbewahrung von Datensätzen leicht so festlegen, dass die gesetzlich vorgeschriebenen Archive im Originalformat für die erforderliche Dauer aufbewahrt werden, und darüber hinaus Daten sperren, um sie für unbegrenzte Zeit aufzubewahren, bis die Sperrung entfernt wird.

F: Welche AWS-Dokumentation entspricht den Anforderungen von SEC 17a-4(f)(2)(i) und CFTC 1.31(c) bezüglich der Benachrichtigung meiner Regulierungsbehörde?

Benachrichtigen Sie Ihre Regulierungsbehörde oder die von Ihnen gewählte, mit der Prüfung beauftragte Behörde, dass Sie Amazon S3 für die elektronische Speicherung verwenden, und legen Sie eine Kopie der Cohasset-Beurteilung bei. AWS ist bezüglich dieser Anforderungen kein designierter Dritter (D3P). Wählen Sie einen D3P aus, und geben Sie diese Informationen in Ihrer Benachrichtigung der mit der Prüfung beauftragten Behörde an.

S3 CloudWatch-Metriken

F: Welche ersten Schritte sind für S3 CloudWatch Metrics erforderlich? 

Mit der AWS Management-Konsole können Sie die Generierung einer einminütigen CloudWatch Metrics-Instance für Ihr S3-Bucket aktivieren oder mithilfe eines Präfix oder Object Tags Filter konfigurieren. Alternativ dazu haben Sie die Möglichkeit, die S3 PUT Bucket Metrics-API für die Aktivierung und Konfiguration der Veröffentlichung von S3-Speichermetriken aufzurufen. Speichermetriken sind bereits 15 Minuten nach ihrer Aktivierung in CloudWatch verfügbar. CloudWatch-Speichermetriken sind standardmäßig für alle Buckets aktiviert und werden einmal pro Tag gemeldet. Erfahren Sie mehr über CloudWatch-Metriken für Amazon S3.

F: Welche Alarme kann ich für meine Speichermetriken einstellen?

In CloudWatch können Sie Schwellenwerte für sämtliche Zähler, Timer oder Raten von Speichermetriken festlegen und bei einer Nichteinhaltung der Werte eine Aktion auslösen. Sie können beispielsweise einen Schwellenwert für den Prozentsatz von 4xx-Fehlermeldungen festlegen und einen DevOps-Techniker durch Auslösen eines CloudWatch-Alarms benachrichtigen, sobald mindestens drei Dateneinträge über dem Schwellenwert liegen.

F: Wie wird mir die Nutzung von S3 CloudWatch-Metriken in Rechnung gestellt? 

Die Speichermetriken von CloudWatch werden kostenlos zur Verfügung gestellt. Die Metriken zu CloudWatch-Abfragen werden als benutzerdefinierte Metriken für Amazon CloudWatch berechnet. Allgemeine Informationen zu den Preisen von S3-CloudWatch-Metriken finden Sie auf der Seite mit der Preisübersicht für Amazon CloudWatch.

S3-Lebenszyklus-Management

F: Was ist S3-Lebenszyklus-Management?

Mit dem S3-Lebenszyklus-Management können Sie den Lebenszyklus Ihrer Objekte mittels einer vordefinierten Richtlinie festlegen und Ihre Speicherkosten reduzieren. Sie können eine Lebenszyklus-Übertragungsrichtlinie einrichten, um Objekte, die in der S3 Standard-Speicherklasse gespeichert sind, automatisch auf der Grundlage des Alters der Daten in die Speicherklassen S3 Standard-IA, S3 One Zone-IA und/oder S3 Glacier zu migrieren. Ebenso können Sie Richtlinine für das Ende von Lebenszyklen erstellen, sodass Objekte automatisch entfernt werden, wenn sie ein bestimmtes Alter erreicht haben. Sie können eine Richtlinie für die Ablauffrist mehrteiliger Uploads festlegen. Anhand dieser Richtlinie verfallen unvollständige mehrteilige Uploads basierend auf ihrem Alter.

Weitere Informationen finden Sie im S3 Lifecycle-Benutzerhandbuch.

F: Wie erstelle ich eine S3-Lebenszyklus-Managementrichtlinie?

Lebenszyklusrichtlinien lassen sich in der AWS-Management-Konsole, in der S3 REST-API, den AWS-SDKs oder der AWS Command Line Interface (CLI) erstellen und verwalten. Eine Spezifizierung der Richtlinie ist auf Präfix- oder auf Bucket-Ebene möglich.

F: Wie kann ich das Lebenszyklus-Management von Amazon S3 nutzen, um meine Amazon S3-Speicherkosten zu senken?

Mit Amazon S3-Lebenszyklusrichtlinien können Sie Ihre Objekte so konfigurieren, dass sie aus der S3 Standard-Speicherklasse in die Speicherklasse S3 Standard-IA oder S3 One Zone-IA migriert und oder in S3 Glacier archiviert werden. Sie können eine S3-Lebenszyklusrichtlinie festlegen, um Objekte nach einer bestimmten Zeit zu löschen. Mithilfe dieser durch Richtlinien gesteuerten Automatisierung können Sie schnell und einfach Speicherkosten senken und Zeit sparen. In jeder Regel können Sie ein Präfix, einen Zeitraum, eine Übertragung in S3 Standard-IA, S3 One Zone-IA oder S3 Glacier und/oder einen Ablauftermin angeben. Sie können beispielsweise eine Regel definieren, durch die alle Objekte mit dem gemeinsamen Präfix "logs/" 30 Tage nach der Erstellung in S3 Glacier archiviert und 365 Tage nach der Erstellung gelöscht werden. Sie können auch eine gesonderte Regel erstellen, gemäß der nur alle Objekte mit dem Präfix „backups/“ 90 Tage nach der Erstellung gelöscht werden. S3-Lebenszyklusrichtlinien gelten sowohl für vorhandene als auch für neue S3-Objekte. Sie ermöglichen Ihnen eine optimierte Speicherung und maximale Kosteneinsparung für alle derzeitigen und neuen Daten, die in S3 abgelegt werden, und zwar ohne zeitaufwendige manuelle Datenüberprüfungen und -migrationen. Bei einer Lebenszyklusregel bestimmt das Präfixfeld die Objekte, die der Regel unterliegen. Um die Regel auf ein einzelnes Objekt anzuwenden, müssen Sie den Schlüsselnamen angeben. Wenn Sie die Regel auf einen ganzen Satz an Objekten anwenden möchten, muss ihr gemeinsames Präfix angegeben werden (z. B. „logs“). Sie können zum Archivieren Ihrer Objekte eine Überführungsaktion und zum Entfernen Ihrer Objekte eine Löschaktion nach Terminablauf angeben. Geben Sie beim Zeitraum das Erstellungsdatum (z. B. 31.01.2015) oder die Anzahl der Tage ab dem Erstellungsdatum (z. B. 30 Tage) an, nach denen Ihre Objekte archiviert oder entfernt werden sollen. Sie können mehrere Regeln für unterschiedliche Präfixe erstellen.

F: Wie viel kostet die Nutzung des S3-Lebenszyklus-Managements?

Mit der Erstellung und Anwendung von Lebenszyklusrichtlinien sind keine zusätzlichen Kosten verbunden. Kosten für die Übertragung fallen pro Objekt an, sobald das betreffende Objekt gemäß der Lebenszyklusregel die Voraussetzungen für die Übertragung erfüllt. Bitte besuchen Sie die Seite mit den Preisen für S3, wenn Sie mehr Informationen über die Kosten wünschen.

F: Warum sollte ich eine S3-Lebenszyklusrichtlinie verwenden, um unvollständige mehrteilige Uploads ablaufen zu lassen?

Die S3-Lebenszyklusrichtlinie für unvollständige mehrteilige Uploads ermöglicht es Ihnen, durch Begrenzung des Speicherzeitraums für nicht abgeschlossene mehrteilige Uploads Kosten zu sparen. Wenn Ihre Anwendung beispielsweise mehrere mehrteilige Objektteile hochlädt, diese aber nie einbindet, wird Ihnen der benötigte Speicher trotzdem in Rechnung gestellt. Diese Richtlinie kann Ihre S3-Rechnung senken, indem sie automatisch unvollständige mehrteilige Uploads entfernt und den zugehörigen Speicher nach einer festgelegten Anzahl von Tagen freigibt.

Weitere Informationen dazu, wie Sie mit S3 Lifecycle unvollständige mehrteilige Uploads ablaufen lassen können »

Speicheranalysen und Einblicke

F: Welche Funktionen zur Analyse meiner Speichernutzung auf Amazon S3 gibt es?

S3 Storage Lens stellt unternehmensweite Sichtbarkeit in die Objektspeichernutzung und Aktivitätentrends bereit und spricht umsetzbare Empfehlungen aus, um Kosteneffizienz zu verbessern und bewährte Praktiken des Datenschutzes anzuwenden. Mit S3 Storage Class Analysis können Sie Zugriffsmuster objektübergreifend überwachen. Dies hilft Ihnen zu entscheiden, wann Daten auf die richtige Speicherklasse übertragen werden sollen, um Kosten zu sparen. Anhand dieser Informationen können Sie eine S3 Lifecycle-Richtlinie konfigurieren, die die Datenübertragung veranlasst. Amazon S3 Inventory erstellt täglich oder wöchentlich einen Bericht über Ihre Objekte und die zugehörigen Metadaten für einen S3-Bucket oder ein Präfix. Dieser Bericht hilft Ihnen, geschäftliche, Compliance- und behördliche Anforderungen zu erfüllen, indem Sie die Verschlüsselung und den Replikationsstatus Ihrer Objekte verifizieren.

F: Was ist Amazon S3 Storage Lens?

Amazon S3 Storage Lens stellt unternehmensweite Sichtbarkeit in Objektspeichernutzung und Aktivitätentrends bereit sowie umsetzbare Empfehlungen, um die Kosteneffizienz zu verbessern und bewährte Praktiken des Datenschutzes anzuwenden. Storage Lens bietet ein interaktives Dashboard mit einer einzelnen Ansicht Ihrer Objektspeichernutzung und Aktivitäten über Dutzende bis Hunderte Konten in Ihrem Unternehmen hinweg. Die Drilldown-Funktionen erlaubt es Ihnen, Einblicke in das Konto, den Bucket oder sogar auf Präfixebene zu generieren. Dies umfasst Metriken wie Bytes, Objektanzahl und Anfragen sowie Metriken, die die Nutzung von S3-Funktionen detailliert aufzeigen, z. B. die Anzahl verschlüsselter Objekte und die Anzahl von Löschmarkierungen. S3 Storage Lens bietet auch kontextbezogene Empfehlungen, um Wege zu finden, wie Sie die Speicherkosten senken und bewährte Methoden für den Datenschutz über Dutzende oder Hunderte von Konten und Buckets hinweg anwenden können.

Weitere Informationen finden Sie im Benutzerhandbuch für S3 Storage Lens.

F: Wie funktioniert S3 Storage Lens?

S3 Storage Lens aggregiert Ihre Speichernutzungs- und Aktivitätsmetriken auf täglicher Basis und visualisiert sie im interaktiven S3 Storage Lens-Dashboard oder stellt sie als Metrik-Export im CVS- oder Parquet-Dateiformat zur Verfügung. Ein Standard-Dashboard wird automatisch für Sie auf Kontoebene erstellt, und Sie haben die Möglichkeit, zusätzliche benutzerdefinierte Dashboards zu erstellen, die auf Ihre AWS-Organisation oder bestimmte Konten, Regionen oder Buckets zugeschnitten sind. Bei der Konfiguration Ihres Dashboards können Sie die standardmäßige Auswahl an Metriken verwenden oder gegen einen Aufpreis fortgeschrittene Metriken und Empfehlungen erhalten. S3 Storage Lens bietet Empfehlungen im Kontext mit den Speichermetriken im Dashboard, sodass Sie Maßnahmen zur Speicheroptimierung auf Basis der Metriken ergreifen können.

F: Was sind die wichtigsten Fragen, die mit S3 Storage Lens-Metriken beantwortet werden können?

Das S3 Storage Lens-Dashboard nach drei Haupttypen von Fragen organisiert, die über Ihren Speicher beantwortet werden können. In der Ansicht "Summary" können übergeordnete Fragen zur allgemeinen Speichernutzung und zu Aktivitätstrends untersucht werden. Zum Beispiel: "Wie schnell steigert sich meine gesamte Byte- und Anfrageanzahl im Laufe der Zeit?" In der Ansicht "Cost Efficiency" können Sie Fragen nachgehen, die sich mit der Speicherkostenreduzierung befassen. Zum Beispiel "Kann ich Einsparungen erzielen, indem ich weniger veraltete Versionen nutze?" Und in der Ansicht "Data Protection" können Sie Antworten zur Sicherung von Daten finden, indem Sie Fragen stellen wie: "Ist mein Speicher vor versehentlicher oder absichtlicher Löschung geschützt?" Jede diese Fragen repräsentiert die erste Ebene einer Anfrage und führt wahrscheinlich zu einer Drilldown-Analyse.

F: Welche Metriken stehen in S3 Storage Lens zur Verfügung?

S3 Storage Lens verfügt über mehr als 30 Metriken, aufgeteilt in Nutzungsmetriken (auf Grundlage eines täglichen Snapshots der Objekte im Konto) und Aktivitätsmetriken (die Anfragen und abgerufene Bytes nachverfolgen). Die Metriken sind in drei Hauptkategorien organisiert: Zusammenfassung, Kosteneffizienz und Datenschutz. Zusätzlich stehen abgeleitete Metriken zur Verfügung, die durch Kombination der grundlegenden Metriken ermittelt werden. So wird beispielsweise die Abrufrate berechnet, indem die Anzahl der heruntergeladenen Bytes durch die gesamte Byte-Anzahl geteilt wird. Eine vollständige Liste aller Metriken finden Sie in der Dokumentation zu S3 Storage Lens.

F: Welche Optionen zur Dashboard-Konfiguration gibt es?

Es wird ein Standard-Dashboard konfiguriert, das automatisch für Ihr gesamtes Konto bereitgestellt wird, und Sie haben die Möglichkeit, zusätzliche benutzerdefinierte Dashboards zu erstellen, die auf Ihre AWS-Organisation, bestimmte Regionen oder Buckets innerhalb eines Kontos skaliert werden können. Sie können mehrere benutzerdefinierte Dashboards einrichten, was nützlich sein kann, wenn Sie eine logische Trennung in Ihrer Speicheranalyse benötigen, wie z. B. die Segmentierung auf Buckets, um verschiedene interne Teams darzustellen. Standardmäßig erhält Ihr Dashboard die kostenlosen Metriken von S3 Storage Lens. Sie haben jedoch die Möglichkeit, ein Upgrade durchzuführen, um fortgeschrittene Metriken und Empfehlungen von S3 Storage Lens zu erhalten. Zusätzlich können Sie für jedes Dashboard den Export von Metriken aktivieren, mit zusätzlichen Optionen zum Festlegen des Ziel-Buckets und des Verschlüsselungstyps.

F: Wie viele historische Daten sind in S3 Storage Lens verfügbar?

Bei Metriken auf dem interaktiven Dashboard werden bei den kostenlosen Metriken von Storage Lens die historischen Daten von 14 Tagen aufbewahrt. Bei fortgeschrittenen Metriken und Empfehlungen werden die historischen Daten von 15 Monaten aufbewahrt. Beim optionalen Export von Metriken, können Sie die Aufbewahrungsdauer selbst festlegen. Dabei gelten die Standard-Speichergebühren für S3.

F: Wie wird mir S3 Storage Lens in Rechnung gestellt?

S3 Storage Lens bietet zwei Stufen von Metriken. Die kostenfreien Metriken stehen allen Kunden ohne Zusatzkosten zur Verfügung. Einzelheiten zu den Preisen für fortgeschrittenen Metriken und Empfehlungen von S3 Storage Lens erhalten Sie auf der Seite mit der Preisübersicht für S3. Mit den kostenlosen Metriken von S3 Storage Lens erhalten Sie Nutzungsmetriken auf Bucket-Ebene und 14 Tage an historischen Daten im Dashboard. Mit den fortgeschrittenen Metriken und Empfehlungen von S3 Storage Lens erhalten Sie Nutzungsmetriken auf Präfix-Ebene, Aktivitätsmetriken, Empfehlungen und 15 Monate an historische Daten im Dashboard.

F: Was ist der Unterschied zwischen S3 Storage Lens und S3 Inventory?

S3 Inventory stellt eine Liste Ihrer Objekte und der zugehörigen Metadaten für einen S3-Bucket oder ein gemeinsames Präfix zur Verfügung, mit der Sie eine Analyse Ihres Speichers auf Objektebene durchführen können. S3 Storage Lens bietet Metriken, die nach Organisation, Konto, Region, Speicherklasse, Bucket und Präfix-Ebene aggregiert sind, was eine verbesserte unternehmensweite Sichtbarkeit Ihres Speichers ermöglicht.

F: Was ist der Unterschied zwischen S3 Storage Lens und S3 Storage Class Analysis (SCA)?

S3 Storage Class Analysis liefert Empfehlungen für eine optimale Speicherklasse, indem Objektaltersgruppen auf der Grundlage von Zugriffsmustern auf Objektebene innerhalb eines einzelnen Buckets/Präfix/Tags für die letzten 30–90 Tage erstellt werden. S3 Storage Lens liefert täglich Empfehlungen auf Organisationsebene, wie die Kosteneffizienz verbessert und bewährte Methoden für den Datenschutz angewendet werden können, sowie zusätzliche granulare Empfehlungen nach Konto, Region, Speicherklasse, Bucket oder Präfix.  

Storage Class Analysis

F: Was versteht man unter „Storage Class Analysis“?

Mit Storage Class Analysis können Sie Speicherzugriffsmuster analysieren, um die optimale Speicherklasse für Ihren Speicher zu ermitteln. Diese neue Funktion von S3 erkennt automatisch Muster einer seltenen Nutzung und erleichtert so die Übertragung von Speicher auf S3 Standard-IA. Sie können eine Richtlinie für Storage Class Analysis konfigurieren, sodass entweder ein vollständiger Bucket, ein Präfix oder ein Object Tag überwacht wird. Sobald ein Muster eines seltenen Zugriffs festgestellt wird, können Sie ohne großen Aufwand auf Basis der Ergebnisse eine neue S3 Lebenszyklus-Altersrichtlinie erstellen. Zudem ermöglicht Storage Class Analysis tägliche grafische Darstellungen Ihrer Speichernutzung in der AWS-Managementkonsole. Sie können außerdem einen Exportbericht an einen S3-Bucket senden, um für die Analyse Business Intelligence-Tools Ihrer Wahl, wie beispielsweise Amazon QuickSight, zu nutzen.

Öffnen Sie das Benutzerhandbuch der S3 Storage Class Analysis, um mehr zu erfahren und loszulegen.

F: Wie oft wird Storage Class Analysis aktualisiert?

Storage Class Analysis wird täglich in der S3-Managementkonsole aktualisiert. Erste Empfehlungen für Speicherklassenübergänge werden jedoch nach 30 Tagen bereitgestellt.

Direkte Abfragen

F: Was ist die Funktion "Direkte Abfrage"?

Kunden können mit Amazon S3 erweiterte Abfragen zu gespeicherten Daten durchführen, ohne sie in eine separate Analyseplattform zu verschieben. Die direkte Datenabfrage in Amazon S3 erhöht die Leistung deutlich und senkt die Kosten für Analyselösungen, die S3 als Data Lake nutzen. S3 bietet mehrere Optionen für die direkte Abfrage, darunter S3 Select, Amazon Athena und Amazon Redshift Spectrum. Sie wählen einfach die Beste für Ihren Anwendungsfall aus. Sie können mit Amazon S3 Select und AWS Lambda sogar Serverless Apps erstellen, die die direkte Verarbeitung von S3 Select zu ihren Gunsten nutzen.

F: Was ist S3 Select?

S3 Select ist eine Funktion von Amazon S3, mit der Sie spezifische Daten mit einfachen SQL-Ausdrücken aus dem Objektinhalt abrufen können, ohne das ganze Objekt abzurufen. S3 Select vereinfacht und verbessert die Leistung beim Scannen und Filtern von Objektinhalten durch kleinere und gezieltere Datensätze um bis zu 400 %. Mit S3 Select können Sie auch Geschäftsabläufe auf Protokolldateien in Amazon S3 untersuchen, ohne ein Rechencluster zu betreiben oder zu verwalten. 

Mit S3 Select können Sie eine Teilmenge von Daten mithilfe von SQL-Klauseln wie SELECT und WHERE aus Objekten abrufen, die im CSV-, JSON- oder Apache Parkett-Format gespeichert sind. Zudem können Sie S3 Select für Objekte, die per GZIP oder BZIP2 (nur für CSV- und JSON-Objekte) komprimiert sind, und für serverseitig verschlüsselte Objekte nutzen.

Wenn Sie S3 Select zusammen mit AWS Lambda verwenden, können Sie serverlose Anwendungen erstellen. Diese nutzen S3 Select, um Daten von Amazon S3 effizient und einfach abzurufen, anstatt das gesamte Objekt abzurufen und zu verarbeiten. Außerdem können Sie S3 Select mit Big Data-Frameworks wie Presto, Apache Hive und Apache Spark nutzen, um Daten in Amazon S3 zu scannen und zu filtern.

Weitere Informationen finden Sie im S3 Select-Benutzerhandbuch.

F: Was ist Amazon Athena?

Amazon Athena ist ein interaktiver Abfrageservice, der die Analyse von Daten in Amazon S3 mit Standard-SQL-Abfragen erleichtert. Athena ist serverlos, sodass keine Infrastruktur eingerichtet oder verwaltet werden muss und Sie sofort mit dem Analysieren von Daten beginnen können. Sie müssen nicht einmal Daten in Athena übertragen. Athena arbeitet direkt mit den in einer beliebigen S3-Speicherklasse gespeicherten Daten. Um zu beginnen, melden Sie sich einfach bei der Athena-Verwaltungskonsole an, definieren Ihr Schema und beginnen mit dem Abfragen. Amazon Athena verwendet Presto mit vollständigem Support für Standard-SQL und arbeitet mit einer Vielzahl von Standard-Datenformaten wie beispielsweise CSV, JSON, ORC, Apache Parquet und Avro zusammen. Während Athena ideal für schnelle Ad-hoc-Abfragen geeignet ist und in Amazon QuickSight integriert werden kann, um einfache Visualisierungen durchzuführen, kann es auch komplexe Analysen einschließlich großer Joins, Fensterfunktionen und Arrays erstellen.

F: Was ist Amazon Redshift Spectrum?

Amazon Redshift Spectrum ist eine Funktion von Amazon Redshift, die es Ihnen ermöglicht, Abfragen für Exabyte an unstrukturierten Daten in Amazon S3 auszuführen, ohne dass Ladevorgänge oder ETL erforderlich sind. Wenn Sie eine Abfrage ausgeben, erreicht diese den Amazon Redshift-SQL-Endpunkt, der einen Abfrageplan generiert und optimiert. Amazon Redshift ermittelt, welche Daten lokal gespeichert sind und welche sich in Amazon S3 befinden, generiert einen Plan zum Minimieren der zu lesenden Amazon S3-Datenmenge, fordert Amazon Redshift Spectrum-Arbeitsressourcen aus einem freigegebenen Ressourcenpool an, um Daten aus Amazon S3 zu lesen und zu verarbeiten.

Redshift Spectrum kann bei Bedarf auf Tausende von Instances skaliert werden, damit Abfragen unabhängig von der Datengröße schnell ausgeführt werden. Außerdem können Sie exakt die gleiche SQL für Amazon S3-Daten wie für Ihre aktuellen Amazon Redshift-Abfragen verwenden und eine Verbindung zum gleichen Amazon Redshift-Endpunkt mithilfe der gleichen BI-Tools herstellen. Durch die Trennung von Speicher- und Rechenressourcen können Sie mit Redshift Spectrum beides unabhängig voneinander skalieren. Sie können so viele Amazon Redshift-Cluster wie nötig einrichten, um Ihren Amazon S3-Data Lake abzufragen, und so hohe Verfügbarkeit und unbegrenzte Gleichzeitigkeit bereitstellen. Mit Redshift Spectrum haben Sie die Möglichkeit, Ihre Daten am von Ihnen bevorzugten Ort und im bevorzugten Format zu speichern, sodass sie Ihnen bei Bedarf für die Verarbeitung zur Verfügung stehen.

Replikation

F: Was ist Amazon S3 Replication?

Amazon S3 Replication ermöglicht das automatische, asynchrone Kopieren von Objekten in Amazon-S3-Buckets. Buckets, die für die Objektreplikation konfiguriert wurden, können im Besitz des gleichen AWS-Kontos oder eines anderen Kontos sein. Sie können Objekte zu einem oder mehreren Ziel-Buckets zwischen unterschiedlichen AWS-Regionen (S3 Cross-Region Replication) oder in der gleichen AWS-Region (S3 Same-Region Replication) kopieren. Weitere Informationen finden Sie im S3 Replication-Benutzerhandbuch.

F: Was ist die Amazon S3 Cross-Region Replication (CRR – Regionsübergreifende Replikation)?

CRR ist eine Amazon S3-Funktion, die Daten automatisch zwischen Buckets in unterschiedlichen AWS-Regionen repliziert. Mit CRR richten Sie die Replikation auf Bucket-Ebene, auf einer freigegebenen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags ein. Sie können CRR einsetzen, um in verschiedenen geografischen Regionen einen Datenzugriff mit geringerer Latenz bereitzustellen. CRR kann auch nützlich sein, um die Compliance-Anforderung zu erfüllen, dass Daten Hunderte von Kilometern entfernt gespeichert werden müssen. Sie können CRR verwenden, um den Kontobesitz für die replizierten Objekte zu ändern und Daten so vor versehentlicher Löschung zu schützen. Weitere Informationen erhalten Sie im S3 CRR-Benutzerhandbuch.

F:   Was ist die regioninterne Replikation für Amazon S3 (SRR)?

SRR ist eine Amazon S3-Funktion, die Daten automatisch zwischen Buckets in der gleichen AWS-Region repliziert. Mit SRR richten Sie die Replikation auf Bucket-Ebene, auf einer freigegebenen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags ein. Sie können SRR verwenden, eine oder mehrere Kopien Ihrer Daten in der gleichen AWS-Region anzufertigen. Mit SRR können Sie Anforderungen zur Datensouveränität und Compliance einhalten, indem Sie eine Kopie Ihrer Daten in einem getrennten AWS-Konto in derselben Region wie der originalen aufbewahren. Sie können SRR verwenden, um den Kontobesitz für die replizierten Objekte zu ändern und Daten so vor versehentlicher Löschung zu schützen. Sie können mit SRR leicht Protokolle aus verschiedenen S3-Buckets für die regioninterne Verarbeitung aggregieren oder die Live-Replikation zwischen Test- und Entwicklungsumgebungen konfigurieren. Weitere Informationen erhalten Sie im S3 SRR-Benutzerhandbuch.

F: Wie aktiviere ich Amazon S3 Replication (regionsübergreifende und regioninterrne Replikation)?

Bei Amazon S3 Replication (CRR und SRR) richten Sie die Replikation auf S3-Bucket-Ebene, auf einer freigegebenen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags ein. Sie fügen eine Replikationskonfiguration auf Ihrem Quell-Bucket hinzu, indem Sie für die Replikation einen Ziel-Bucket in derselben oder einer anderen AWS-Region angeben.

Zur Aktivierung der Replikation können Sie die S3-Managementkonsole, -API, die AWS CLI, AWS SDKs oder AWS CloudFormation verwenden. Versioning muss für Quell- und Ziel-Bucket aktiviert sein, um die Replikation aktivieren zu können. Weitere Informationen finden Sie unter Einrichtung von Replication im Amazon-S3-Entwicklerhandbuch.

F: Kann ich S3-Replikation (CRR und SRR) mit S3-Lebenszyklusregeln verwenden?

Bei S3-Replikation (CRR und SRR) erstellen Sie Replikationsregeln, um Kopien Ihrer Objekte in eine andere Speicherklasse in derselben oder einer anderen Region anzulegen. Lebenszyklusaktionen werden nicht repliziert und wenn dieselbe Lebenszykluskonfiguration sowohl für Quell- als auch Ziel-Bucketts angewandt werden soll, aktivieren Sie die bei beiden dieselbe Lebenszykluskonfiguration. 

Beispiel: Sie können eine Lebenszyklusregel für den Ziel-Bucket konfigurieren, um Daten aus der S3 Standard-Speicherklasse in die Speicherklasse S3 Standard-IA oder S3 One Zone-IA zu migrieren oder sie in S3 Glacier zu archivieren.

Mehr Informationen zur Lebenszykluskonfiguration und Replikation finden Sie imS3 Replication-Entwicklerhandbuch. 

F: Kann ich S3 Replication nutzen, um mehr als einen Ziel-Bucket zu replizieren?

Ja. Mit S3 Replication können Kunden ihre Daten in mehreren Ziel-Buckets derselben oder unterschiedlicher AWS-Regionen replizieren. Geben Sie bei der Einrichtung einfach den neuen Ziel-Bucket in Ihrer bestehenden Replikationskonfiguration an oder erstellen Sie eine neue Replikationskonfiguration mit mehreren Ziel-Buckets. Für jedes neue Ziel können Sie die Speicherklasse des Ziel-Buckets, den Verschlüsselungstyp, die Replikationsmetriken und -benachrichtungen, die Replication Time Control (RTC) und weitere Einstellungen festlegen.

F: Kann ich S3 Replication verwenden, um eine bidirektionale Replikation zwischen S3-Buckets einzurichten?

Ja. Um eine bidirektionale Replikation einzurichten, erstellen Sie eine Replikationsregel von Bucket A zu Bucket B und richten eine weitere Replikationsregel von Bucket B zu Bucket A ein. Stellen Sie sicher, dass Sie die Synchronisierung von Replikatmodifikationen für beide Buckets A und B aktivieren, um Änderungen an Replikatmetadaten wie Zugriffskontrolllisten (ACLs), Objekttags oder Objektsperren auf den replizierten Objekten zu replizieren.

F: Kann ich Replikation mit mehreren AWS-Konten verwenden, um mich vor böswilligem oder versehentlichem Löschen zu schützen?

Ja, Sie können bei CRR und SRR die Replikation für mehrere AWS-Konten einrichten, um die replizierten Daten in einem anderen Konto in der Zielregion zu speichern. Sie können die Besitzüberschreibung in Ihrer Replikationskonfiguration verwenden, um einen unterschiedlichem Besitzstapel für Quelle und Ziel beizubehalten und den Besitz des Zielkontos am replizierten Speicher zu gewähren.

F: Werden meine Objekt-Tags repliziert, wenn ich die regionsübergreifende Replikation verwende?

Object Tags können mithilfe der regionsübergreifenden Replikation über mehrere AWS-Regionen hinweg repliziert werden. Für Kunden, bei denen die regionsübergreifende Replikation bereits aktiviert ist, sind neue Berechtigungen erforderlich, damit Tags repliziert werden können. Sie finden weitere Informationen zur Einrichtung der regionsübergreifenden Replikation unter Einrichtung der regionsübergreifenden Replikation im Amazon S3 Developer Guide.

F: Kann ich Löschmarkierungen von einem Bucket in einen anderen Bucket replizieren?

Ja, Sie können Löschmarkierungen von der Quelle zum Ziel replizieren, wenn Sie in Ihrer Replikationskonfiguration die Replikation von Löschmarkierungen aktiviert haben. Wenn Sie Löschmarkierungen replizieren, verhält sich Amazon S3 so, als ob das Objekt in beiden Buckets gelöscht wurde. Sie können die Replikation von Löschmarkierungen in einer neuen oder bestehenden Replikationsregel aktivieren. Sie können die Löschmarkierungs-Replikation auf den gesamten Bucket oder auf Amazon S3-Objekte anwenden, die ein bestimmtes Präfix haben, wobei die Replikationsregeln auf Präfixen basieren. Die Amazon S3-Replikation unterstützt die Löschmarkierungs-Replikation für Objekttag-basierte Replikationsregeln nicht. Weitere Informationen zum Aktivieren der Replikation von Löschmarkierungen finden Sie unter Replizieren von Löschmarkierungen von einem Bucket in einen anderen.

F: Kann ich Daten aus anderen AWS-Regionen nach China replizieren? Kann ein Kunde aus einem Bucket der Region China außerhalb der Regionen Chinas replizieren?

Nein, die Amazon S3 Replikation ist nicht verfügbar zwischen AWS-Regionen in China und AWS-Regionen außerhalb Chinas. Sie können nur innerhalb der Regionen Chinas replizieren.

F: Was sind die Preise für die kontoübergreifende Datenreplikation?

Mit S3 Replication können Sie eine kontoübergreifende Replikation konfigurieren, bei der die Quell- und Ziel-Buckets unterschiedlichen AWS-Konten gehören. Abgesehen von S3-Speicher und anwendbaren Abrufgebühren zahlen Kunden bei der Verwendung von S3 Replication für PUT-Anfragen zur Replikation und für den regionenübergreifenden Datentransfer OUT von S3 zu Ihrer Zielregion. Wenn Sie S3 Replication Time Control (S3 RTC) in Ihren Replikationsregeln aktiviert haben, sehen Sie andere Gebühren für die Datenübertragung OUT und die Replikations-PUT-Anforderung, die speziell für S3 RTC gelten. Bei der kontoübergreifenden Replikation zahlt das Ausgangskonto für den gesamten Datentransfer (S3 RTC und S3 CRR) und das Zielkonto für die Replikations-PUT-Anforderungen. Datenübertragungsgebühren fallen nur für S3 Cross Region Replication (S3 CRR) und S3 Replication Time Control (S3 RTC) an, für S3 Same Region Replication (S3 SRR) gibt es keine Datenübertragungsgebühren. Weitere Informationen zu den Preisen von S3 Replication finden Sie auf der S3-Preisseite.

S3 Replication Time Control

F: Was ist Amazon S3 Replication Time Control?

Amazon S3 Replication Time Control bietet eine vorhersehbare Replikationsleistung und hilft Ihnen, Compliance- oder Geschäftsanforderungen zu erfüllen. S3 Replication Time Control ist darauf ausgelegt, die meisten Objekte in Sekunden, 99 % aller Objekte in 5 Minuten und 99,99 % aller Objekte in 15 Minuten zu replizieren. S3 Replication Time Control wird durch eineService Level Agreement (SLA)-Verpflichtung gestützt, dass 99,9 % aller Objekte in 15 Minuten für jedes Replikations-Regionspaar in einem Rechnungsmonat repliziert werden. Die Replikationszeit funktioniert mit allen S3-Replikationsfunktionen. Mehr erfahren Sie im Replication-Entwicklerhandbuch.

F: Wie aktiviere ich Amazon S3 Replication Time Control?

Amazon S3 Replication Time Control ist als Option für jede Replikationsregel aktiviert. Sie können eine neue S3 Replication-Richtlinie mit S3 Replication Time Control erstellen oder die Funktion für eine bestehende Richtlinie aktivieren.

Zur Konfiguration der Replikation können Sie wahlweise die S3-Managementkonsole, -API, AWS CLI, AWS SDKs oder AWS CloudFormation verwenden. Weitere Informationen finden Sie unter Einrichtung von Replication im Amazon S3-Entwicklerhandbuch.

F: Was sind Amazon S3 Replication-Metriken und -Ereignisse?

Metriken und Ereignisse der Amazon S3-Replikation bieten Einblick in die Amazon S3-Replikation. Mit S3-Replikationsmetriken können Sie die Gesamtzahl der Operationen und die Größe der Objekte überwachen, die zur Replikation anstehen, sowie die Replikationslatenz zwischen Quell- und Ziel-Buckets für jede S3-Replikationsregel. Replikationsmetriken sind über die Amazon S3-Managementkonsole und über Amazon CloudWatch verfügbar. Bei S3-Replikationsereignissen werden Sie über Replikationsfehler benachrichtigt, so dass Sie Probleme schnell diagnostizieren und beheben können. Wenn Sie die S3-Replikationszeitsteuerung (S3 RTC) aktiviert haben, erhalten Sie auch Benachrichtigungen, wenn die Replikation eines Objekts länger als 15 Minuten dauert und wenn das Objekt erfolgreich an sein Ziel repliziert wird. Wie andere Amazon S3-Ereignisse sind S3-Replikationsereignisse über Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) oder AWS Lambda verfügbar.

F: Wie aktiviere ich Metriken und Ereignisse für Amazon S3 Replication?

Metriken und Ereignisse für Amazon S3 Replication können für neue oder vorhandene Replikationsregeln aktiviert werden und sind standardmäßig für Regeln aktiviert, bei denen die S3 Replication Time Control aktiviert ist. Sie können auf S3 Replication-Metriken über die Amazon S3-Managementkonsole und Amazon CloudWatch zugreifen. Wie andere Amazon S3-Ereignisse sind S3-Replikationsereignisse über Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) oder AWS Lambda verfügbar. Weitere Informationen finden Sie unter Fortschrittsüberwachung mit Replikationsmetriken und Amazon S3-Ereignisbenachrichtigungen im Amazon S3-Entwicklerhandbuch.

F: Was ist das Service Level Agreement (SLA) für Amazon S3 Replication Time Control?

Amazon S3 Replication Time Control ist darauf ausgelegt, 99,99 % Ihrer Objekte in 15 Minuten zu replizieren und wird durch ein Service Level Agreement gestützt. Wenn bei jedem Replikations-Regionspaar in einem monatlichen Rechnungszyklus weniger als 99,9 % Ihrer Objekte in 15 Minuten repliziert werden, bietet das S3 ETC SLA eine Servicegutschrift für jedes Objekt, bei dem zur Replikation mehr als 15 Minuten benötigt wurden. Die Servicegutschrift deckt einen Prozentsatz aller replikationsbezogenen Gebühren zu den Objekten ab, die das SLA nicht erfüllt haben, darunter die ETC-Gebühr, Replikationsbandbreiten- und -anfragegebühren sowie die Kosten zum Speichern der Kopie in der Ziel-Region im betroffenen monatlichen Rechnungszyklus. Mehr erfahren Sie im S3 Replication Time Control SLA.

F: Wie sind die Preise für S3 Replication und S3 Replication Time Control gestaltet?

Für S3 Replication (Cross-Region Replication und Same Region Replication) bezahlen Sie die S3-Gebühren für die Speicherung in der gewünschten S3-Zielspeicherklasse, die Speicherkosten für die primäre Kopie, für Replikation-PUT-Anforderungen sowie ggf. Abrufgebühren für seltenen Zugriff. Bei CRR bezahlen Sie auch für die regionsübergreifende Übertragung ausgehender Daten aus S3 in Ihre Zielregion. S3 Replication-Metriken werden zum selben Preis abgerechnet wie benutzerdefinierte Amazon CloudWatch-Metriken. Wenn Sie S3 Replication Time Control verwenden, zahlen Sie außerdem eine Gebühr für die Datenübertragung mit Replication Time Control. Weitere Informationen zu den Preisen finden Sie auf der Seite mit der Preisübersicht für S3.

Wenn das Quellobjekt mit der Funktion für den mehrteiligen Upload hochgeladen wird, erfolgt die Reduzierung mit derselben Anzahl von Teilen und Teilgrößen. Beispiel: Ein Objekt mit 100 GB, das mithilfe der Funktion für mehrteiligen Upload (800 Teile mit jeweils 128 MB) hochgeladen wird, veranlasst bei der Replikation Anfragekosten für 802 Anfragen (800 Anfragen zum Hochladen für Teile plus 1 zur Einleitung eines mehrteiligen Uploads plus 1 Anfrage zur Beendigung des mehrteiligen Uploads). Dabei entstehen Anfragekosten von 0,00401 USD (802 Anfragen mal 0,005 USD pro 1000 Anfragen) und (wenn die Replikation zwischen unterschiedlichen AWS-Regionen erfolgt ist) eine Gebühr von 2,00 USD (0,020 USD pro übertragenem Gigabyte mal 100 GB) für die Datenübertragung zwischen Regionen. Nach der Platzierung werden für die 100 GB Speicherkosten basierend auf der Zielregion anfallen.

S3-Zugriffspunkte für mehrere Regionen

F: Was sind S3-Zugriffspunkte für mehrere Regionen?

Amazon S3-Zugriffspunkte für mehrere Regionen beschleunigen die Leistung um bis zu 60 % beim Zugriff auf Datensätze, die über mehrere AWS-Regionen repliziert sind. Basierend auf AWS Global Accelerator berücksichtigen S3-Zugriffspunkte für mehrere Regionen Faktoren wie Netzwerküberlastung und den Standort der anfordernden Anwendung, um Ihre Anfragen dynamisch über das AWS-Netzwerk an die Kopie Ihrer Daten mit der niedrigsten Latenz zu leiten. Dieses automatische Routing ermöglicht es Ihnen, die Vorteile der globalen Infrastruktur von AWS zu nutzen und gleichzeitig eine einfache Anwendungsarchitektur beizubehalten.

F: Warum sollte ich S3-Zugriffspunkte für mehrere Regionen verwenden?

S3-Zugriffspunkte für mehrere Regionen beschleunigen und vereinfachen die Speicherung für Ihre Multi-Region-Anwendungen. Durch das dynamische Routing von S3-Anforderungen an einen replizierten Datensatz verkürzen S3-Zugriffspunkte für mehrere Region die Latenz, wodurch Anwendungen bis zu 60 % schneller ausgeführt werden. Außerdem können Sie die Vorteile der globalen Infrastruktur von AWS nutzen und gleichzeitig eine einfache regionsunabhängige Architektur ihrer Anwendungen beibehalten.

F: Wie funktionieren S3-Zugriffspunkte für mehrere Regionen?

Zugriffspunkte für mehrere Regionen leiten Kundenanforderungen dynamisch an einen oder mehrere zugrunde liegende(n) S3-Bucket(s). Sie können Ihren Zugriffspunkt für mehrere Regionen an einen Bucket pro AWS-Region in bis zu 20 AWS-Regionen weiterleiten. Wenn Sie einen Zugriffspunkt für mehrere Regionen erstellen, generiert S3 automatisch einen DNS-kompatiblen Namen. Dieser Name wird als ein globaler Endpunkt verwendet, den Ihre Kunden verwenden können. Wenn Ihre Kunden Anforderungen an diesen Endpunkt richten, wird S3 diese Anforderungen dynamisch an einen der zugrunde liegenden Buckets weiterleiten, die in der Konfiguration Ihres Zugriffspunkts für mehrere Regionen angegeben sind.

Standardmäßig leiten S3-Zugriffspunkte für mehrere Regionen Anforderungen an den zugrunde liegenden Bucket, der dem Kunden basierend auf Netzwerklatenz am nächsten ist. Sie können beispielsweise einen Zugriffspunkt für mehrere Regionen mit zugrundeliegenden Buckets in US-EAST-1 und AP-SOUTH-1 konfigurieren. Bei dieser Konfiguration werden Ihre Kunden in Nordamerika an US-EAST-1 weitergeleitet und Ihre Kunden in Asien an AP-SOUTH-1. Dadurch wird die Latenz für Ihre an S3 getätigten Anforderungen gesenkt und die Leistung Ihrer Anwendung verbessert.

Wenn Ihre Anwendung über das Internet auf S3 zugreift, wird die die Leistung durch S3-Zugriffspunkte für mehrere Regionen weiter verbessert, da S3 Ihre Anforderungen an den nächstgelegenen AWS-Standort Ihres Kunden und dann über das globale private AWS-Netzwerk an S3 weiterleiten wird. Die Anforderungen werden überlastete Netzwerksegmente im Internet vermeiden, was Netzwerklatenz und Jitter verringern und die Leistung verbessern wird.

F: Welche ersten Schritte sind für S3-Zugriffspunkte für mehrere Regionen erforderlich?

Die S3-Managementkonsole bietet einen einfachen, geführten Workflow, mit dem Sie in nur drei einfachen Schritten alles einrichten, was Sie für die Ausführung eines Speichers für mehrere Regionen in S3 benötigen. Zunächst wird für Sie automatisch ein einmaliger globaler Hostname für Ihren Zugriffspunkt für mehrere Regionen generiert. Sie verbinden Ihre Kunden und Anwendungen, ohne eine AWS-Region angeben zu müssen. Als Nächstes wählen Sie einen der mehrere Buckets in S3 aus, zu dem bzw. denen Sie mit diesem neuen Hostnamen weiterleiten möchten. Sie können vorhandene Buckets auswählen oder neue Buckets erstellen lassen. Dritten geben Sie die Regeln für die regionsübergreifende S3-Replikation an.

Alternativ können Sie mit CloudFormation die Konfiguration Ihres Multi-Region-Speichers automatisieren. Alle für die Einrichtung eines Multi-Region-Speichers in S3 erforderlichen Bausteine, einschließlich den S3-Zugriffspunkten für mehrere Regionen, werden von CloudFormation unterstützt, damit Sie ganz einfach einen wiederholbaren Einrichtungsprozess außerhalb der S3-Managementkonsole automatisieren können.

F: Was ist der Unterschied zwischen der regionsübergreifenden S3-Replikation (S3 CRR) und den S3-Zugriffspunkten für mehrere Regionen?

S3 CRR und S3-Zugriffspunkte für mehrere Regionen sind ergänzende Funktionen, die gemeinsam Daten in AWS-Regionen replizieren und dann automatisch Anforderungen an die replizierte Kopie mit der niedrigsten Latenz weiterleiten. Die S3-Zugriffspunkte für mehrere Regionen erlauben Ihnen, Anforderungen über mehrere AWS-Regionen zu verwalten, während Sie mit CRR Daten über AWS-Regionen hinweg verschieben können, um isoliert Replikationen zu erstellen. Sie verwenden S3-Zugriffspunkte für mehrere Regioenn und CRR zusammen, um einen replizierten Multi-Region-Datensatz zu erstellen, der von einem einzigen globalen Endpunkt adressierbar ist.

F: Wie viel kosten S3-Zugriffspunkte für mehrere Regionen?

Wenn Sie einen S3 Multi-Region Access Point verwenden, um Anforderungen innerhalb von AWS weiterzuleiten, zahlen Sie geringe Kosten pro GB für die Datenweiterleitung für jedes verarbeitete Gigabyte (GB) sowie die Standardgebühren für S3-Anforderungen, Speicher, Datenübertragung und Replikation. Wenn Ihre Anwendung außerhalb von AWS läuft und über das Internet auf S3 zugreift, erhöhen S3 Multi-Region Access Points die Leistung, indem sie Ihre Anforderungen automatisch über einen AWS-Edge-Standort über das globale private AWS-Netzwerk an die nächstgelegene Kopie Ihrer Daten auf Basis der Zugriffslatenz weiterleiten. Wenn Sie Anfragen über das Internet beschleunigen, zahlen Sie die Kosten für das Datenrouting und die Kosten für die Internetbeschleunigung. Die Preise für die Internet-Beschleunigung von S3 Multi-Region Access Points hängen davon ab, ob sich der Quell-Client in der gleichen oder in einer anderen AWS-Region befindet wie die Zielregion, und gelten zusätzlich zu den Standardpreisen für die S3-Datenübertragung. Weitere Informationen zu Preisen finden Sie auf der S3-Preisseite und der Datenübertragung-Registerkarte.

F: Wie unterscheidet sich S3 Transfer Acceleration von den S3-Zugriffspunkten für mehrere Regionen?

Sie können S3 Transfer Acceleration verwenden, um mithilfe des globalen AWS-Netzwerks die Übertragung von Inhalten an und aus einem einzigen zentralisierten S3-Bucket zu beschleunigen. Das ist besonders hilfreich bei Übertragungen größerer Objekte über größere Entfernungen oder Remote-Web- oder -Mobile-Anwendungen. Mit den S3-Zugriffspunkten für mehrere Regionen können Sie ähnliche beschleunigte Übertragungen mithilfe des globalen AWS-Netzwerks durchführen, aber über viele S3-Buckets in mehrere AWS-Regionen hinweg. Das ist für internetbasierte, VPC-basierte und On-Premise-Anforderungen an oder aus S3 möglich. Wenn Sie die S3-Zugriffspunkte für mehrere Regionen mit S3 Cross Replication kombinieren, haben Sie die Fähigkeit der S3-Zugriffspunkte für mehrere Regionen, um bei Anwendungen von Kunden an mehreren Standorten Ihre Anforderungen dynamisch an die Kopie Ihrer Daten mit der niedrigsten Latenz weiterzuleiten.

Datenverarbeitung

Objekt Lambda

F: Was ist S3 Objekt Lambda?

Mit S3 Objekt Lambda können Sie S3-GET-Anforderungen Ihren eigenen Code hinzufügen, um Daten zu ändern und zu verarbeiten, wenn sie an eine Anwendung zurückgegeben werden. Zum ersten Mal können Sie benutzerdefinierten Code verwenden, um die von Standard-S3-GET-Anforderungen zurückgegebenen Daten zu ändern, um Zeilen zu filtern, Bilder dynamisch in der Größe zu ändern, vertrauliche Daten zu redigieren und vieles mehr. Mit S3 Objekt Lambda können Sie die einzigartigen Datenformatanforderungen von jeder Anwendung problemlos erfüllen, ohne zusätzliche Infrastruktur wie eine Proxy-Schicht erstellen und betreiben oder mehrere abgeleitete Kopien Ihrer Daten erstellen und verwalten zu müssen. S3 Objekt Lambda verwendet AWS-Lambda-Funktionen, um die Ausgabe einer Standard-S3-GET-Anforderung automatisch zu verarbeiten. AWS Lambda ist ein serverloser Rechenservice, der kundenspezifischen Code ausführt, ohne dass die zugrunde liegenden Rechenressourcen verwaltet werden müssen. 

Mit nur wenigen Klicks in der AWS-Managementkonsole können Sie eine Lambda-Funktion konfigurieren und an einen S3 Objekt Lambda-Service-Endpunkt anhängen. Ab diesem Zeitpunkt ruft S3 automatisch Ihre Lambda-Funktion auf, um alle über den S3-Objekt-Lambda-Endpunkt abgerufenen Daten zu verarbeiten und ein transformiertes Ergebnis an die Anwendung zurückzugeben. Sie können Ihre eigenen benutzerdefinierten Lambda-Funktionen erstellen und ausführen und die Datentransformation von S3 Objekt Lambda an Ihren spezifischen Anwendungsfall anpassen.

Um mit S3 Objekt Lambda zu beginnen, können Sie die S3-Managementkonsole, das SDK oder die API verwenden. Weitere Informationen finden Sie auf der Seite S3 Objekt Lambda oder im S3-Objekt-Benutzerhandbuch.

F: Warum sollte ich S3 Objekt Lambda verwenden?

Sie sollten S3 Objekt Lambda verwenden, um eine einzelne Kopie Ihrer Daten für viele Anwendungen freizugeben, ohne dass Sie eine benutzerdefinierte Verarbeitungsinfrastruktur erstellen und betreiben oder abgeleitete Kopien Ihrer Daten speichern müssen. Wenn Sie beispielsweise S3 Objekt Lambda verwenden, um normale S3-GET-Anforderungen zu verarbeiten, können Sie vertrauliche Daten aus Compliance-Gründen maskieren, Rohdaten umstrukturieren, um sie mit Anwendungen für Machine Learning kompatibel zu machen, und Daten filtern, um den Zugriff auf bestimmte Inhalte in einem S3-Objekt einzuschränken, oder um eine breite Palette von zusätzlichen Anwendungsfällen zu adressieren. S3 Objekt Lambda kann mit nur wenigen Klicks in der Amazon-S3-Managementkonsole eingerichtet werden. Im Benutzerhandbuch erhalten Sie weitere Informationen.

F: Wie funktioniert S3 Objekt Lambda?

S3 Objekt Lambda verwendet von Ihnen angegebene Lambda-Funktionen, um die Ausgabe einer Standard-GET-Anforderung zu verarbeiten. Nachdem Sie eine Lambda-Funktion zum Verarbeiten der angeforderten Daten definiert haben, können Sie diese Funktion an einen S3-Objekt-Lambda-Zugriffspunkt anhängen. GET-Anforderungen, die über einen S3-Objekt-Lambda-Zugriffspunkt gestellt werden, rufen jetzt die angegebene Lambda-Funktion auf. Lambda ruft dann das vom Client angeforderte S3-Objekt ab und verarbeitet dieses Objekt. Sobald die Verarbeitung abgeschlossen ist, überträgt Lambda das verarbeitete Objekt zurück an den aufrufenden Client. Weitere Informationen finden Sie im S3-Objekt-Lambda-Benutzerhandbuch.

F: Welche ersten Schritte sind für S3 Objekt Lambda erforderlich?

Das S3 Objekt Lambda kann in drei einfachen Schritten in der S3-Managementkonsole eingerichtet werden. Navigieren Sie zuerst auf der Konsole zur Registerkarte Object Lambda Access Point. Zweitens erstellen Sie einen S3 Objekt Lambda-Access-Point und geben in seiner Konfiguration einen Namen für diese Ressource, die aufzurufende Lambda-Funktion, die S3 für Ihre GET-Anforderungen ausführen soll, und einen unterstützenden S3 Access Point an. In der AWS-Dokumentation finden Sie Beispielimplementierungen für Lambda-Funktionen, mit denen Sie den Service testen können. Zuletzt aktualisieren Sie Ihr SDK und Ihre Anwendung, um mithilfe des neuen S3-Objekt-Lambda-Zugriffspunkts Daten aus S3 mit dem Sprach-SDK Ihrer Wahl abzurufen. S3 Objekt Lambda beginnt mit der Verarbeitung Ihrer GET-Anforderungen. Weitere Informationen finden Sie im S3-Objekt-Lambda-Benutzerhandbuch.

F: Welche Operationen kann ich mit S3 Objekt Lambda ausführen?

Jede in einer Lambda-Funktion unterstützte Operation wird mit S3 Objekt Lambda unterstützt. Dies bietet Ihnen eine breite Palette verfügbarer Optionen für die Bearbeitung Ihrer Anforderungen. Sie stellen Ihre eigene Lambda-Funktion bereit, um benutzerdefinierte Berechnungen für GET-Anforderungen auszuführen, und geben Ihnen die Flexibilität, Daten gemäß den Anforderungen Ihrer Anwendung zu verarbeiten. Die Lambda-Verarbeitungszeit ist auf maximal 60 Sekunden begrenzt. Weitere Informationen finden Sie in der Dokumentation zu S3 Objekt Lambda hier.

F: Welche S3-Anforderungstypen unterstützt S3 Objekt Lambda?

S3 Objekt Lambda unterstützt GET-Anforderungen. Alle anderen S3-API-Aufrufe, die an einen S3-Objekt-Lambda-Zugriffspunkt gesendet werden, geben die Standard-S3-API-Antwort zurück. Weitere Informationen zu S3 Objekt Lambda finden Sie im Benutzerhandbuch.

F: Was passiert, wenn eine S3-Objekt-Lambda-Funktion fehlschlägt?

Wenn eine S3-Objekt-Lambda-Funktion fehlschlägt, erhalten Sie eine Anforderungsantwort, in der der Fehler aufgeführt ist. Wie andere Aufrufe von Lambda-Funktionen überwacht AWS auch automatisch Funktionen in Ihrem Namen und meldet Metriken über Amazon CloudWatch. Um Ihnen bei der Fehlerbehebung zu helfen, protokolliert Lambda alle von Ihrer Funktion verarbeiteten Anforderungen und speichert die von Ihrem Code generierten Protokolle automatisch in Amazon CloudWatch Logs. Weitere Informationen zum Zugriff auf CloudWatch-Protokolle für AWS Lambda finden Sie in der CloudWatch-Dokumentation.

F: Beeinflusst S3 Objekt Lambda die SLA- oder S3-Haltbarkeit der S3-Verfügbarkeit?

S3 Objekt Lambda verbindet Amazon S3, AWS Lambda und optional andere AWS-Services Ihrer Wahl, um Objekte bereitzustellen, die für das Anfordern von Anwendungen relevant sind. Alle AWS-Services, die in Verbindung mit S3 Objekt Lambda verwendet werden, unterliegen weiterhin den jeweiligen Service Level Agreements (SLA). Falls beispielsweise ein AWS-Service seine Service-Verpflichtung nicht erfüllt, können Sie eine Service-Gutschrift erhalten, die in der SLA dieses Services dokumentiert ist. Das Erstellen eines S3-Objekt-Lambda-Zugriffspunkts hat keinen Einfluss auf die Haltbarkeit Ihrer Objekte. S3 Objekt Lambda ruft jedoch Ihre angegebene AWS-Lambda-Funktion auf, und Sie müssen sicherstellen, dass Ihre angegebene Lambda-Funktion beabsichtigt und korrekt ist. Die aktuellste Amazon S3 SLA finden Sie hier.

F: Wie viel kostet S3 Objekt Lambda?

Wenn Sie S3 Objekt Lambda verwenden, zahlen Sie eine Gebühr pro GB für jedes Gigabyte an Daten, die Sie über S3 Objekt Lambda erhalten. Sie zahlen auch für die S3-GET-Anforderung und die AWS-Lambda-Berechnungsgebühren für die Zeit, in der Ihre angegebene Funktion ausgeführt wird, um die angeforderten Daten zu verarbeiten. Informationen zu Preisdetails sowie ein Beispiel finden Sie auf der S3-Preisseite.

Sind Sie startbereit?

Standard Product Icons (Features) Squid Ink
Sehen Sie sich die Produktfunktionen an

Erfahren Sie mehr über Funktionen für Datenverwaltung, Sicherheit, Zugriffsverwaltung, Analysen und mehr.

Weitere Informationen 
Sign up for a free account
Registrieren Sie sich und erhalten Sie ein kostenloses Konto

Erhalten Sie sofort Zugang zum kostenlosen Kontingent für AWS und beginnen Sie mit dem Experimentieren mit Amazon S3. 

Registrieren 
Standard Product Icons (Start Building) Squid Ink
Beginnen Sie mit der Entwicklung in der Konsole

Fangen Sie an, mit Amazon S3 in der AWS-Konsole zu entwickeln.

Erste Schritte