S3 – Häufig gestellte allgemeine Fragen

F: Was ist Amazon S3?

Amazon S3 ist ein Objektspeicher zum Speichern und Abrufen beliebiger Datenmengen von allen Speicherorten im Internet. Dieser einfache Speicherdienst bietet eine äußerst dauerhafte, hoch verfügbare und beliebig skalierbare Datenspeicher-Infrastruktur zu einem sehr günstigen Preis.

F: Was kann ich mit Amazon S3 tun?

Amazon S3 ist eine einfache Web-Service-Schnittstelle, mit der beliebige Datenmengen jederzeit und überall im Web gespeichert und abgerufen werden können. Mit diesem Web-Service können Sie unkompliziert Anwendungen erstellen, die Internetspeicher nutzen. Da Amazon S3 hochgradig skalierbar ist und leistungsbasiert bezahlt wird, können Sie klein anfangen und Ihre Anwendung nach Bedarf erweitern, ohne Kompromisse in Bezug auf die Leistung und die Zuverlässigkeit eingehen zu müssen.

Amazon S3 ist außerdem noch sehr flexibel. Speichern Sie beliebige Datentypen und so viele Daten, wie Sie möchten, rufen Sie dieselben Daten beliebig oft oder nur für die Notfallwiederherstellung ab, erstellen Sie eine einfache FTP-Anwendung oder eine anspruchsvolle Webanwendung wie die Website von amazon.com. Mit Amazon S3 können sich Entwickler ganz auf Innovation konzentrieren, anstatt sich um die Speicherung ihrer Daten Gedanken machen zu müssen.

F: Was sind die ersten Schritte mit Amazon S3?

Klicken Sie auf diesen Link, um sich für Amazon S3 zu registrieren. Für den Zugriff auf diesen Service ist ein Amazon Web Services-Konto erforderlich. Wenn Sie noch kein Konto haben, werden Sie bei der Registrierung bei Amazon S3 zur Erstellung eines Kontos aufgefordert. Nach der Anmeldung erhalten Sie in der Dokumentation von Amazon S3 sowie mit dem Beispiel-Code des Ressourcencenters Informationen über die Anwendung von Amazon S3.

F: Welche Möglichkeiten bietet Amazon S3 den Entwicklern, die sie mit einer lokalen Speicherlösung nicht haben?

Mit Amazon S3 profitiert jeder Entwickler von den Amazon-Vorteilen: hohe Skalierbarkeit ohne Vorleistungen und keine Kompromisse bei der Leistung. Entwickler können sich voll und ganz auf ihre Innovationen konzentrieren und unabhängig vom Erfolg ihres Unternehmens sicher sein, dass ihre Daten schnell zugänglich, stets verfügbar und sicher sind – günstig und einfach.

F: Welche Art von Daten können in Amazon S3 gespeichert werden?

Sie können praktisch alle Dateitypen in jedem Format speichern. Weitere Informationen finden Sie in der Lizenzvereinbarung von Amazon Web Services.

F: Welche Datenmenge kann in Amazon S3 gespeichert werden?

Das speicherbare Gesamtvolumen an Daten sowie die Anzahl der Objekte sind unbegrenzt. Einzelne Amazon S3-Objekte variieren in ihrer Größe von minimal 0 Bytes bis maximal 5 Terabytes. Das größte Objekt, das in einem einzelnen PUT hochgeladen werden kann, kann bis zu 5 GB groß sein. Für Objekte, die größer als 100 MB sind, empfiehlt sich die Funktion Multipart Upload.

F: Welche Speicherklassen bietet Amazon S3?

Amazon S3 bietet eine Vielzahl von Speicherklassen an, die für diverse Anwendungsfällen genutzt werden können. Es gibt vier sehr robuste Speicherklassen. Hierzu gehören Amazon S3 Standard für die allgemeine Speicherung von Daten mit häufigem Zugriff, Amazon S3 Standard – Infrequent Access oder Amazon S3 One Zone – Infrequent Access für Langzeitdaten mit selteneren Zugriffen sowie Amazon Glacier zur Langzeitarchivierung. Weitere Informationen über diese Speicherklassen finden Sie auf der Seite Amazon S3-Speicherklassen

F: Was macht Amazon mit den in Amazon S3 gespeicherten Daten?

Für Fakturierungszwecke speichert Amazon Ihre Daten und ermittelt die damit verbundene Nutzung. Amazon greift außerhalb dieses Rahmens nicht auf Ihre Daten zu, es sei denn, dies ist aus rechtlichen Gründen erforderlich. Weitere Informationen finden Sie in der Lizenzvereinbarung von Amazon Web Services.

F: Speichert Amazon eigene Daten in Amazon S3?

Ja. Amazon-Entwickler nutzen Amazon S3 für zahlreiche unterschiedliche Projekte. Viele dieser Projekte verwenden Amazon S3 als autoritativen Datenspeicher, den sie für geschäftskritische Vorgänge verwenden.

F: Wie werden die Daten in Amazon S3 organisiert?

Bei Amazon S3 handelt es sich um einen einfachen, schlüsselbasierten Objektspeicher. Beim Speichern von Daten vergeben Sie einen einmaligen Objektschlüssel, der später für die Datenabfrage verwendet werden kann. Schlüssel können aus einer beliebigen Zeichenfolge bestehen und für die Imitation hierarchischer Attribute erstellt werden. Alternativ können Sie S3-Objekt-Tagging nutzen, um die Daten in allen Ihren S3-Buckets bzw. mit allen Präfixen zu organisieren.

F: Über welche Schnittstelle kann ich auf Amazon S3 zugreifen?

Amazon S3 umfasst benutzerfreundliche, auf Standards basierende REST-Schnittstellen für Web-Services, die mit jedem beliebigen Toolkit für die Internetentwicklung kompatibel sind. Die Abläufe wurden bewusst einfach gehalten, um das Hinzufügen neuer Verteilungsprotokolle und funktionaler Layers unkompliziert zu gestalten.

F: Wie zuverlässig ist Amazon S3?

Über Amazon S3 erhalten Entwickler Zugriff auf dieselbe hochgradig skalierbare, hoch verfügbare, schnelle und kostengünstige Datenspeicher-Infrastruktur, mit der Amazon sein eigenes globales Website-Netzwerk betreibt. Die Speicherklasse S3 Standard ist für eine Verfügbarkeit von 99,99 % konzipiert, die Speicherklasse S3 Standard – IA für eine Verfügbarkeit von 99,9 % und die Speicherklasse S3 One Zone – IA für eine Verfügbarkeit von 99 %. Alle Speicherklassen werden durch das Amazon S3-Service Level Agreement gestützt.

F: Wie wirken sich plötzlich auftretende Spitzen beim Datenverkehr von meiner Anwendung auf die Leistung von Amazon S3 aus?

Amazon S3 wurde von Grund auf für den Umgang mit dem Datenverkehr jeder beliebigen Internetanwendung entwickelt. Durch leistungsbasierte Zahlung und eine unbegrenzte Kapazität wird sichergestellt, dass sich Ihre Grenzkosten nicht ändern und Sie Ihren Service unterbrechungsfrei anbieten können. Die Skalierung von Amazon S3 ermöglicht die gleichmäßige Verteilung der Last, damit Datenverkehrsspitzen nicht nur einzelne Anwendungen betreffen.

F: Bietet Amazon S3 ein Service Level Agreement (SLA)?

Ja. Wenn in einem Abrechnungszeitraum die monatliche Betriebszeit kürzer ist, als im SLA zugesagt, sieht das Amazon S3 SLA eine Service-Gutschrift vor.

AWS-Regionen

F: Wo werden meine Daten gespeichert?

Bei der Erstellung Ihres Amazon S3-Buckets legen Sie eine AWS-Region fest. Bei den Speicherklassen S3 Standard, S3 Standard – IA und Amazon Glacier werden Ihre Objekte automatisch auf mehreren Geräten gespeichert, die jeweils mindestens drei Availability Zones in einer AWS-Region umfassen, die mehrere Kilometer voneinander entfernt sind. Objekte, die in der Speicherklasse S3 One Zone – IA gespeichert werden, werden redundant innerhalb einer einzigen Availability Zone in der gewählten AWS-Region gespeichert. Weitere Informationen über die Verfügbarkeit von Amazon S3-Services nach AWS-Regionen finden Sie unter Regionale Produkte und Services.

F: Was ist eine AWS-Region?

Eine AWS-Region ist ein geografischer Bereich, in dem AWS mehrere physisch getrennte und isolierte Availability Zones zur Verfügung stellt, die mit geringer Latenz, hohem Durchsatz und hochredundanten Netzwerken miteinander verbunden sind.

F: Was ist eine AWS Availability Zone (AZ)?

Eine AWS Availability Zone ist ein isolierter Ort innerhalb einer AWS-Region. S3 betreibt in jeder AWS-Region mindestens drei AZs, die zum Schutz vor lokalen Ereignissen wie Feuer oder Überschwemmungen jeweils mehrere Kilometer voneinander entfernt sind.

Die Speicherklassen Amazon S3 Standard, S3 Standard – Infrequent Access und Amazon Glacier replizieren Daten auf mindestens drei AZs, damit sie geschützt sind, falls eine ganze AZ ausfällt. Das gilt auch für Regionen, in denen weniger als drei AZs öffentlich verfügbar sind. Der Zugriff auf die in diesen Speicherklassen gespeicherten Objekte ist von allen AZs in der AWS-Region aus möglich.

Die Speicherklasse Amazon S3 One Zone – IA repliziert Daten innerhalb einer einzigen AZ. Daten, die in dieser Speicherklasse gespeichert sind, können verloren gehen, wenn eine AZ zerstört wird.

F: Wie entscheide ich, in welcher AWS Region meine Daten gespeichert werden sollen?

Es sind verschiedene Faktoren zu berücksichtigen, die von der betreffenden Anwendung abhängen. So möchten Sie Ihre Daten möglicherweise in einer Region speichern, die...

  • ... sich in der Nähe Ihrer Kunden, Ihrer Rechenzentren oder Ihrer sonstigen AWS-Ressourcen befindet, sodass Verzögerungszeiten beim Datenzugriff reduziert werden.
  • ... sich aus Gründen der geografischen Redundanz und für Disaster Recovery-Zwecke nicht in der Nähe Ihrer sonstigen Tätigkeiten befindet.
  • ... Ihnen die Einhaltung bestimmter rechtlicher und regulatorischer Anforderungen ermöglicht.
  • ... Ihnen die Reduzierung der Speicherkosten ermöglicht. Um Geld zu sparen, können Sie eine Region mit einem niedrigeren Preisniveau wählen. S3-Preisinformationen finden Sie auf der Seite Preise von S3.

F: Wo auf der Welt ist Amazon S3 verfügbar?

Amazon S3 ist in allen AWS-Regionen weltweit verfügbar und Sie können Amazon S3 unabhängig von Ihrem Standort verwenden. Sie müssen nur festlegen, in welcher bzw. welchen AWS-Region(en) Ihre Amazon S3-Daten gespeichert werden sollen. Eine Liste der AWS-Regionen, in denen S3 zurzeit verfügbar ist, finden Sie in der Tabelle mit der regionalen AWS-Verfügbarkeit.

Abrechnung

F: Wie viel kostet Amazon S3?

Mit Amazon S3 zahlen Sie nur das, was Sie tatsächlich nutzen. Es gibt keine Mindestgebühr. Sie können Ihre voraussichtliche Monatsrechnung mit AWS Einfacher Monatsrechner kalkulieren.

In Regionen, in denen uns niedrigere Kosten entstehen, erheben wir auch niedrigere Gebühren. Einige Preise sind in den einzelnen Amazon S3-Regionen unterschiedlich. Die abgerechneten Preise richten sich nach dem Standort Ihres Buckets. Für Daten, die innerhalb einer Amazon S3-Region über eine COPY-Anforderung übertragen werden, fallen keine Datenübertragungsgebühren an. Für Daten, die über die Anforderung COPY zwischen AWS-Regionen übertragen werden, fallen die im Abschnitt mit den Preisen auf der Amazon S3-Detailseite angegebenen Preise an. Für Daten, die zwischen Amazon EC2 und Amazon S3 innerhalb derselben Region übertragen werden oder für Daten, die zwischen den Amazon-Regionen EC2 Nord-Virginia und Amazon S3 USA Osten (Nord-Virginia) übertragen werden, fallen keine Datenübertragungskosten an. Für Daten, die zwischen Amazon EC2 und Amazon S3 in allen anderen Regionen übertragen werden (z. B. zwischen der Amazon EC2-Region Nordkalifornien und der Amazon S3-Region USA Osten (Nord-Virginia)) fallen Gebühren entsprechend der Seite mit der Preisübersicht für Amazon S3.

F: Wie wird mir die Nutzung von Amazon S3 in Rechnung gestellt?

Sie können mit der Verwendung dieses Service beginnen, ohne dass Ihnen Einrichtungsgebühren oder sonstige Verpflichtungen entstehen. Nach Ende eines Monats wird Ihre Kreditkarte automatisch mit den Nutzungsgebühren für den betreffenden Monat belastet. Sie können sich die Gebühren für den aktuellen Abrechnungszeitraum jederzeit auf der Amazon Web Services-Website anzeigen lassen. Melden Sie sich hierzu bei Ihrem Amazon Web Services-Konto an und klicken Sie unter "Ihr Web-Services-Konto" auf "Konto-Aktivitäten".

Mit dem kostenlosen Nutzungskontingent für AWS* können Sie Amazon S3 in allen Regionen außer der AWS GovCloud Region kostenlos nutzen. Bei der Anmeldung erhalten neue AWS-Kunden ein Jahr lang monatlich 5 GB Amazon S3 Standard-Speicherplatz, 20 000 GET-Anforderungen, 2 000 PUT-Anforderungen sowie 15 GB Datenübertragung eingehend und 15 GB Datenübertragung ausgehend.

Amazon S3 rechnet für folgende Verwendungsarten Gebühren ab. Beachten Sie, dass in den folgenden Berechnungen davon ausgegangen wird, dass keine kostenlosen AWS-Kontingente vorliegen.

Verwendeter Speicher:

Eine Übersicht der Preise für Amazon S3-Speicher finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

Bei der Anzahl des in einem Monat abgerechneten Speicherplatzes handelt es sich um die durchschnittliche, im Laufe des Monats verwendete Speichermenge. Darin enthalten sind alle Objektdaten sowie Metadaten, die in den Buckets Ihres AWS-Kontos gespeichert werden. Die gemessenen "TimedStorage-ByteHrs" werden am Monatsende summiert, um Ihre monatliche Gebühr zu ermitteln.

Speicherbeispiel:

Angenommen, Sie speichern im März 15 Tage lang 100 GB (107 374 182 400 Bytes) Amazon S3 Standard-Daten in Ihrem Bucket und während der letzten 16 Tage im März 100 TB (109 951 162 777 600 Bytes) an Amazon S3 Standard-Daten.

Ende März ergibt sich die folgende in Byte-Stunden ausgedrückte Nutzung: Gesamtzahl der Byte-Stunden = [107 374 182 400 Bytes x 15 Tage x (24 Stunden/Tag)] + [109 951 162 777 600 Bytes x 16 Tage x (24 Stunden/Tag)] = 42 259 901 212 262 400 Byte-Stunden.

Umgerechnet in GB-Monate ergibt dies: 42 259 901 212 262 400 Byte-Stunden/1 073 741 824 Bytes pro GB/744 Stunden pro Monat = 52 900 GB-Monate

Dieses Verwendungsvolumen verteilt sich über zwei Volumenkontingente. Nachfolgend werden die monatlichen Speichergebühren berechnet (unter der Annahme, dass die Daten in der Region USA Ost (Nord-Virginia) gespeichert werden): 50 TB-Kontingent: 51 200 GB x 0,023 USD = 1 177,60 USD; 50 TB- bis 450 TB-Kontingent: 1 700 GB x 0,022 USD = 37,40 USD

Gesamtspeichergebühr = 1 177,60 USD + 37,40 USD = 1 215,00 USD

Übertragene eingehende Netzwerkdaten:

Die Preise für eingehende Amazon S3-Datenübertragungen sind auf der Seite mit der Preisübersicht für Amazon S3 aufgeführt. Dies gilt für an Ihre Amazon S3-Buckets gesendete Daten. 

Übertragene ausgehende Netzwerkdaten:

Die Preise für ausgehende Amazon S3-Datenübertragungen sind auf derSeite mit der Preisübersicht für Amazon S3 aufgeführt. Bei Amazon S3 fällt diese Gebühr an, wenn Daten in Ihren Buckets an einem Standort außerhalb der angegebenen Amazon S3-Region gelesen werden.

Gebührenstufen für ausgehende Datenübertragungen umfassen Ihre gesammelten ausgehenden Datenübertragungen aus einer bestimmten Region in das Internet für Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS und Amazon VPC. Diese Gebührenstufen gelten nicht für ausgehende Datenübertragungen aus Amazon S3 aus einer AWS-Region in eine andere AWS-Region.

Beispiel für die ausgehende Datenübertragung:
Angenommen, Sie befinden sich in der Region USA Osten (Nord-Virigina) und übertragen in einem Monat mit 31 Tagen täglich 1 TB Daten aus Amazon S3 in das Internet. Weiter soll angenommen werden, dass Sie in derselben Region aus einer Amazon EC2-Instance im selben Monat mit 31 Tagen täglich 1 TB Daten in das Internet übertragen.

Ihre gesammelte Datenübertragung beträgt dann 62 TB (31 TB von Amazon S3 und 31 TB von Amazon EC2). Dies entspricht 63.488 GB (62 TB * 1.024 GB/TB).

Dieses Verwendungsvolumen erstreckt sich auf drei verschiedene Volumenstufen. Die monatliche Gebühr für ausgehende Datenübertragung ist im Folgenden aufgeführt. Dabei wird davon ausgegangen, dass die Datenübertragung in der Region USA Osten (Nord-Virigina) stattfindet.
Stufe "10 TB": 10 239 GB (10 × 1 024 GB/TB) x 0,09 USD – 1 (kostenlos) = 921,51 USD
Stufe 10 TB bis 50 TB: 40 960 GB (40×1 024) x 0,085 USD = 3 481,60 USD
Stufe 50 TB bis 150 TB: 12 288 GB (Rest) x 0,070 USD = 860,16 USD

Gesamtsumme: = 921,51 USD + 3 481,60 USD + 860,16 USD = 5 263,27 USD

Datenanforderungen:

Die Preisgestaltung der Amazon S3-Anforderungen ist in der Preistabelle von Amazon S3 aufgeführt.

Anforderungsbeispiel:
Nehmen wir an, Sie übertragen im Monat März täglich 10.000 Daten in Amazon S3 und 20.000 aus Amazon S3. Am 31. März löschen Sie 5 000 Dateien.
PUT-Anforderungen gesamt = 10.000 Anforderungen x 31 Tage = 310.000 Anforderungen
GET-Anforderungen gesamt = 20.000 Anforderungen x 31 Tage = 620.000 Anforderungen
DELETE-Anforderungen gesamt = 5.000 x 1 Tag = 5.000 Anforderungen

Die Gebühren für Anforderungen sind im Folgenden aufgeführt. Dabei wird davon ausgegangen, dass sich Ihr Bucket in der USA Osten (Nord-Virigina) befindet.
310 000 PUT-Anforderungen: 310 000 Anforderungen x 0,005 USD/1 000 = 1,55 USD
620 000 GET-Anforderungen: 620 000 Anforderungen x 0,004 USD/10 000 Anforderungen = 0,25 USD
5 000 DELETE-Anforderungen = 5 000 Anforderungen x 0,00 USD (keine Gebühr) = 0,00 USD

Datenabrufe:

Die Preise für Amazon S3-Datenabrufe gelten für die Speicherklassen S3 Standard – Infrequent Access (S3 Standard – IA) und S3 One Zone – IA. Sie sind auf der Seite mit der Preisübersicht für Amazon S3 aufgeführt.

Beispiel für Datenabrufe:
Angenommen, Sie rufen in einem Monat 300 GB aus S3 Standard – IA ab. Davon gehen 100 GB ins Internet, 100 GB zu EC2 in derselben AWS-Region und 100 GB zu CloudFront in derselben AWS-Region.

Ihre Datenabrufkosten für diesen Monat werden folgendermaßen berechnet: 300 GB x 0,01 USD/GB = 3,00 USD. Beachten Sie, dass Sie für den Anteil, der ins Internet geht, Gebühren für die Übertragung der Netzwerkdaten bezahlen müssten.

Hier finden Sie Details dazu, wie in Amazon Glacier archivierte Objekte berechnet werden.

* * Ihre Nutzung des kostenlosen Nutzungskontingent wird jeden Monat für alle Regionen außer der AWS GovCloud-Region berechnet und automatisch auf die Rechnung angewandt. Unverwendete monatliche Nutzung wird nicht prolongiert. Eventuell geltende Einschränkungen finden Sie in den Angebotsbedingungen.

F: Warum unterscheiden sich die Preise je nach ausgewählter Amazon S3 Region?

In Regionen, in denen uns niedrigere Kosten entstehen, erheben wir auch niedrigere Gebühren. Beispielsweise sind unsere Kosten in der Region USA Osten (Nord-Virginia) niedriger als in der Region USA West (Nordkalifornien).

F: Wie wird mir die Nutzung von Versioning in Rechnung gestellt?

Normale Amazon S3 Tarife fallen für jede Version eines gespeicherten oder angeforderten Objekts an. Betrachten wir beispielsweise das folgende Szenario, um die Speicherkosten bei der Nutzung von Versioning zu veranschaulichen (unter der Annahme, dass der aktuelle Monat 31 Tage hat).

1) Tag 1 des Monats: Sie führen eine PUT-Anforderung von 4 GB (4.294.967.296 Bytes) für Ihren Bucket aus.
2.) Tag 16 des Monats: Sie führen eine PUT-Anfrage von 5 GB (5 368 709 120 Bytes) innerhalb desselben Buckets aus und verwenden denselben Schlüssel wie bei der ursprünglichen PUT-Anfrage an Tag 1.

Bei der Analyse der Speicherkosten der obigen Vorgänge beachten Sie bitte, dass das 4-GB-Objekt von Tag 1 nicht aus dem Bucket gelöscht wird, wenn das 5-GB-Objekt am Tag 15 geschrieben wird. Das 4-GB-Objekt wird hingegen als ältere Version gespeichert und das 5-GB-Objekt wird zur zuletzt geschriebenen Version des Objekts in Ihrem Bucket. Am Ende des Monats:

Gesamtzahl verwendeter Byte-Stunden
[4 294 967 296 Bytes x 31 Tage x (24 Stunden/Tag)] + [5 368 709 120 Bytes x 16 Tage x (24 Stunden/Tag)] = 5 257 039 970 304 Byte-Stunden

Umrechnung in Gesamtzahl GB-Monate:
5 257 039 970 304 Byte-Stunden x (1 GB/1 073 741 824 Bytes) x (1 Monat/744 Stunden) = 6 581 GB-Monate

Die Gebühren errechnen sich aus den aktuellen Tarifen für Ihre Region, die Sie auf der Seite mit der Preisübersicht für Amazon S3 finden.

F: Wie wird der Zugriff auf Amazon S3 über die AWS-Managementkonsole in Rechnung gestellt?

Beim Zugriff auf den Service über die AWS Management Console gelten die normalen Preise für Amazon S3. Für eine verbesserte Benutzerfreundlichkeit kann die AWS Management Console Anforderungen proaktiv ausführen. Einige interaktive Vorgänge führen ebenfalls zur Ausgabe mehrerer Anforderungen an den Service.

F: Wie wird abgerechnet, wenn über ein anderes AWS-Konto auf meine Amazon S3-Buckets zugegriffen wird?

Normale Amazon S3-Preise gelten, wenn auf Ihren Speicher über ein anderes AWS-Konto zugegriffen wird. Sie können Ihren Bucket auch als "Zahlung durch den Anforderer"-Bucket einrichten. In diesem Fall bezahlt der Anforderer die Kosten für die Anforderungen und Downloads Ihrer Amazon S3-Daten.

Weitere Informationen über "Requester Pays"-Bucketkonfigurationen finden Sie in der Amazon S3-Dokumentation.

F: Sind Steuern in den Preisen enthalten?

Falls nicht anders angegeben, gelten unsere Preise zuzüglich geltender Steuern und Abgaben, darunter MwSt. und Umsatzsteuer. Bei Kunden mit japanischer Rechnungsadresse unterliegt die Nutzung von AWS-Services der japanischen Verbrauchssteuer.

Weitere Informationen zu Steuern auf AWS-Services »

Sicherheit

F: Wie sicher sind meine Daten in Amazon S3?     

Amazon S3 ist standardmäßig sicher. Bei der Erstellung haben nur die Ressourcenbesitzer Zugriff auf die von ihnen erstellten Amazon S3-Ressourcen. Amazon S3 unterstützt Funktionen zur Benutzerauthentifizierung, um den Zugriff auf die Daten zu kontrollieren. Sie haben Zugriff auf die Kontrollmechanismen wie die Bucket-Richtlinien und Zugriffskontrolllisten (ACLs), um bestimmten Benutzern und Benutzergruppen selektiv Zugriffsrechte zu erteilen. Die Amazon S3-Konsole hebt Ihre öffentlich zugänglichen Buckets hervor, zeigt die Quelle des öffentlichen Zugangs an und warnt Sie außerdem, wenn durch Änderungen an Bucket-Richtlinien oder Bucket-Zugriffskontrolllisten Ihr Bucket öffentlich zugänglich wird.

Über SSL-Endpunkte, die das HTTPS-Protokoll verwenden, können Sie sicher Ihre Daten in Amazon S3 hoch- bzw. herunterladen. Wenn Sie zusätzliche Sicherheit benötigen, können Sie mit der Option Server Side Encryption (SSE) Daten während der Speicherung verschlüsseln. Sie können Ihre Amazon S3-Buckets so konfigurieren, dass Objekte vor dem Speichern automatisch verschlüsselt werden, wenn die eingehenden Speicheranforderungen keine Verschlüsselungsinformationen enthalten. Alternativ können Sie mit Ihren eigenen Verschlüsselungsbibliotheken Daten vor dem Speichern in Amazon S3 verschlüsseln.

F: Wie kann ich den Zugriff auf meine über Amazon S3 gespeicherten Daten kontrollieren?

Den Kunden stehen vier Mechanismen zur Verfügung, mit denen sie den Zugriff auf Amazon S3-Ressourcen kontrollieren können: IAM-Richtlinien (Identity and Access Management), Bucket-Richtlinien, ACLs (Access Control Lists bzw. Zugriffskontrolllisten) und die Abfrage-String-Authentifizierung. IAM ermöglicht es Unternehmen mit großen Mitarbeiterzahlen, eine Vielzahl an Benutzern in einem einzelnen AWS-Konto zu erstellen und zu verwalten. Mit IAM-Richtlinien können Kunden IAM-Benutzern umfangreiche Kontrollfunktionen für den Zugriff auf ihren Amazon-S3-Bucket oder Amazon-S3-Objekte bieten und verfügen gleichzeitig über die vollständige Kontrolle über sämtliche Aktionen, die die Benutzer durchführen. Bei Bucket-Richtlinien definieren Kunden Regeln, die umfassend für alle Anfragen an ihre Amazon S3-Ressourcen angewandt werden. So kann beispielsweise festgelegt werden, dass für ein Subset von Amazon S3-Ressourcen Schreibberechtigungen gewährt werden. Kunden können den Zugriff auch basierend auf bestimmten Aspekten der Anforderung, z. B. HTTP-Referrer und IP-Adresse, einschränken. Mit ACLs können Kunden spezifische Genehmigungen (d. h. READ (Lesen), WRITE (Schreiben), und FULL_CONTROL (volle Kontrolle)) für bestimmte Nutzer und einzelne Buckets oder Objekte festlegen. Bei der Abfrage-String-Authentifizierung haben Kunden die Möglichkeit, eine URL zu einem Amazon S3-Objekt zu erstellen, die nur für einen begrenzten Zeitraum gültig ist. Nähere Informationen zu den unterschiedlichen Kontrollrichtlinien in Amazon S3 finden Sie im Amazon S3 Developer Guide unter Access Control.

F: Unterstützt Amazon S3 Funktionen zur Datenzugriffsprüfung?

Ja, Kunden können optional Amazon-S3-Buckets konfigurieren, um Zugriffsprotokolle für sämtliche Zugriffe zu erstellen. Alternativ können Kunden, die IAM-Informationen/Informationen über die Identität von Benutzern in ihren Protokollen erfassen müssen, AWS CloudTrail-Datenereignisse konfigurieren.

Diese Zugriffsprotokolle können für die Durchführung von Audits verwendet werden und enthalten Details zu den jeweiligen Datenabrufen, wie beispielsweise die Art des Abrufs, die bei dem Abruf verwendeten Dateien oder die das Datum und die Uhrzeit des Abrufs.

F: Welche Möglichkeiten der Datenverschlüsselung stehen mir in Amazon S3 zur Verfügung?

Sie können die Verschlüsselung von Daten mit SSE-S3, SSE-C, SSE-KMS oder einer Client-Bibliothek wie beispielsweise Amazon S3 Encryption Client wählen. Mit allen vier Möglichkeiten können Sie vertrauliche Daten während der Speicherung auf Amazon S3 verschlüsseln.

SSE-S3 bietet eine integrierte Lösung, wobei Amazon wichtige Aspekte von Management und Schutz übernimmt und mehrere Sicherheitsebenen verwendet. Wenn Sie möchten, dass sich Amazon um die Verwaltung Ihrer Schlüssel kümmert, sollten Sie SSE-S3 auswählen.

SSE-C ermöglicht Ihnen, Amazon S3 beim Verschlüsseln und Entschlüsseln Ihrer Objekte zu nutzen und gleichzeitig die Kontrolle über die Verschlüsselungscodes zu behalten. Mit SSE-C brauchen Sie keine clientseitige Bibliothek zu implementieren oder zu verwenden, um die Verschlüsselung und Entschlüsselung von Objekten durchzuführen, die Sie auf Amazon S3 speichern. Sie müssen aber die Schlüssel verwalten, die Sie an Amazon S3 senden, um Objekte zu ver- und entschlüsseln. Verwenden Sie SSE-C, wenn Sie Ihre eigenen Verschlüsselungscodes verwalten möchten, aber keine clientseitige Verschlüsselungsbibliothek implementieren oder nutzen möchten.

SSE-KMS ermöglicht Ihnen die Verwendung von AWS Key Management Service (AWS KMS) zum Verwalten Ihrer Verschlüsselungsschlüssel. Die Verwendung von AWS KMS zum Verwalten Ihrer Schlüssel bietet mehrere zusätzliche Vorteile. Mit AWS KMS gibt es separate Berechtigungen für die Verwendung des Masterschlüssels. Dies bietet sowohl eine zusätzliche Kontrollebene als auch Schutz gegen nicht autorisierten Zugriff auf die in Amazon S3 gespeicherten Objekte. AWS KMS bietet einen Audit-Trail, sodass Sie sehen können, wer Ihren Schlüssel wann benutzt hat, um auf welches Objekt zuzugreifen, und welche fehlgeschlagenen Versuche es von Benutzern ohne Berechtigung gab, die Daten zu entschlüsseln. Außerdem bietet AWS KMS zusätzliche Sicherheitskontrollen zur Unterstützung der Kunden beim Einhalten der Branchenanforderungen PCI-DSS, HIPAA/HITECH und FedRAMP.

Durch die Verwendung einer Client-Bibliothek für die Verschlüsselung wie beispielsweise Amazon S3 Encryption Client behalten Sie die Kontrolle über die Schlüssel und führen Verschlüsselung und Entschlüsselung von Objekten clientseitig mit einer Verschlüsselungsbibliothek Ihrer Wahl durch. Manche Kunden möchten die vollständige Kontrolle über die Verschlüsselung und Entschlüsselung von Objekten behalten. In diesem Fall werden nur verschlüsselte Objekte über das Internet zu Amazon S3 gesendet. Verwenden Sie eine clientseitige Bibliothek, wenn Sie die Kontrolle über Ihre Verschlüsselungscodes behalten wollen, eine clientseitige Verschlüsselungsbibliothek implementieren oder verwenden können und Ihre Objekte verschlüsseln müssen, bevor sie zur Speicherung zu Amazon S3 gesendet werden.

Nähere Informationen zur Verwendung der Verschlüsselung mit Amazon S3 SSE-S3, SSE-C oder SSE-KMS finden Sie im Amazon-S3-Entwicklerhandbuch unter Verwenden der Datenverschlüsselung.

F: Kann ich bei Nutzung von Amazon S3 die Datenschutzbestimmungen der EU einhalten?

Kunden haben die Wahl, sämtliche Daten in der EU zu speichern, indem sie die Region EU (Frankfurt), EU (Irland), EU (London) oder EU (Paris) wählen. Dennoch liegt es in Ihrer Verantwortung sicherzustellen, dass Sie die Datenschutzbestimmungen der EU einhalten. Weitere Informationen finden Sie im AWS GDPR Center.

F: Wo erhalte ich weitere Informationen zur Sicherheit von AWS?

Weitere Informationen zur Sicherheit von AWS finden Sie in dem Dokument Amazon Web Services: Sicherheitsprozesse im Überblick.

F: Was ist ein Amazon VPC-Endpunkt für Amazon S3?

Ein Amazon VPC-Endpunkt für Amazon S3 ist eine logische Entität innerhalb einer VPC, die eine Verbindung nur zu S3 zulässt. Der VPC-Endpunkt leitet Anfragen an S3 und Antworten zurück an die VPC. Weitere Informationen zu VPC-Endpunkten finden Sie unter Using VPC Endpoints.

F: Kann ich einem bestimmten Amazon VPC-Endpunkt Zugriff auf meinen Amazon S3-Bucket gewähren?

Sie können den Zugriff auf Ihren Bucket von einem bestimmten Amazon VPC-Endpunkt oder eine Gruppe von Endpunkten aus mithilfe von Amazon S3-Bucket-Richtlinien begrenzen. S3-Bucket-Richtlinien unterstützen nun die Bedingung aws:sourceVpce, mit der Sie den Zugriff beschränken können. Weitere Details und Beispielrichtlinien finden Sie unter Using VPC Endpoints.

F: Was ist Amazon Macie?

Amazon Macie ist ein KI-gesteuerter Sicherheitsservice, der Ihnen dabei hilft, Datenverlust zu vermeiden, indem er vertrauliche, in Amazon S3 gespeicherte Daten automatisch erkennt, klassifiziert und schützt. Amazon Macie verwendet Machine Learning für die Neuorganisation vertraulicher Daten wie persönliche identifizierbare Informationen (Personally Identifiable Information, PII) oder geistiges Eigentum, weist einen Geschäftswert zu und stellt Transparenz bezüglich des Speicherorts dieser Daten sowie des Verwendens dieser Daten in Ihrer Organisation bereit. Amazon Macie überwacht fortlaufend Datenzugriffsaktivitäten für Anomalien und stellt Warnungen bereit, wenn ein Risiko durch einen nicht autorisierten Zugriff oder unbeabsichtigte Datenlecks erkannt wird.

F: Was kann ich mit Amazon Macie tun?

Sie können Amazon Macie zum Schutz vor Sicherheitsbedrohungen verwenden, indem Sie Ihre Daten und Kontoanmeldeinformationen fortlaufend überwachen. Amazon Macie bietet Ihnen eine automatische und einfache Methode zum Erkennen und Klassifizieren Ihrer Geschäftsdaten. Es stellt Kontrollen mithilfe vorlagenbasierter Lambda-Funktionen bereit, um den Zugriff zu widerrufen oder Passwort-Zurücksetzungsrichtlinien beim Erkennen eines verdächtigen Verhaltens oder nicht autorisierten Datenzugriffs auf Entitäten oder Drittanbieter-Anwendungen auszulösen. Wenn Warnungen generiert werden, können Sie Amazon Macie für die Vorfallreaktion verwenden und dabei Amazon CloudWatch-Ereignisse nutzen, um schnell Maßnahmen zum Schutz Ihrer Daten zu ergreifen.

F: Wie sichert Amazon Macie Ihre Daten?

Als Teil des Datenklassifizierungsprozesses identifiziert Amazon Macie Objekte von Kunden in ihren S3-Buckets und streamt die Objektinhalte zur Analyse in den Arbeitsspeicher. Wenn für komplexe Dateiformate eine intensivere Analyse erforderlich ist, lädt Amazon Macie eine vollständige Kopie des Objekts herunter, bewahrt diese aber nur so lange auf, bis das Objekt vollständig analysiert wurde. Sofort nach der Analyse des Dateiinhalts für die Klassifizierung durch Amazon Macie wird der gespeicherte Inhalt gelöscht, und es werden nur die Metadaten aufbewahrt, die für zukünftige Analysen erforderlich sind. Kunden können Amazon Macie jederzeit den Zugriff auf Daten im Amazon S3-Bucket entziehen. Weitere Informationen finden Sie im Amazon Macie-Benutzerhandbuch.

Zuverlässigkeit und Datenschutz

F: Wie zuverlässig ist Amazon S3?

Amazon S3 Standard, S3 Standard – IA, S3 One Zone – IA und Amazon Glacier wurden für eine Objektlebensdauer von 99,999999999 % in einem bestimmten Jahr konzipiert. Diese Zuverlässigkeitsstufe entspricht einem jährlich zu erwartenden Objektverlust von 0,000000001 %. Wenn Sie beispielsweise 10 000 000 Objekte mit Amazon S3 speichern, können Sie davon ausgehen, dass im Durchschnitt alle 10 000 Jahre ein einziges Objekt verloren geht. Außerdem wurden Amazon S3 Standard, S3 Standard – IA und Amazon Glacier so konzipiert, dass sie Daten selbst bei Ausfall einer kompletten S3 Availability Zone erhalten.

Wie bei allen Umgebungen besteht die bewährte Methode darin, eine Sicherung anzulegen und Sicherheitsvorkehrungen gegen böswilliges oder versehentliches Löschen zu treffen. Für S3-Daten umfasst die bewährte Methode sichere Zugriffsberechtigungen, regionsübergreifende Replikation, Versioning und eine funktionierende, regelmäßig getestete Sicherung. 

F: Wie erreichen Amazon S3 und Amazon Glacier eine Zuverlässigkeit von 99,999999999 %?

Die Speicherklassen Amazon S3 Standard, S3 Standard – IA und Amazon Glacier speichern Ihre Objekte redundant auf mehreren Geräten in mindestens drei Availability Zones (AZs) in einer Amazon S3-Region, bevor SUCCESS gemeldet wird. Die Speicherklasse S3 One Zone – IA speichert Daten redundant auf mehreren Geräten innerhalb einer einzigen AZ. Diese Services sollen gleichzeitigen Geräteausfällen entgegenwirken, indem sie Redundanzverluste schnell erkennen und beheben und die Integrität Ihrer Daten regelmäßig anhand von Prüfsummen überprüfen.

F: Welche Prüfsummen wendet Amazon S3 an, um Datenkorruption festzustellen?

Amazon S3 verwendet eine Kombination von Content-MD5-Prüfsummen und zyklischer Redundanzprüfungen (CRCs) zum Entdecken von Datenkorruption. Amazon S3 führt diese Prüfsummen auf Daten im Ruhemodus aus und behebt alle Verfälschungen mittels redundanter Daten. Darüber hinaus berechnet der Dienst Prüfsummen des gesamten Netzwerkverkehrs, um beschädigte Datenpakete beim Speichern oder Empfangen von Daten festzustellen.

F: Was ist Versioning?

Versioning ermöglicht Ihnen, sämtliche Versionen aller in einem Amazon S3 Bucket gespeicherten Objekte zu speichern, abzurufen oder wiederherzustellen. Nachdem Versioning für einen Bucket aktiviert wurde, speichert Amazon S3 existierende Objekte jedes Mal, wenn Sie einen PUT-, POST-, COPY- oder DELETE-Vorgang an Ihnen durchführen. Standardmäßig rufen GET-Anforderungen die zuletzt geschriebene Version ab. Ältere Versionen eines überschriebenen oder gelöschten Objekts können wiederhergestellt werden, wenn die gewünschte Version in der Anforderung spezifiziert wird.

F: Weshalb sollte ich Versioning verwenden?

Amazon S3 bietet dem Kunden eine Speicherinfrastruktur mit hoher Beständigkeit. Versioning stellt eine zusätzliche Sicherheitsstufe bereit, da der Kunde versehentlich überschriebene oder gelöschte Objekte wiederherstellen kann. Auf diese Weise ist die Wiederherstellung nach unbeabsichtigten Nutzeraktionen oder Anwendungsausfällen problemlos möglich. Sie können Versioning auch zur Vorratsdatenspeicherung und Archivierung verwenden.

F: Was sind die ersten Schritte zur Verwendung von Versioning?

Als ersten Schritt zur Verwendung von Versioning können Sie eine Einstellung an Ihrem Amazon S3-Bucket ändern. Weitere Informationen zum Aktivieren des Versionings finden Sie in der technischen Dokumentation zu Amazon S3.

F: Wie schützt mich Versioning vor zufälliger Löschung meiner Objekte?

Wenn ein Benutzer einen DELETE-Vorgang für ein Objekt ausführt, können darauffolgende Standardanforderungen (ohne Versioning) das Objekt nicht mehr abrufen. Alle Versionen dieses Objekts sind jedoch weiter in Ihrem Amazon S3-Bucket gespeichert und können abgerufen oder wiederhergestellt werden. Nur der Eigentümer eines Amazon S3-Buckets kann eine Version permanent löschen. Sie können Lebenszyklusregeln festlegen, um die Lebensdauer und Kosten der Speicherung mehrerer Versionen Ihrer Objekte im Griff zu behalten.

F: Kann ich einen Papierkorb oder ein Rollback-Zeitfenster für meine Amazon S3-Objekte einrichten, um nach Lösch- oder Überschreibungsvorgängen eine Wiederherstellung durchführen zu können?

Mithilfe von Lebenszyklusregeln und Versioning können Sie ein Rollback-Zeitfenster für Ihre Amazon S3-Objekte implementieren. Für Ihren Bucket mit aktiviertem Versioning können Sie beispielsweise eine Regel festlegen, gemäß der alle vorherigen Versionen im kostengünstigeren Glacier-Speicher archiviert und alle 100 Tage gelöscht werden. Dadurch erhalten Sie bei günstigeren Speicherkosten ein Zeitfenster von 100 Tagen, um Änderungen an Ihren Daten rückgängig zu machen.

F: Wie kann ich den optimalen Schutz meiner gespeicherten Versionen gewährleisten?

Die Löschfunktion des Versionings mit Multi-Factor Authentication (MFA) kann eine zusätzliche Sicherheitsebene schaffen. Standardmäßig benötigen Sie für alle Anforderungen an Ihren Amazon S3 Bucket Ihre Zugangsdaten für das AWS-Konto. Wenn Sie Versioning mit MFA Delete für Ihren Amazon S3 Bucket aktivieren, benötigen Sie zwei Formen der Authentifizierung, um eine Version eines Objekts dauerhaft zu löschen: Ihre AWS-Zugangsdaten und einen gültigen sechsstelligen Code sowie eine Seriennummer von einem Authentifizierungsgerät, das sich in Ihrem physischen Besitz befindet. Nähere Informationen zum Versioning mit MFA Delete, beispielsweise wie ein Authentifizierungsgerät erworben und aktiviert wird, finden Sie in der technischen Dokumentation zu Amazon S3 .

F: Wie wird mir die Nutzung von Versioning in Rechnung gestellt?

Normale Amazon S3 Tarife fallen für jede Version eines gespeicherten oder angeforderten Objekts an. Betrachten wir beispielsweise das folgende Szenario, um die Speicherkosten bei der Nutzung von Versioning zu veranschaulichen (unter der Annahme, dass der aktuelle Monat 31 Tage hat).

1) Tag 1 des Monats: Sie führen eine PUT-Anforderung von 4 GB (4.294.967.296 Bytes) für Ihren Bucket aus.
2.) Tag 16 des Monats: Sie führen eine PUT-Anfrage von 5 GB (5 368 709 120 Bytes) innerhalb desselben Buckets aus und verwenden denselben Schlüssel wie bei der ursprünglichen PUT-Anfrage an Tag 1.

Bei der Analyse der Speicherkosten der obigen Vorgänge beachten Sie bitte, dass das 4-GB-Objekt von Tag 1 nicht aus dem Bucket gelöscht wird, wenn das 5-GB-Objekt am Tag 15 geschrieben wird. Das 4-GB-Objekt wird hingegen als ältere Version gespeichert und das 5-GB-Objekt wird zur zuletzt geschriebenen Version des Objekts in Ihrem Bucket. Am Ende des Monats:

Gesamtzahl verwendeter Byte-Stunden
[4 294 967 296 Bytes x 31 Tage x (24 Stunden/Tag)] + [5 368 709 120 Bytes x 16 Tage x (24 Stunden/Tag)] = 5 257 039 970 304 Byte-Stunden

Umrechnung in Gesamtzahl GB-Monate:
5 257 039 970 304 Byte-Stunden x (1 GB/1 073 741 824 Byte) x (1 Monat/744 Stunden) = 6,581 GB-Monate

Die Gebühren errechnen sich aus den aktuellen Tarifen für Ihre Region, die Sie auf der Seite mit der Preisübersicht für Amazon S3 finden.

S3 Standard – Infrequent Access (S3 Standard – IA)

F: Was versteht man unter S3 Standard – Infrequent Access?

Amazon S3 Standard – Infrequent Access (S3 Standard – IA) ist eine Amazon S3-Speicherklasse für Daten, auf die seltener zugegriffen wird, die bei Bedarf jedoch schnell abrufbar sein müssen. S3 Standard – IA bietet die hohe Lebensdauer, den hohen Durchsatz und die geringen Latenzzeiten der Speicherklasse Amazon S3 Standard zu einem günstigen Speicher- und Abrufpreis pro GB. Diese Kombination aus niedrigen Kosten und hoher Leistung machen S3 Standard – IA zur idealen Lösung für langfristige Speicherung, Sicherung und als Datenspeicher für Notfallwiederherstellungen. Die Speicherklasse S3 Standard – IA wird auf der Objektebene eingestellt und kann im selben Bucket wie die Speicherklassen S3 Standard oder S3 One Zone – IA verbleiben, sodass Sie S3-Lebenszyklusrichtlinien für die automatische Objektübertragung zwischen Speicherklassen verwenden können, ohne die Anwendung zu ändern.

F: Welche Argumente sprechen für eine Nutzung von S3 Standard – IA?

S3 Standard – IA ist die ideale Speicherlösung für Daten, auf die seltener zugegriffen wird, die bei Bedarf jedoch schnell abrufbar sein müssen. S3 Standard – IA eignet sich optimal für die langfristige Speicherung von Dateien, ältere synchronisierte und freigegebene Daten und andere ältere Daten.

F: Welche Leistung bietet S3 Standard – IA?

S3 Standard – IA bietet dieselbe Leistung wie die Speicherklassen S3 Standard und S3 One Zone – IA.


F: Welche Zuverlässigkeit und welche Verfügbarkeit bietet S3 Standard – IA?

S3 Standard – IA wurde für dieselbe Zuverlässigkeit von 99,999999999 % konzipiert wie S3 Standard und Amazon Glacier. S3 Standard – IA wurde für eine Verfügbarkeit von 99,9 % entwickelt und umfasst ein Service Level Agreement mit Service-Gutschriften, sollte die Verfügbarkeit in einem beliebigen Abrechnungszeitraum geringer ausfallen, als von uns zugesagt.

F: Wie kann ich meine Daten in S3 Standard – IA importieren?

Es gibt zwei Möglichkeiten, Daten in S3 Standard – IA zu importieren. Sie können einen direkten PUT-Import in S3 Standard – IA durch Eingabe von STANDARD_IA in die x-amz-storage-class-Kopfzeile durchführen. Außerdem können Sie Lebenszyklusrichtlinien festlegen, um Objekte aus der Speicherklasse S3 Standard in die Speicherklasse S3 Standard – IA zu verschieben.

F: Sind meine S3 Standard – IA-Objekte vom Amazon S3 Service Level Agreement abgedeckt?

Ja, S3 Standard – IA wird durch ein Amazon S3-Service Level Agreement gestützt und Kunden erhalten eine Service-Gutschrift, sollte die Verfügbarkeit in einem beliebigen Abrechnungszeitraum geringer ausfallen, als von uns zugesagt.

F: Welche Auswirkungen hat S3 Standard – IA auf Latenzzeiten und den Datendurchsatz?

Sie können bei der Speicherklasse S3 Standard – IA mit derselben Latenz- und Durchsatzleistung rechnen wie bei S3 Standard.

F: Wie wird mir die Nutzung von S3 Standard – IA in Rechnung gestellt?

Allgemeine Informationen zu den Preisen von S3 Standard – IA finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

F: Welche Gebühren werden mir berechnet, wenn ich die Speicherklasse eines Objekts mit einer COPY-Anforderung von S3 Standard – IA in S3 Standard ändere?

Ihnen werden Gebühren für eine S3 Standard – IA-COPY-Anforderung und einen S3 Standard – IA-Datenabruf in Rechnung gestellt.

F: Gibt es bei S3 Standard –IA eine Mindestgebühr für die Speicherdauer?

S3 Standard – IA wurde für Langzeitdaten mit selteneren Zugriffen konzipiert, die für Monate oder auch Jahre gespeichert werden. Für Daten, die innerhalb von 30 Tagen aus S3 Standard – IA gelöscht werden, werden 30 volle Tage berechnet. Informationen zu den Preisen von S3 Standard – IA finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

F: Gibt es bei S3 Standard – IA eine Mindestgebühr für den Objektspeicher?

S3 Standard – IA ist für größere Objekte ausgelegt und sieht eine Mindestgebühr für 128 KB Objektspeicher vor. Objekte, die kleiner als 128 KB sind, werden mit einer Größe von 128 KB berechnet. Beispiel: Für ein Objekt mit einer Größe von 6 KB werden in S3 Standard – IA 6 KB berechnet plus einer Gebühr für die Mindestobjektgröße, die 122 KB des Speicherpreises in S3 Standard – IA entspricht. Informationen zu den Preisen von S3 Standard – IA finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

F: Kann ich Objekte aus S3 Standard – IA in S3 One Zone – IA oder Amazon Glacier verschieben?

Ja. Sie können zusätzlich zu den Lebenszyklusrichtlinien, mit denen Objekte von S3 Standard in S3 Standard – IA migriert werden, weitere Lebenszyklusrichtlinien einrichten, mit denen Objekte von S3 Standard – IA in S3 One Zone – IA oder Amazon Glacier verschoben werden.

S3 One Zone – Infrequent Access (S3 One Zone – IA)

F: Was versteht man unter der Speicherklasse S3 One Zone – IA?

Die Speicherklasse S3 One Zone – IA ist eine Amazon S3-Speicherklasse, in der Kunden Objekte auf Wunsch in einer einzigen Availability Zone speichern können. S3 One Zone – IA-Speicher speichert Daten redundant in dieser einzigen Availability Zone. So fallen um 20 % niedrigere Speicherkosten an als bei der geografisch redundanten S3 Standard – IA-Speicherung, bei der Daten redundant in mehreren, geografisch voneinander getrennten Availability Zones gespeichert werden.

S3 One Zone – IA sichert in seinem SLA eine Verfügbarkeit von 99 % zu und ist auf eine Zuverlässigkeit von 99,999999999 % innerhalb der Availability Zone ausgelegt. Aber anders als die S3 Standard-Speicherklassen ist die Speicherklasse S3 One Zone – IA nicht gegen den physischen Verlust einer Availability Zone aufgrund einer größeren Katastrophe, z. B. eines Erdbebens oder einer Überschwemmung, abgesichert.

Die Speicherklasse S3 One Zone – IA bietet dieselben Amazon S3-Funktionen wie S3 Standard und S3 Standard – IA und wird über die Amazon S3-API, die CLI und die Konsole genutzt. Die Speicherklasse S3 One Zone – IA wird auf der Objektebene eingestellt und kann im selben Bucket verbleiben wie die Speicherklassen S3 Standard und S3 Standard – IA. Sie können S3-Lebenszyklusrichtlinien verwenden, um Objekte automatisch zwischen den Speicherklassen zu verschieben, ohne die Anwendung zu ändern.

F: Für welche Anwendungsfälle ist die Speicherklasse S3 One Zone – IA besonders gut geeignet?

Kunden können S3 One Zone – IA als Speicher für Daten nutzen, auf die nur selten zugegriffen wird, z. B. Sicherungskopien, Notfallwiederherstellungskopien oder andere leicht wiederherstellbare Daten.

F: Welche Leistung bietet S3 One Zone – IA?

Die Speicherklasse S3 One Zone – IA bietet eine ähnliche Leistung wie die Speicherklassen S3 Standard und S3 Standard – Infrequent Access.

F: Wie zuverlässig ist die Speicherklasse S3 One Zone – IA?

Die Speicherklasse S3 One Zone – IA ist auf eine Zuverlässigkeit von 99,999999999 % innerhalb einer Availability Zone ausgelegt. Allerdings ist die Speicherklasse S3 One Zone – IA nicht gegen den Verlust der Verfügbarkeit oder die völlige Zerstörung einer Availability Zone abgesichert. Im Gegensatz dazu sind die Speicherklassen S3 Standard, S3 Standard – Infrequent Access und Amazon Glacier so konzipiert, dass sie den Verlust der Verfügbarkeit oder die Zerstörung einer Availability Zone auffangen können. S3 One Zone – IA bietet eine mindestens ebenso hohe Zuverlässigkeit und Verfügbarkeit wie die meisten modernen physischen Rechenzentren. Darüber hinaus bietet sie den Vorteil der Speicherelastizität sowie die Funktionen von Amazon S3.

F: Welche Verfügbarkeit wird im SLA für die Speicherklasse S3 One Zone – IA zugesagt?

Das SLA sichert eine Verfügbarkeit von 99 % für S3 One Zone – IA zu. Zum Vergleich: Die laut SLA zugesagte Verfügbarkeit von S3 Standard liegt bei 99,9 % und die von S3 Standard – Infrequent Access bei 99 %. Wie alle S3-Speicherklassen bietet S3 One Zone – IA ein Service Level Agreement, das Service-Gutschriften vorsieht, falls die Verfügbarkeit in einem beliebigen Abrechnungszeitraum geringer ausfallen sollte als von uns zugesagt. Weitere Informationen finden Sie im Amazon S3-Service Level Agreement

F: Welche Auswirkungen hat S3 One Zone – IA auf meine Latenzzeiten und meinen Datendurchsatz?

Sie können bei der Speicherklasse S3 One Zone – IA mit ähnlichen Latenzzeiten und Durchsätzen rechnen wie bei Amazon S3 Standard und S3 Standard – IA.

F: Wie wird mir die Nutzung der Speicherklasse S3 One Zone – IA in Rechnung gestellt?

Wie bei S3 Standard – IA werden bei S3 One Zone – IA der monatliche Speicherbedarf, die Bandbreite, Anfragen, frühzeitiges Löschen und Gebühren für kleine Objekte sowie eine Datenabrufgebühr in Rechnung gestellt. Der monatliche Speicherbedarf ist bei Amazon S3 One Zone – IA um 20 % günstiger als bei Amazon S3 Standard – IA. Bei Bandbreite, Anfragen, frühzeitigem Löschen und den Gebühren für kleine Objekte sowie der Datenabrufgebühr sind die Preise identisch.

Wie bei S3 Standard – Infrequent Access fällt eine Gebühr für frühzeitiges Löschen an, wenn Sie ein S3 One Zone – IA-Objekt innerhalb von 30 Tagen nach seiner Erstellung löschen. Beispiel: Wenn Sie einen PUT-Vorgang für ein Objekt ausführen und es 10 Tage später wieder löschen, werden Ihnen trotzdem 30 Tage Speicherdauer in Rechnung gestellt.

Wie für S3 Standard – IA gilt für die Speicherklasse S3 One Zone – IA eine Mindestobjektgröße von 128 KB. Objekte, die kleiner als 128 KB sind, werden mit einer Größe von 128 KB berechnet. Beispiel: Für ein Objekt mit einer Größe von 6 KB in einer S3 One Zone – IA-Speicherklasse fallen Speichergebühren für 6 KB plus einer Gebühr für die Mindestobjektgröße, die 122 KB zum Speicherpreis von S3 One Zone – IA entspricht, an. Informationen zu den Preisen für S3 One Zone – IA finden Sie auf der Seite mit der Preisübersicht.

F: Ist eine "Zone" bei S3 One Zone – IA das Gleiche wie eine AWS Availability Zone?

Ja. Jede AWS-Region ist ein separater geografischer Bereich. Jede Region verfügt über mehrere isolierte Standorte, die als Availability Zones bezeichnet werden. Die Speicherklasse Amazon S3 One Zone – IA nutzt eine einzelne AWS Availability Zone innerhalb der Region.

F: Arbeiten Amazon EC2 und Amazon S3 unterschiedlich mit den speziellen Ressourcen der jeweiligen Availability Zone?

Ja. Bei Amazon EC2 können Sie die AZ, in der Ressourcen, z. B. Datenverarbeitungs-Instances, platziert werden sollen, innerhalb einer Region auswählen. Wenn Sie S3 One Zone – IA nutzen, weist S3 One Zone – IA auf der Basis der verfügbaren Kapazität eine AWS Availability Zone in der Region zu.

F: Kann ich einen Bucket mit verschiedenen Objekten in verschiedenen Speicherklassen und Availability Zones nutzen?

Ja, Sie können einen Bucket mit verschiedenen Objekten nutzen, die in S3 Standard, S3 Standard – IA und S3 One Zone – IA gespeichert sind.

F: Ist S3 One Zone – IA in allen AWS-Regionen, in denen S3 aktiv ist, verfügbar?

Ja.

F: Auf wie viel Notfallwiederherstellungsschutz verzichte ich, wenn ich S3 One Zone – IA nutze?

Jede Availability Zone verwendet eine redundante Energieversorgung und ein redundantes Netzwerk. Die Availability Zones innerhalb einer AWS-Region befinden sich in Zonen mit unterschiedlichem Überschwemmungs- und Erdbebenrisiko und sind aus Brandschutzgründen geografisch voneinander getrennt. Die Speicherklassen S3 Standard und S3 Standard – IA speichern Ihre Daten redundant in mehreren Availability Zones und schützen sie so vor solchen Katastrophen. S3 One Zone – IA bietet Schutz vor Geräteausfällen innerhalb einer Availability Zone, ist aber nicht gegen den Verlust der Availability Zone abgesichert. Mit den Optionen S3 One Zone – IA, S3 Standard und S3 Standard –IA können Sie die Speicherklasse auswählen, die Ihren Anforderungen an den Speicher im Hinblick auf Zuverlässigkeit und Verfügbarkeit am besten entspricht.

Amazon Glacier

F: Bietet Amazon S3 kostengünstigere Speicheroptionen zum Archivieren von Objekten?

Ja, Amazon S3 ermöglicht Ihnen die Nutzung des überaus kostengünstigen Speicherservice von Amazon Glacier als Speicherort für die Datenarchivierung. Amazon Glacier speichert Daten für nur 0,004 USD pro Gigabyte und Monat. Amazon Glacier stellt drei Optionen für den Zugriff auf Archive bereit, von wenigen Minuten bis zu mehreren Stunden, um die Kosten niedrig zu halten und dennoch variierende Abrufanforderungen zu erfüllen. Beispiele für Archivnutzungsfälle sind u. a. digitale Medienarchive, Finanz- und Patientenakten, unformatierte Daten genomischer Sequenzen, langfristige Datenbanksicherungen und Daten, deren Aufbewahrung vorgeschrieben ist.

F: Wie kann ich meine Daten mit der Amazon Glacier-Option speichern?

Sie können mithilfe von Lebenszyklusregeln Gruppen von Amazon S3-Objekten basierend auf dem Objektalter automatisch in Amazon Glacier archivieren. Archivierungsregeln können Sie mithilfe der Amazon S3 Managementkonsole, der AWS SDKs oder der Amazon S3-APIs festlegen. In den Regeln werden ein Präfix und ein Zeitraum angegeben. Das Präfix (z. B. "logs/") bestimmt die Objekte, die der Regel unterliegen. Der Zeitraum definiert entweder der Anzahl der Tage nach dem Erstellungsdatum von Objekten (z.  B. 180 Tage) oder das Datum, nach dem die Objekte archiviert werden sollen. Alle Objekte in S3 Standard, S3 Standard – IA oder S3 One Zone – IA, deren Namen mit dem angegebenen Präfix beginnen und die den angegebenen Zeitraum überschritten haben, werden in Amazon Glacier archiviert. Zum Abrufen von in Amazon Glacier gespeicherten Amazon S3-Daten lösen Sie einen Abrufauftrag über die Amazon S3-APIs oder die Managementkonsole aus. Nach Erledigung des Abrufauftrags können Sie über eine Amazon S3-Objektanforderung vom Typ GET auf Ihre Daten zugreifen.

Weitere Informationen zu Lebenszyklusregeln für die Archivierung in Amazon Glacier finden Sie im Thema Object Archival im Amazon S3 Developer Guide.

F: Kann ich die Amazon S3-APIs oder die Managementkonsole zum Auflisten von Objekten nutzen, die ich in Amazon Glacier archiviert habe?

Ja, wie bei den anderen Speicherklassen von Amazon S3 (S3 Standard, S3 Standard – IA, and S3 One Zone – IA) haben Amazon Glacier-Objekte, die über die Amazon S3-APIs oder die Managementkonsole gespeichert wurden, einen zugewiesenen benutzerdefinierten Namen. Sie können über die S3-API LIST oder den S3 Inventory-Bericht eine Liste aller Amazon S3-Objektnamen in Echtzeit abrufen, auch die Objekte, die mit der Speicherklasse Amazon Glacier gespeichert wurden.

F: Kann ich die Amazon Glacier-APIs für den Zugriff auf Objekte nutzen, die ich in Amazon Glacier archiviert habe?

Da Amazon S3 die Zuordnung zwischen Ihrem benutzerdefinierten Objektnamen und der Amazon Glacier-System-ID beibehält, kann auf Amazon S3-Objekte, die mit der Speicherklasse Amazon Glacier gespeichert wurden, nur über die Amazon S3-APIs oder die Amazon S3-Managementkonsole zugegriffen werden.

F: Wie kann ich meine in Amazon Glacier archivierten Objekte abrufen?

Lösen Sie zum Abrufen von in Amazon Glacier gespeicherten Amazon S3-Daten über die Amazon S3-APIs oder die Amazon S3 Managementkonsole eine Abrufanforderung aus. Mit der Abrufanforderung wird eine temporäre Kopie Ihrer Daten in der Speicherklasse S3 RRS oder S3 Standard – IA erstellt, während die archivierten Daten in Amazon Glacier unverändert bleiben. Sie können die Anzahl der Tage angeben, die die temporäre Kopie in S3 gespeichert werden soll. Über das Anwenden einer Amazon S3-GET-Anforderung auf das archivierte Objekt können Sie anschließend auf Ihre temporäre Kopie in S3 zugreifen.

F: Wie lange dauert die Wiederherstellung meiner in Amazon Glacier archivierten Objekte?

Beim Verarbeiten eines Abrufauftrags ruft Amazon S3 zunächst die angeforderten Daten aus Amazon Glacier ab. Anschließend wird eine temporäre Kopie in S3 erstellt (was in der Regel einige Minuten dauert). Die Zugriffszeit Ihrer Anforderung hängt von der ausgewählten Abrufoption ab: "Expedited"-, "Standard"- oder "Bulk"-Abrufe. Für alle außer den größten Objekten (ab 250 MB) stehen die Daten, auf die Sie über "Expedited"-Abrufe zugreifen, normalerweise innerhalb von 1 bis 5 Minuten zur Verfügung. "Standard"-Objektabrufe werden normalerweise innerhalb von 3 bis 5 Stunden abgeschlossen. Bulk-Abrufe werden in der Regel innerhalb von fünf bis zwölf Stunden ausgeführt. Weitere Informationen zu den Glacier-Abrufoptionen finden Sie in den häufig gestellten Fragen zu Glacier.  

F: Was kostet die Archivierung von Objekten in Amazon Glacier?

Amazon Glacier-Speicher wird anhand des monatlichen Speicherbedarfs und der Anzahl der Lebenszyklus-Übertragungsanforderungen in Amazon Glacier abgerechnet. In Amazon Glacier archivierte Objekte werden mindestens 90 Tage lang gespeichert. Objekte, die vor Ablauf von 90 Tagen gelöscht werden, werden entsprechend den Speicherkosten für die verbliebenen Tage anteilig in Rechnung gestellt. Informationen zu den aktuellen Preisen finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

F: Wie werden die Speicherkosten für in Amazon Glacier archivierte Amazon S3-Objekte berechnet?

Der für einem Monat in Rechnung gestellte Speicherplatz basiert auf der durchschnittlichen, im Laufe des Monats genutzten Speicherkapazität, die in sog. Gigabyte-Monaten (GB-Monaten) gemessen wird. Amazon S3 berechnet die Objektgröße als gespeicherte Datenmenge plus 32 KB Amazon Glacier-Daten plus zusätzlich 8 KB Daten aus der Speicherklasse S3 Standard. Amazon Glacier benötigt zusätzlich 32 KB Daten pro Objekt für den Index und die Metadaten von Glacier, damit Sie Ihre Daten identifizieren und abrufen können. Amazon S3 benötigt 8 KB zum Speichern und Verwalten des benutzerdefinierten Namens und der Metadaten für in Amazon Glacier archivierte Objekte. So können Sie über die Amazon S3-API LIST oder den S3 Inventory-Bericht eine Liste aller Amazon S3-Objekte in Echtzeit abrufen, auch die Objekte, die mithilfe der Speicherklasse Amazon Glacier gespeichert wurden. Wenn Sie beispielsweise 100 000 Objekte mit je 1 GB archiviert haben, wird Ihnen Speicher wie folgt in Rechnung gestellt:

1,000032 GB für jedes Objekt x 100 000 Objekte = 100 000,32 GB Amazon Glacier-Speicher.
0,000008 GB für jedes Objekt x 100 000 Objekte = 0,8 GB Amazon S3-Standardspeicher.

Die Gebühren errechnen sich aus den aktuellen Tarifen für Ihre AWS-Region, die Sie auf der Seite mit der Preisübersicht für Amazon S3 finden.

F: Welche Datenmenge kann ich kostenlos von Amazon Glacier abrufen?

Sie können pro Monat 10 GB Ihrer Amazon Glacier-Daten kostenlos mit dem kostenlosen AWS-Kontingent abrufen. Sie können das kostenlose Kontingent für Amazon Glacier-Standard-Abrufe jederzeit während des Monats verwenden.

F: Wie wird mir das Löschen von Objekten aus Amazon Glacier in Rechnung gestellt, die weniger als 90 Tage alt sind?

Amazon Glacier ist ausgelegt, um Daten Monate, Jahre oder Jahrzehnte zu speichern. Das Löschen von in Amazon Glacier archivierten Daten ist kostenlos, wenn die zu löschenden Objekte 90 Tage oder länger in Amazon Glacier archiviert waren. Wenn ein in Amazon Glacier archiviertes Objekt innerhalb von 90 Tagen nach der Archivierung gelöscht oder überschrieben wird, fällt eine Gebühr für vorzeitiges Löschen an. Diese Gebühr wird tageweise umgelegt. Wenn Sie 1 GB Daten 30 Tage nach dem Hochladen löschen, wird Ihnen eine Gebühr für vorzeitiges Löschen berechnet, die 60 Tagen Amazon Glacier-Speicherung entspricht. Wenn Sie 1 GB Daten nach 60 Tagen löschen, werden Ihnen 30 Tage Amazon Glacier-Speicherung berechnet.

F: Was kostet das Abrufen von Daten aus Amazon Glacier? 

Es gibt drei Möglichkeiten zum Wiederherstellen von Daten aus Amazon Glacier: "Expedited"-, "Standard"- oder "Bulk"-Abrufe. Bei jeder fallen unterschiedliche Abrufgebühren pro GB und pro Archiv an (das Abrufen eines Archivs zählt als eine Anforderung). Ausführliche Preisinformationen zu Glacier nach AWS-Regionen finden Sie auf der Seite mit der Preisübersicht für Amazon Glacier.

Direkte Abfragen

F: Was ist die Funktion "Direkte Abfrage"?

Kunden können mit Amazon S3 erweiterte Abfragen zu gespeicherten Daten durchführen, ohne sie in eine separate Analyseplattform zu verschieben. Die direkte Datenabfrage in Amazon S3 erhöht die Leistung deutlich und senkt die Kosten für Analyselösungen, die S3 als Data Lake nutzen. S3 bietet mehrere Optionen für die direkte Abfrage, darunter S3 Select, Amazon Athena und Amazon Redshift Spectrum. Sie wählen einfach die beste für Ihren Anwendungsfall aus. Sie können mit Amazon S3 Select und AWS Lambda sogar serverlose Apps erstellen, die die direkte Verarbeitung von S3 Select zu ihren Gunsten nutzen.

F: Was ist S3 Select?

S3 Select ist eine Funktion von Amazon S3, mit der Sie spezifische Daten mit einfachen SQL-Ausdrücken aus dem Objektinhalt abrufen können, ohne das ganze Objekt abzurufen. In S3 Select können Sie mit einfachen SQL-Sätzen wie SELECT und WHERE eine Datenuntergruppe aus begrenzten Textdateien und JSON-Objekten in Amazon S3 abrufen. 

F: Was kann ich mit S3 Select tun?

Mit S3 Select können Sie einen kleineren und gezielteren Datensatz mit einfachen SQL-Aussagen abrufen. Wenn Sie S3 Select zusammen mit AWS Lambda verwenden, können Sie serverlose Anwendungen erstellen. Diese nutzen S3 Select, um Daten von Amazon S3 effizient und einfach abzurufen, anstatt das gesamte Objekt abzurufen und zu verarbeiten. Außerdem können Sie S3 Select mit Big Data-Frameworks wie Presto, Apache Hive und Apache Spark nutzen, um Daten in Amazon S3 zu scannen und zu filtern.

F: Warum sollte ich S3 Select verwenden?

S3 Select bietet eine ganz neue Möglichkeit zum Abrufen von bestimmten Daten aus dem Inhalt eines Objekts, das in Amazon S3 gespeichert ist, mit SQL-Aussagen. Es muss also nicht das ganze Objekt abgerufen werden. S3 Select vereinfacht und verbessert die Leistung beim Scannen und Filtern von Objektinhalten durch kleinere und gezieltere Datensätze um bis zu 400 %. Mit S3 Select können Sie auch Geschäftsabläufe auf Protokolldateien in Amazon S3 untersuchen, ohne ein Rechencluster zu betreiben oder zu verwalten.

F: Was ist Amazon Athena?

Amazon Athena ist ein interaktiver Abfrageservice, der die Analyse von Daten in Amazon S3 mit Standard-SQL-Abfragen erleichtert. Athena ist serverlos, sodass keine Infrastruktur eingerichtet oder verwaltet werden muss und Sie sofort mit dem Analysieren von Daten beginnen können. Sie müssen nicht einmal Daten in Athena übertragen. Athena arbeitet direkt mit den in einer beliebigen S3-Speicherklasse gespeicherten Daten. Um zu beginnen, melden Sie sich einfach bei der Athena-Verwaltungskonsole an, definieren Ihr Schema und beginnen mit dem Abfragen. Amazon Athena verwendet Presto mit vollständigem Support für Standard-SQL und arbeitet mit einer Vielzahl von Standard-Datenformaten wie beispielsweise CSV, JSON, ORC, Apache Parquet und Avro zusammen. Während Athena ideal für schnelle Adhoc-Abfragen geeignet ist und in Amazon QuickSight integriert werden kann, um einfache Visualisierungen durchzuführen, kann es auch komplexe Analysen einschließlich großer Joins, Fensterfunktionen und Arrays erstellen.

F: Was ist Amazon Redshift Spectrum?

Amazon Redshift Spectrum ist eine Funktion von Amazon Redshift, die es Ihnen ermöglicht, Abfragen für Exabyte an unstrukturierten Daten in Amazon S3 auszuführen, ohne dass Ladevorgänge oder ETL erforderlich sind. Wenn Sie eine Abfrage ausgeben, erreicht diese den Amazon Redshift-SQL-Endpunkt, der einen Abfrageplan generiert und optimiert. Amazon Redshift ermittelt, welche Daten lokal gespeichert sind und welche sich in Amazon S3 befinden, generiert einen Plan zum Minimieren der zu lesenden Amazon S3-Datenmenge, fordert Amazon Redshift Spectrum-Arbeitsressourcen aus einem freigegebenen Ressourcenpool an, um Daten aus Amazon S3 zu lesen und zu verarbeiten.

Redshift Spectrum kann bei Bedarf auf Tausende von Instances skaliert werden, damit Abfragen unabhängig von der Datengröße schnell ausgeführt werden. Außerdem können Sie exakt die gleiche SQL für Amazon S3-Daten wie für Ihre aktuellen Amazon Redshift-Abfragen verwenden und eine Verbindung zum gleichen Amazon Redshift-Endpunkt mithilfe der gleichen BI-Tools herstellen. Durch die Trennung von Speicher- und Rechenressourcen können Sie mit Redshift Spectrum beides unabhängig voneinander skalieren. Sie können so viele Amazon Redshift-Cluster wie nötig einrichten, um Ihren Amazon S3-Data Lake abzufragen, und so hohe Verfügbarkeit und unbegrenzte Gleichzeitigkeit bereitstellen. Mit Redshift Spectrum haben Sie die Möglichkeit, Ihre Daten am von Ihnen bevorzugten Ort und im bevorzugten Format zu speichern, sodass sie Ihnen bei Bedarf für die Verarbeitung zur Verfügung stehen.

Ereignisbenachrichtigung

F: Was sind Amazon S3-Ereignisbenachrichtigungen?

Amazon S3-Ereignisbenachrichtigungen können als Reaktion auf Aktionen in Amazon S3 wie PUT, POST, COPY oder DELETE versendet werden. Benachrichtigungen können über Amazon SNS oder Amazon SQS versendet oder direkt an AWS Lambda gesendet werden.

F: Was kann ich mit Amazon S3-Ereignisbenachrichtigungen tun?

S3-Ereignisbenachrichtigungen ermöglichen Ihnen das Auslösen von Workflows, das Versenden von Warnungen und andere Aktionen als Reaktion auf Änderungen Ihrer Objekte, die in Amazon S3 gespeichert sind. Mit S3-Ereignisbenachrichtigungen können Sie Auslöser für die Ausführung von Aktionen einrichten, zum Beispiel für die Transkodierung von Mediendateien beim Hochladen, die Verarbeitung von Datendateien, wenn diese verfügbar werden, und die Synchronisierung von S3-Objekten mit anderen Datenspeichern. Sie können außerdem Ereignisbenachrichtigungen anhand von Objektnamenpräfixen und -suffixen einrichten. Zum Beispiel können Sie wahlweise Benachrichtigungen über Objektnamen erhalten, die mit "images/" beginnen.

F: Was ist in einer Amazon S3-Ereignisbenachrichtigung enthalten?

Eine detaillierte Beschreibung der Informationen in Amazon S3-Ereignisbenachrichtigungen finden Sie unter dem Thema Amazon S3-Ereignisbenachrichtigungen konfigurieren im Amazon-S3-Entwicklerhandbuch.

F: Wie kann ich Amazon S3-Ereignisbenachrichtigungen einrichten?

Eine detaillierte Beschreibung der Konfiguration von Ereignisbenachrichtigungen finden Sie unter dem Thema Amazon S3-Ereignisbenachrichtigungen konfigurieren im Amazon S3-Entwicklerhandbuch. Weitere Informationen über AWS-Messaging-Services finden Sie in der Amazon SNS-Dokumentation und der Amazon SQS-Dokumentation.

F: Was kostet die Nutzung von Amazon S3-Ereignisbenachrichtigungen?

Für die Nutzung von Amazon S3-Ereignisbenachrichtigungen werden keine zusätzlichen Gebühren berechnet. Sie zahlen lediglich für die Nutzung von Amazon SNS oder Amazon SQS für die Lieferung von Ereignisbenachrichtigungen oder für die Ausführung einer AWS Lambda-Funktion. Besuchen Sie die Seiten mit den Preisen für Amazon SNS, Amazon SQS oder AWS Lambda, um Einzelheiten zu den Preisen für diese Services zu finden.

Amazon S3 Transfer Acceleration

F: Was ist S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration ermöglicht die schnelle, einfache und sichere Übertragung von Dateien über große Entfernungen zwischen Ihrem Client und Ihrem Amazon S3-Bucket. S3 Transfer Acceleration nutzt die weltweit verteilten AWS-Edge-Standorte von Amazon CloudFront. Wenn Daten an einem AWS-Edge-Standort eintreffen, werden sie über einen optimierten Netzwerkpfad an Ihren Amazon S3-Bucket weitergeleitet.

F: Was sind die ersten Schritte bei S3 Transfer Acceleration?

Um mit der Nutzung von S3 Transfer Acceleration zu beginnen, aktivieren Sie S3 Transfer Acceleration in einem S3-Bucket mithilfe der Amazon S3-Konsole, der Amazon S3-API oder der AWS CLI. Nachdem S3 Transfer Acceleration aktiviert wurde, können Sie mit Ihren Amazon S3-PUT- und -GET-Anforderungen auf den Endpunkt-Domain-Namen "s3-accelerate" verweisen. Ihre Anwendung für die Datenübertragung muss einen der beiden folgenden Endpunkttypen verwenden, um auf den Bucket für schnellere Datenübertragung zuzugreifen: .s3-accelerate.amazonaws.com oder .s3-accelerate.dualstack.amazonaws.com für den "Dual Stack"-Endpunkt. Wenn Sie die Standard-Datenübertragung verwenden möchten, können Sie weiterhin die regulären Endpunkte verwenden.

Es gibt bestimmte Einschränkungen dazu, welche Buckets S3 Transfer Acceleration unterstützen. Weitere Informationen finden Sie im Amazon S3-Entwicklerhandbuch.

F: Wie schnell ist S3 Transfer Acceleration?

Mit S3 Transfer Acceleration können Sie Ihre Bandbreite voll nutzen, die Auswirkungen der Entfernung auf den Durchsatz minimieren und die gleichbleibend schnelle Datenübertragung zu Amazon S3 unabhängig vom Standort des Clients sicherstellen. Die Beschleunigung hängt dabei vor allem von der verfügbaren Bandbreite, der Entfernung zwischen Quelle und Ziel und den Paketverlustraten im Netzwerkpfad ab. Allgemein ist die Beschleunigung höher, wenn die Quelle weiter vom Ziel entfernt ist, wenn es mehr verfügbare Bandbreite gibt und/oder wenn das Objekt größer ist.

Ein Kunde hat eine fünfzigprozentige Reduzierung der Durchschnittszeit für die Aufnahme von 300 MB an Dateien von einer globalen Benutzerbasis, die in den USA, in Europa und in Teilen Asiens verteilt ist, zu einem Bucket in der Asien-Pazifik-Region (Sydney) gemessen. Ein anderer Kunde hat Fälle beobachtet, in denen die Leistung für Benutzer in Südostasien und Australien beim Hochladen von 250 MB an Dateien (zu jeweils 50 MB) in einen S3-Bucket in der Region USA Ost (N. Virginia) um 500 % erhöht wurde.

Mit dem Geschwindigkeitsvergleichstool erhalten Sie eine Vorschau der Leistungsvorteile für Ihren Standort.

F: Wer sollte S3 Transfer Acceleration verwenden?

S3 Transfer Acceleration wurde entwickelt, um die Übertragungsgeschwindigkeiten aus aller Welt in S3-Buckets zu optimieren. Wenn Sie Daten in einen zentralisierten Bucket von geografisch verteilten Standorten aus hochladen oder wenn Sie regelmäßig mehrere GB oder TB an Daten über Kontinente hinweg übertragen, können Sie mit S3 Transfer Acceleration Stunden oder Tage an Datenübertragungszeit sparen.

F: Wie sicher ist S3 Transfer Acceleration?

S3 Transfer Acceleration bietet die gleiche Sicherheit wie reguläre Übertragungen zu Amazon S3. Alle Amazon S3-Sicherheitsfunktionen, zum Beispiel Zugriffsbeschränkungen basierend auf der IP-Adresse eines Clients, werden ebenfalls unterstützt. S3 Transfer Acceleration kommuniziert mit Clients über Standard-TCP und erfordert keine Firewall-Änderungen. An AWS-Edge-Standorten werden keine Daten gespeichert.

F: Was geschieht, wenn S3 Transfer Acceleration nicht schneller ist als eine reguläre Amazon S3-Übertragung?

Jedes Mal, wenn Sie S3 Transfer Acceleration zum Hochladen eines Objekts verwenden, überprüfen wir, ob S3 Transfer Acceleration wahrscheinlich schneller als eine reguläre Amazon S3-Übertragung sein wird. Wenn wir ermitteln, dass S3 Transfer Acceleration wahrscheinlich nicht schneller als eine reguläre Amazon S3-Übertragung des gleichen Objekts in die gleiche AWS-Zielregion sein wird, erheben wir für die Verwendung von S3 Transfer Acceleration für diese Übertragung keine Gebühr und umgehen möglicherweise das S3 Transfer Acceleration-System für diesen Upload.

F: Kann ich S3 Transfer Acceleration für mehrteilige Uploads verwenden?

Ja, S3 Transfer Acceleration unterstützt alle Funktionen auf Bucket-Ebene, einschließlich mehrteiliger Uploads.

F: Wie kann ich mich zwischen S3 Transfer Acceleration und PUT/POST von Amazon CloudFront entscheiden?

S3 Transfer Acceleration optimiert das TCP-Protokoll und fügt zusätzliche Informationen zwischen dem Client und dem S3-Bucket hinzu, sodass S3 Transfer Acceleration die bessere Wahl ist, wenn ein höherer Durchsatz gewünscht wird. Wenn Sie Objekte haben, die kleiner als 1 GB sind, oder wenn der gesamte Datensatz kleiner als 1 GB ist, sollten Sie für eine optimale Leistung die PUT-/POST-Befehle von Amazon CloudFront verwenden.

F: Wie kann ich mich zwischen S3 Transfer Acceleration und der AWS Snow-Familie (Snowball, Snowball Edge und Snowmobile) entscheiden?

Die AWS Snow-Familie ist ideal für Kunden, die große Datenstapel in einer einzigen Übertragung verschieben. AWS Snowball hat normalerweise eine Durchlaufzeit von fünf bis sieben Tagen. S3 Transfer Acceleration kann über eine voll ausgenutzte 1-Gbps-Leitung in der gleichen Zeit normalerweise bis zu 75 TB übertragen. Allgemein ist S3 Transfer Acceleration eine gute Wahl, wenn die Übertragung über das Internet mehr als eine Woche dauert oder wenn es wiederkehrende Übertragungsaufträge gibt und mehr als 25 Mbps an Bandbreite verfügbar sind. Sie können aber auch beide Methoden verwenden: Führen Sie die ersten umfangreichen Datenübertragungen mit AWS Snowball (bzw. mit einer Reihe von AWS Snowball-Übertragungen) und danach inkrementelle Änderungen mit S3 Transfer Acceleration durch.

F: Kann S3 Transfer Acceleration AWS Direct Connect ergänzen?

AWS Direct Connect ist eine gute Wahl für Kunden, die ein privates Netzwerk benötigen oder Zugriff auf den AWS Direct Connect-Datenaustausch haben. S3 Transfer Acceleration eignet sich vor allem für das Versenden von Daten von verteilten Client-Standorten über das öffentliche Internet oder in Fällen, in denen der Durchsatz aufgrund variabler Netzwerkbedingungen schlecht ist. Einige AWS Direct Connect-Kunden verwenden S3 Transfer Acceleration für Übertragungen an Filialen, die möglicherweise unter einer schlechten Internetleistung leiden.

F: Kann S3 Transfer Acceleration das AWS Storage Gateway oder das Gateway eines Drittanbieters ergänzen?

Wenn Sie das Bucket-Ziel im Gateway Ihres Drittanbieters mit dem Domänennamen eines S3 Transfer Acceleration-Endpunkts konfigurieren können, können Sie diesen Vorteil nutzen.

Weitere Informationen zur AWS-Implementierung erhalten Sie unter AWS Storage Gateway – Häufig gestellte Fragen im Abschnitt zu Dateien.

F: Kann S3 Transfer Acceleration integrierte Software von Drittanbietern ergänzen?

Ja. Softwarepakete, die eine direkte Verbindung mit Amazon S3 herstellen, können S3 Transfer Acceleration nutzen, wenn sie ihre Aufträge an Amazon S3 senden.

Weitere Informationen über Storage Partner Solutions »

F: Ist S3 Transfer Acceleration HIPAA-fähig?

Ja, AWS hat sein HIPAA-Compliance-Programm auf Amazon S3 Transfer Acceleration als HIPAA-fähigen Service ausgeweitet. Wenn Sie ein aktives Business Associate Agreement (BAA) mit AWS haben, können Sie Amazon S3 Transfer Acceleration verwenden, um die schnelle, einfache und sichere Übertragung von Dateien, darunter auch geschützte Gesundheitsinformationen (Protected Health Information, PHI), über weite Entfernungen zwischen Ihrem Client und Ihrem Amazon S3-Bucket zu ermöglichen.

Weitere Informationen zur HIPAA-Konformität »

Speicherverwaltung

S3-Objekt-Tagging

F: Was sind S3 Object Tags?

S3 Object Tags sind Schlüsselwertpaare, die auf S3-Objekte angewendet und jederzeit während der Lebensdauer des Objekts erstellt, aktualisiert oder gelöscht werden können. Mit diesen Tags können Sie Identity and Access Management (IAM)-Richtlinien erstellen, S3 Lebenszyklusrichtlinien einrichten und Speichermetriken anpassen. Diese Tags auf Objektebene können dann Übertragungen zwischen Speicherklassen verwalten und Objekte im Hintergrund auslaufen lassen.

F: Wie kann ich Object Tags auf meine Objekte anwenden?

Sie können Tags neuen Objekten hinzufügen, wenn Sie diese hochladen, oder Tags bereits vorhandenen Objekten hinzufügen. Jedem S3-Objekt können bis zu zehn Tags hinzugefügt werden. Für das Hinzufügen von Objekt-Tags können Sie entweder die AWS Management Console, die REST-API, die AWS-CLI oder die AWS-SDKs verwenden.

F: Was spricht für die Verwendung von Object Tags?

Bei Object Tags handelt es sich um ein Tool, mit dem Sie die Verwaltung Ihres S3-Speichers vereinfachen können. Da Sie die Möglichkeit haben, Tags jederzeit während der Lebensdauer Ihres Objekts erstellen, aktualisieren und löschen zu können, ist Ihr Speicher flexibel an die Anforderungen Ihres Unternehmens anpassbar. Mithilfe dieser Tags können Sie den Zugriff auf Objekte steuern, die mit bestimmten Schlüssel-Wert-Paaren getaggt wurden, damit vertrauliche Daten tatsächlich nur für eine ausgewählten Gruppe oder einen bestimmten Benutzer zugänglich sind. Object Tags können außerdem für die Kennzeichnung von Objekten verwendet werden, die zu einem bestimmten Projekt oder Geschäftsbereich gehören, um in Verbindung mit S3-Lebenszyklusrichtlinen die Verwaltung der Übertragungen an die Speicherkontingente von S3 Standard – IA, S3 One Zone – IA und Amazon Glacier zu erleichtern.

F: Wie kann ich Object Tags für meine Objekte aktualisieren?

Object Tags können während der Lebensdauer Ihres S3-Objekts jederzeit über die AWS-Managementkonsole, die REST-API, AWS-CLI oder AWS-SDKs geändert werden. Beachten Sie bitte, dass alle Änderungen an Tags, die außerhalb der AWS Management Console vorgenommen werden, für die gesamte Tag-Gruppe erfolgen. Wenn Sie einem bestimmten Objekt fünf Tags zugeordnet haben und einen sechsten Tag hinzufügen möchten, müssen Sie die ursprünglichen fünf Tags in diese Anforderung einschließen.

F: Werden meine Object Tags repliziert, wenn ich die regionsübergreifende Replikation verwende?

Object Tags können mithilfe der regionsübergreifenden Replikation über mehrere AWS-Regionen hinweg repliziert werden. Für Kunden, bei denen die regionsübergreifende Replikation bereits aktiviert ist, sind neue Berechtigungen erforderlich, damit Tags repliziert werden können. Sie finden weitere Informationen zur Einrichtung der regionsübergreifenden Replikation unter How to Set Up Cross-Region Replication im Handbuch Amazon S3 Developer Guide.

F: Welche Kosten fallen für Object Tags an?

Die Preise für Object Tags richten sich nach der Menge der Tags und den Anfragekosten für das Hinzufügen von Tags. Die Preise für Anforderungen im Zusammenhang mit dem Hinzufügen und Aktualisieren von Object Tags werden genau wie bestehende Anforderungspreise berechnet. Sie finden weitere Informationen hierzu auf der Seite mit der Preisübersicht für Amazon S3.

Storage Class Analysis

F: Was versteht man unter "Storage Class Analysis"?

Mit Storage Class Analysis (Speicherklassenanalyse) können Sie Speicherzugriffsmuster analysieren und die richtigen Daten auf die richtige Speicherklasse übertragen. Diese neue Funktion von S3 erkennt automatisch Muster einer seltenen Nutzung und erleichtert so die Übertragung von Speicher auf S3 Standard – IA. Sie können eine Richtlinie für Storage Class Analysis konfigurieren, sodass entweder ein vollständiger Bucket, ein Präfix oder ein Object Tag überwacht wird. Sobald ein Muster eines seltenen Zugriffs festgestellt wird, können Sie ohne großen Aufwand auf Basis der Ergebnisse eine neue S3 Lebenszyklus-Altersrichtlinie erstellen. Zudem ermöglicht Storage Class Analysis tägliche grafische Darstellungen Ihrer Speichernutzung in der AWS-Managementkonsole. Sie können diese in einen S3-Bucket exportieren und dort für die Analyse Business Intelligence-Tools Ihrer Wahl wie beispielsweise Amazon QuickSight nutzen.

F: Welche ersten Schritte sind für Storage Class Analysis erforderlich?

Sie können über die AWS-Managementkonsole oder die S3 PUT Bucket Analytics-API eine Storage Class Analysis-Richtlinie konfigurieren, um selten genutzten Speicher zu ermitteln, der in die Speicherklasse S3 Standard – IA oder S3 One Zone – IA übertragen oder in der Speicherklasse Amazon Glacier archiviert werden kann. Auf der Registerkarte "Management" in der S3-Konsole können Sie Storage Class Analysis, S3 Inventory und S3 CloudWatch Metrics verwalten.

F: Wie wird mir die Nutzung von Storage Class Analysis in Rechnung gestellt?

Allgemeine Informationen zu den Preisen für Storage Class Analysis finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

F: Wie oft wird Storage Class Analysis aktualisiert?

Storage Class Analysis wird täglich in der S3-Managementkonsole aktualisiert. Außerdem können Sie Storage Class Analysis so konfigurieren, dass Ihr Bericht an einen S3-Bucket Ihrer Wahl exportiert wird.

S3 Inventory

F: Was ist S3 Inventory?

Der S3 Inventory-Bericht stellt eine Alternative mit Zeitplanung zur synchronen Listen-API von Amazon S3 dar. Sie können S3 Inventory so konfigurieren, dass es täglich oder wöchentlich für ein S3-Bucket oder ein Präfix eine Übersicht über Ihre Objekte und die zugehörigen Metadaten in Form einer CSV (Comma Separated Values) oder einer ORC (Optimized Row Columnar) zur Verfügung stellt. Mit S3 Inventory können Sie Geschäftsabläufe und Aufträge mit großem Datenumfang vereinfachen oder beschleunigen. Sie können S3 Inventory auch zur Verifizierung der Verschlüsselung und des Replikationsstatus Ihrer Objekte verwenden, um geschäftliche, Compliance- und behördliche Anforderungen zu erfüllen. 

F: Welche ersten Schritte sind für S3 Inventory erforderlich?

Mit der AWS-Managementkonsole oder der PUT Bucket Inventory-API können Sie einen täglichen oder wöchentlichen Bestandsbericht aller Objekte in Ihrem S3-Bucket oder einer Untergruppe der Objekte unter einem gemeinsam genutzten Präfix konfigurieren. Bei der Konfiguration können Sie ein Ziel-S3-Bucket für Ihren S3 Inventory-Bericht, das Ausgabeformat der Ausgabedatei (CSV oder ORC) und spezielle Objektmetadaten angeben, die für Ihre Geschäftsanwendung erforderlich sind, z. B. Objektname, Größe, Datum der letzten Änderung, Speicherklasse, Versions-ID, Löschmarkierung, Flag für veraltete Version, Flag für mehrteiligen Upload, Replikationsstatus oder Verschlüsselungsstatus.

F: Können S3 Inventory-Berichtsdateien verschlüsselt werden?

Ja, Sie können festlegen, dass alle von S3 Inventory verfassten Daten mit SSE-S3 oder SSE-KMS verschlüsselt werden. Weitere Informationen erhalten Sie im Benutzerhandbuch.

F: Wie verwende ich S3 Inventory?

Sie können S3 Inventory als direkte Eingabe für Ihre Anwendungs-Workflows oder Big-Data-Aufträge verwenden. Zusätzlich können Sie S3 Inventory mithilfe von Standard SQL-Sprache mit Amazon Athena, Amazon Redshift Spectrum und anderen Tools wie Presto, Hive und Spark abfragen.

Weitere Informationen zu S3 Inventory-Abfragen mit Athena »

F: Wie wird mir die Nutzung von S3 Inventory in Rechnung gestellt?

Sie finden Informationen zu den Preisen für S3 Inventory auf der Seite mit der Preisübersicht für Amazon S3. Wenn Sie die Verschlüsselung mit SSE-KMS konfigurieren, fallen KMS-Kosten für die Verschlüsselung an. Weitere Informationen finden Sie auf der Seite mit der Preisübersicht für KMS.

S3 CloudWatch Metrics

F: Welche ersten Schritte sind für S3 CloudWatch Metrics erforderlich? 

Mit der AWS-Managementkonsole können Sie die Generierung einer einminütigen CloudWatch Metrics-Instance für Ihr S3-Bucket aktivieren oder mithilfe eines Präfix oder Objekt-Tags Filter konfigurieren. Alternativ dazu haben Sie die Möglichkeit, die S3 PUT Bucket Metrics-API für die Aktivierung und Konfiguration der Veröffentlichung von S3-Speichermetriken aufzurufen. Speichermetriken sind bereits 15 Minuten nach ihrer Aktivierung in CloudWatch verfügbar.

F: Kann ich Speichermetriken gezielt auf meine Anwendungen oder Unternehmensorganisationen zuschneiden?

Ja. Sie können in der Konfiguration von S3 CloudWatch Metrics Metriken für Ihr S3-Bucket generieren oder mithilfe eines Präfix oder Objekt-Tags Filter für die Metriken konfigurieren.

F: Welche Alarme kann ich für meine Speichermetriken einstellen?

In CloudWatch können Sie Schwellenwerte für sämtliche Zähler, Timer oder Raten von Speichermetriken festlegen und bei einer Nichteinhaltung der Werte eine Aktion auslösen. Sie können beispielsweise einen Schwellenwert für den Prozentsatz von 4xx-Fehlermeldungen festlegen und einen DevOps-Techniker durch Auslösen eines CloudWatch-Alarms benachrichtigen, sobald mindestens drei Dateneinträge über dem Schwellenwert liegen.

F: Wie wird mir die Nutzung von S3 CloudWatch Metrics in Rechnung gestellt? 

Die Speichermetriken von CloudWatch werden kostenlos zur Verfügung gestellt. Die Metriken zu CloudWatch-Abfragen werden als benutzerdefinierte Metriken für Amazon CloudWatch berechnet. Allgemeine Informationen zu den Preisen von S3 CloudWatch Metrics finden Sie auf der Seite mit der Preisübersicht für Amazon CloudWatch.

S3-Lebenszyklusmanagement

F: Was ist S3-Lebenszyklusmanagement?

Mit dem S3-Lebenszyklusmanagement können Sie den Lebenszyklus Ihrer Objekte mittels einer vordefinierten Richtlinie festlegen und Ihre Speicherkosten reduzieren. Sie können eine Lebenszyklus-Übertragungsrichtlinie einrichten, um Objekte, die in der Speicherklasse S3 Standard gespeichert sind, automatisch auf der Grundlage des Alters der Daten in die Speicherklassen S3 Standard – IA, S3 One Zone – IA und/oder Amazon Glacier zu migrieren. Ebenso können Sie Richtlinien für das Ende von Lebenszyklen erstellen, sodass Objekte automatisch entfernt werden, wenn sie ein bestimmtes Alter erreicht haben. Sie können eine Richtlinie für die Ablauffrist mehrteiliger Uploads festlegen. Anhand dieser Richtlinie verfallen unvollständige mehrteilige Uploads basierend auf ihrem Alter.

F: Wie erstelle ich eine S3-Lebenszyklusmanagementrichtlinie?

Lebenszyklusrichtlinien lassen sich in der AWS-Managementkonsole, in der S3 REST-API, den AWS-SDKs oder der AWS Command Line Interface (CLI) erstellen und verwalten. Eine Spezifizierung der Richtlinie ist auf Präfix- oder auf Bucket-Ebene möglich.

F: Wie viel kostet die Nutzung des S3-Lebenszyklusmanagements?

Mit der Erstellung und Anwendung von Lebenszyklusrichtlinien sind keine zusätzlichen Kosten verbunden. Kosten für die Übertragung fallen pro Objekt an, sobald das betreffende Objekt gemäß der Lebenszyklusregel die Voraussetzungen für die Übertragung erfüllt. Bitte besuchen Sie die Seite S3 – Preise, wenn Sie mehr Informationen über die Kosten wünschen.

F: Wie verwende ich Lebenszyklusmanagementrichtlinien?

Mit zunehmendem Alter der Daten verringert sich möglicherweise ihre Relevanz, ihr Wert und/oder ihr Compliance-Status. Amazon S3 beinhaltet eine umfangreiche Bibliothek, die eine Automatisierung der Datenmigration zwischen den Speicherklassen erleichtert. Beispielsweise können Sie festlegen, dass selten genutzte Objekte nach einiger Zeit günstigeren Speicherklassen (wie S3 Standard – IA oder S3 One Zone – IA) zugewiesen werden. Später können diese Objekte zu Archivierungs- und Compliance-Zwecken in Amazon Glacier verschoben werden. Wenn die Richtlinie es zulässt, können Sie auch eine Lebenszyklusrichtlinie für das Löschen von Objekten angeben. Mithilfe dieser Regeln lassen sich die Speicherkosten sowie der Verwaltungsaufwand im Handumdrehen reduzieren. Diese Richtlinien umfassen unter anderem beispielhafte Verwaltungsverfahren zum Entfernen von solchen Objekten und Attributen, die nicht mehr zur Verwaltung der Kosten und zur Optimierung der Leistung benötigt werden.

F: Wie kann ich das Lebenszyklusmanagement von Amazon S3 nutzen, um meine Amazon S3-Speicherkosten zu senken?

Mit Amazon S3-Lebenszyklusrichtlinien können Sie Ihre Objekte so konfigurieren, dass sie aus der Speicherklasse S3 Standard in S3 Standard – IA oder S3 One Zone – IA migriert und oder in Amazon Glacier archiviert werden. Sie können eine S3-Lebenszyklusrichtlinie festlegen, um Objekte nach einer bestimmten Zeit zu löschen. Mithilfe dieser durch Richtlinien gesteuerten Automatisierung können Sie schnell und einfach Speicherkosten senken und Zeit sparen. In jeder Regel können Sie ein Präfix, einen Zeitraum, eine Übertragung in S3 Standard – IA, S3 One Zone – IA oder Amazon Glacier und/oder einen Ablauftermin angeben. Sie können beispielsweise eine Regel definieren, nach der alle Objekte mit dem gemeinsamen Präfix "logs/" 30 Tage nach der Erstellung in Amazon Glacier archiviert und 365 Tage nach der Erstellung gelöscht werden. Sie können auch eine gesonderte Regel erstellen, gemäß der nur alle Objekte mit dem Präfix "backups/" 90 Tage nach der Erstellung gelöscht werden. S3-Lebenszyklusrichtlinien gelten sowohl für vorhandene als auch für neue S3-Objekte. Sie ermöglichen Ihnen eine optimierte Speicherung und maximale Kosteneinsparung für alle derzeitigen und neuen Daten, die in S3 abgelegt werden, und zwar ohne zeitaufwendige manuelle Datenüberprüfungen und -migrationen. Bei einer Lebenszyklusregel bestimmt das Präfixfeld die Objekte, die der Regel unterliegen. Um die Regel auf ein einzelnes Objekt anzuwenden, müssen Sie den Schlüsselnamen angeben. Wenn Sie die Regel auf einen ganzen Satz an Objekten anwenden möchten, muss ihr gemeinsames Präfix angegeben werden (z. B. "logs"). Sie können zum Archivieren Ihrer Objekte eine Überführungsaktion und zum Entfernen Ihrer Objekte eine Löschaktion nach Terminablauf angeben. Geben Sie beim Zeitraum das Erstellungsdatum (z. B. 31.01.2013) oder die Anzahl der Tage ab dem Erstellungsdatum (z. B. 30 Tage) an, nach denen Ihre Objekte archiviert oder entfernt werden sollen. Sie können mehrere Regeln für unterschiedliche Präfixe erstellen.

F: Wie kann ich meine Objekte konfigurieren, damit sie nach einer bestimmten Zeit gelöscht werden?

Sie können eine S3-Richtlinie für das Lebenszyklusende erstellen, mit der Ihre Objekte nach einer festgelegten Anzahl von Tagen aus den Buckets entfernt werden. Sie können die Ablaufregeln für einen Objektsatz in Ihrem Bucket über die Lebenszykluskonfigurationsrichtlinie definieren, die Sie auf den Bucket anwenden.

Weitere Informationen zu S3-Richtlinien für das Lebenszyklusende »

F: Warum sollte ich eine S3-Lebenszyklusrichtlinie verwenden, um unvollständige mehrteilige Uploads ablaufen zu lassen?

Die S3-Lebenszyklusrichtlinie für unvollständige mehrteilige Uploads ermöglicht es Ihnen, durch Begrenzung des Speicherzeitraums für nicht abgeschlossene mehrteilige Uploads Kosten zu sparen. Zum Beispiel, wenn Ihre Anwendung mehrere mehrteilige Objekt-Teile hochlädt, diese aber nie einbindet, wird Ihnen der benötigte Speicher trotzdem in Rechnung gestellt. Diese Richtlinie kann Ihre S3-Rechnung senken, indem sie automatisch unvollständige mehrteilige Uploads entfernt und den zugehörigen Speicher nach einer festgelegten Anzahl von Tagen freigibt.

Weitere Informationen dazu, wie Sie mit S3-Lebenszyklus unvollständige mehrteilige Uploads ablaufen lassen können »

Regionsübergreifende Replikation

F: Was ist die Amazon S3 Cross-Region Replication (CRR – Regionsübergreifende Replikation)?

CRR ist eine automatische Replikation von Amazon S3-Daten über AWS-Regionen hinweg. Mit CRR wird jedes in einen S3-Bucket hochgeladene Objekt automatisch in einen Ziel-Bucket in einer anderen, von Ihnen ausgewählten AWS-Region repliziert. Sie können CRR einsetzen, um in verschiedenen geografischen Regionen einen Datenzugriff mit geringerer Latenz bereitzustellen. CRR kann auch nützlich sein, um die Compliance-Anforderung zu erfüllen, dass Daten Hunderte von Kilometern entfernt gespeichert werden müssen.

F: Wie aktiviere ich CRR?

CRR wird auf der S3-Bucket-Ebene konfiguriert. Sie aktivieren eine CRR-Konfiguration auf Ihrem Quell-Bucket, indem Sie für die Replikation einen Ziel-Bucket in einer anderen Region angeben. Sie können entweder die AWS-Managementkonsole, REST API, AWS CLI oder die AWS SDKs verwenden, um CRR zu aktivieren. Versioning muss für Quell- und Ziel-Bucket aktiviert sein, um CRR aktivieren zu können. Weitere Informationen finden Sie unter How to Set Up Cross-Region Replication (So richten Sie regionsübergreifende Replikation ein) im Amazon S3 Developer Guide.

F: Kann ich CRR mit S3-Lebenszyklusregeln verwenden?

Ja, Sie können separate S3-Lebenszyklusregeln für den Quell- und den Ziel-Bucket konfigurieren. Beispiel: Sie können eine Lebenszyklusregel für den Ziel-Bucket konfigurieren, um Daten aus der Speicherklasse S3 Standard in die Speicherklasse S3 Standard – IA oder S3 One Zone – IA zu migrieren oder sie in Amazon Glacier zu archivieren.

F: Kann ich CRR bei mit dem AWS Key Management Service (KMS) verschlüsselten Objekten verwenden?

Ja, Sie können mit KMS verschlüsselte Objekte durch Angeben eines Ziel-KMS-Schlüssels in der Replikationskonfiguration replizieren.

Weitere Informationen zur Replikation von mit KMS verschlüsselten Objekten »

F: Werden Objekte beim Replikationsvorgang sicher übertragen und verschlüsselt?

Ja, die Objekte bleiben beim CRR-Vorgang verschlüsselt. Die verschlüsselten Objekte werden über SSL sicher von der Quellregion zur Zielregion übertragen.

F: Kann ich CRR mit mehreren AWS-Konten verwenden, um mich vor böswilligem oder versehentlichem Löschen zu schützen?

Ja, Sie können CRR für mehrere AWS-Konten einrichten, um die replizierten Daten in einem anderen Konto in der Zielregion zu speichern. Sie können CRR Ownership Overwrite in Ihrer Replikationskonfiguration verwenden, um einen unterschiedlichen Besitzstapel für Quelle und Ziel beizubehalten und den Besitz des Zielkontos am replizierten Speicher zu gewähren. 

F: Welche Preise gelten für S3 Cross-Region Replication?

Sie bezahlen die Amazon S3-Kosten für Speicherung (in der von Ihnen gewählten S3-Speicherklasse), COPY-Anforderungen und regionsübergreifende Datenübertragungen für die replizierte Kopie der Daten. COPY-Anforderungen und regionsübergreifende Datenübertragungen werden basierend auf der Quellregion in Rechnung gestellt. Die Speicherung der replizierten Daten wird basierend auf der Zielregion in Rechnung gestellt. Weitere Informationen zu den Preisen finden Sie auf der Seite mit den Preisen von S3.

Wenn das Quellobjekt mit der Funktion für den mehrteiligen Upload hochgeladen wird, erfolgt die Reduzierung mit derselben Anzahl von Teilen und Teilgrößen. Beispiel: Ein Objekt mit 100 GB, das mithilfe der Funktion für mehrteiligen Upload (800 Teile mit jeweils 128 MB) hochgeladen wird, veranlasst bei der Replikation Anfragekosten für 802 Anfragen (800 Anfragen zum Hochladen für Teile plus 1 zur Einleitung eines mehrteiligen Uploads plus 1 Anfrage zur Beendigung des mehrteiligen Uploads). Dabei entstehen Anfragekosten von 0,00401 USD (802 Anfragen mal 0,005 USD pro 1000 Anfragen) und eine Gebühr von 2,00 USD (0,020 USD pro übertragenem Gigabyte mal 100 GB) für die Datenübertragung zwischen Regionen. Nach der Platzierung werden für die 1000 GB Speicherkosten basierend auf der Zielregion anfallen.

F: Werden Objekte beim Replikationsvorgang sicher übertragen und verschlüsselt?

Ja, die Objekte bleiben beim CRR-Vorgang verschlüsselt. Die verschlüsselten Objekte werden über SSL sicher von der Quellregion zur Zielregion übertragen.

Amazon S3 und IPv6

F: Was ist IPv6?

Alle Server und Geräte, die mit dem Internet verbunden sind, müssen eine eindeutige Adresse haben. Internet Protocol Version 4 (IPv4) war das Originalschema für 32-Bit-Adressen. Das anhaltende Wachstum des Internets würde jedoch dazu führen, dass alle verfügbaren IPv4-Adressen nach einiger Zeit in Gebrauch sind. Internet Protocol Version 6 (IPv6) ist der neue Adressierungsmechanismus, der dazu konzipiert wurde, die globalen Adresseinschränkungen von IPv4 zu überwinden.

F: Was kann ich mit IPv6 tun?

Mit der IPv6-Unterstützung für Amazon S3 können Anwendungen eine Verbindung zu Amazon S3 herstellen, ohne Software oder Systeme für die Übersetzung von IPv6 in IPv4 zu benötigen. Sie können Compliance-Anforderungen erfüllen, eine Integration mit bestehenden Vor-Ort-Anwendungen auf IPv6-Basis einfacher durchführen und die Notwendigkeit teurer Netzwerkausrüstung zum Verarbeiten der Adressenübersetzung eliminieren. Sie können jetzt außerdem die vorhandenen Funktionen zum Filtern von Quelladressen in IAM-Richtlinien und Bucket-Richtlinien mit IPv6-Adressen nutzen, um Ihre Optionen zum Schützen von Anwendungen bei der Zusammenarbeit mit Amazon S3 zu erweitern.

F: Was sind die ersten Schritte mit IPv6 mit Amazon S3?

Sie können damit beginnen, Ihre Anwendung auf den neuen "Dual Stack"-Endpunkt von Amazon S3 zu verweisen, der Zugriff sowohl über IPv4 als auch über IPv6 unterstützt. In den meisten Fällen wird für den Zugriff über IPv6 keine weitere Konfiguration benötigt, da die meisten Netzwerkclients standardmäßig IPv6-Adressen bevorzugen.

F: Muss ich mit einer Änderung der Amazon S3-Leistung rechnen, wenn ich IPv6 nutze?

Nein, die Leistungen von Amazon S3 ist mit IPv4 und IPv6 gleich.

F: Was kann ich tun, wenn meine Clients durch Richtlinien, das Netzwerk oder andere Einschränkungen bei der Verwendung von IPv6 für Amazon S3 beeinträchtigt werden?

Anwendungen, die durch die Verwendung von IPv6 beeinträchtigt werden, können jederzeit auf die standardmäßigen nur IPv4-fähigen Endpunkte zurückgeschaltet werden.

F: Kann ich IPv6 für alle Funktionen von Amazon S3 verwenden?

Nein, die IPv6-Unterstützung steht zurzeit für Website-Hosting und Zugriff über BitTorrent nicht zur Verfügung. Alle anderen Funktionen sollten beim Zugriff auf Amazon S3 IPv6 wie erwartet funktionieren.

F: Wird IPv6 in allen AWS Regionen unterstützt?

Sie können IPv6 in allen kommerziellen AWS-Regionen außer in China (Peking) mit Amazon S3 verwenden. Sie können IPv6 auch in der Region AWS GovCloud (USA) verwenden.

Weitere Informationen zu den Preisen von Amazon S3

Zur Seite mit den Preisen
Bereit zum Entwickeln?
Erste Schritte mit Amazon S3
Haben Sie Fragen?
Kontakt