F: Was ist Amazon S3?

Bei Amazon S3 handelt es sich um Speicher für das Internet. Mit dem unkomplizierten Speicherdienst erhalten Softwareentwickler eine hochgradig skalierbare und zuverlässige Datenspeicher-Infrastruktur mit niedriger Verzögerungszeit zu geringen Kosten.

F: Was kann ich mit Amazon S3 tun?

Amazon S3 ist eine einfache Web-Service-Schnittstelle, mit der beliebige Datenmengen jederzeit und überall im Web gespeichert und abgerufen werden können. Mit diesem Web-Service können Entwickler unkompliziert Anwendungen erstellen, die Internetspeicher nutzen. Da Amazon S3 hochskalierbar ist und Sie nur für das bezahlen, was Sie tatsächlich nutzen, können Sie als Entwickler Ihre Anwendungen nach Belieben erweitern, ohne Kompromisse bezüglich der Leistung oder Zuverlässigkeit einzugehen.

Amazon S3 ist außerdem noch sehr flexibel. Speichern Sie beliebige Datentypen und so viele Daten, wie Sie möchten, rufen Sie dieselben Daten beliebig oft oder nur für die Notfallwiederherstellung ab, erstellen Sie eine einfache FTP-Anwendung oder eine anspruchsvolle Webanwendung wie die Website von Amazon.de. Mit Amazon S3 können sich Entwickler statt auf die Speicherung ihrer Daten ganz auf neue Ideen konzentrieren.

F: Was sind die ersten Schritte mit Amazon S3?

Zur Anmeldung bei Amazon S3 klicken Sie auf der Amazon-S3-Detailseite auf die Schaltfläche "Für diesen Web-Service anmelden". Für den Zugriff auf diesen Service ist ein Amazon Web Services-Konto erforderlich. Wenn Sie noch kein Konto haben, werden Sie bei der Registrierung bei Amazon S3 zur Erstellung eines Kontos aufgefordert. Nach der Anmeldung erhalten Sie in der Dokumentation von Amazon S3 sowie mit dem Beispiel-Code des Ressourcencenters Informationen über die Anwendung von Amazon S3.

F: Was sind die technischen Vorteile von Amazon S3?

Amazon S3 wurde so entwickelt, dass die Anforderungen interner Amazon-Entwickler in Bezug auf Skalierbarkeit, Zuverlässigkeit, Geschwindigkeit, Erschwinglichkeit und Einfachheit erfüllt werden. Mit Amazon S3 profitieren auch externe Entwickler von diesen Vorteilen. Weitere Informationen über die Ausführungsanforderungen von Amazon S3 erhalten Sie auf der Amazon S3-Detailseite.

F: Welche neuen Vorteile ergeben sich für Entwickler?

Bisher war eine anspruchsvolle und skalierbare Datenspeicher-Infrastruktur wie die von Amazon für kleinere Entwickler unerreichbar. Mit Amazon S3 profitiert jeder Entwickler von den Amazon-Vorteilen: hohe Skalierbarkeit ohne Vorleistungen und keine Kompromisse bei der Leistung. Entwickler können sich voll und ganz auf ihre Innovationen konzentrieren und unabhängig vom Erfolg ihres Unternehmens sicher sein, dass ihre Daten schnell zugänglich, stets verfügbar und sicher sind – günstig und einfach.

F: Welche Art von Daten kann gespeichert werden?

Sie können praktisch alle Dateitypen in jedem Format speichern. Weitere Informationen finden Sie in der Lizenzvereinbarung von Amazon Web Services.

F: Welche Datenmenge kann gespeichert werden?

Das speicherbare Gesamtvolumen an Daten sowie die Anzahl der Objekte sind unbegrenzt. Einzelne Amazon S3-Objekte variieren in ihrer Größe von minimal 0 Bytes bis maximal 5 Terabytes. Das größte Objekt, das in einem einzelnen PUT hochgeladen werden kann, kann bis zu 5 GB groß sein. Für Objekte, die größer als 100 MB sind, empfiehlt sich die Funktion Multipart Upload.

F: Welche Speicherklassen bietet Amazon S3?

Amazon S3 bietet eine Vielzahl von Speicherklassen an, die für diverse Anwendungsfällen genutzt werden können. Es gibt drei sehr robuste Speicherklassen. Hierzu gehören Amazon S3 Standard für die allgemeine Speicherung von Daten mit häufigem Zugriff, Amazon S3 Standard – Infrequent Access (Standard-IA) für Langzeitdaten mit selteneren Zugriffen und Amazon Glacier zur Langzeitarchivierung. Weitere Informationen über diese drei Speicherklassen finden Sie auf der Seite Amazon S3-Speicherklassen.

Reduced Redundancy Storage (RRS) ist eine Speicheroption von Amazon S3, die Kunden die Möglichkeit bietet, nicht kritische, reproduzierbare Daten mit geringerer Redundanz als bei der Standard-Speichermethode von Amazon S3 zu speichern und damit ihre Kosten zu senken. Weitere Informationen über Reduced Redundancy Storage finden Sie auf der Detailseite zu Reduced Redundancy.

F: Wie kann ich eine große Zahl von Objekten löschen?

Mit der Funktion zum Löschen mehrerer Objekte, Multi-Object Delete, können Sie eine große Zahl von Objekten aus Amazon S3 löschen. Sie können einer einzigen Anforderung mehrere Objektschlüssel senden und so den Löschvorgang beschleunigen. Amazon stellt die Nutzung von "Multi-Object Delete" nicht in Rechnung.

F: Was macht Amazon mit den in Amazon S3 gespeicherten Daten?

Für Fakturierungszwecke speichert Amazon Ihre Daten und ermittelt die damit verbundene Nutzung. Amazon greift außerhalb dieses Rahmens nicht auf Ihre Daten zu, es sei denn, dies ist aus rechtlichen Gründen erforderlich. Weitere Informationen finden Sie in der Lizenzvereinbarung von Amazon Web Services.

F: Speichert Amazon eigene Daten in Amazon S3?

Ja. Amazon-Entwickler nutzen Amazon S3 für zahlreiche unterschiedliche Projekte. Viele dieser Projekte verwenden Amazon S3 als autoritativen Datenspeicher, auf den man sich bei geschäftskritischen Vorgängen verlassen kann.

F: Wie werden die Daten in Amazon S3 organisiert?

Bei Amazon S3 handelt es sich um einen einfachen, schlüsselbasierten Objektspeicher. Beim Speichern von Daten vergeben Sie einen einmaligen Objektschlüssel, der später für die Datenabfrage verwendet werden kann. Schlüssel können aus einer beliebigen Zeichenfolge bestehen und für die Imitation hierarchischer Attribute erstellt werden.

F: Über welche Schnittstelle kann ich auf Amazon S3 zugreifen?

Amazon S3 umfasst benutzerfreundliche, auf Standards basierende REST-Schnittstellen für Web-Services, die mit jedem beliebigen Toolkit für die Internetentwicklung kompatibel sind. Die Abläufe wurden bewusst einfach gehalten, um das Hinzufügen neuer Verteilungsprotokolle und funktionaler Layers unkompliziert zu gestalten.

F: Wie zuverlässig ist Amazon S3?

Über Amazon S3 erhalten Entwickler Zugriff auf dieselbe hochgradig skalierbare, zuverlässige, schnelle und kostengünstige Speicherinfrastruktur, mit der Amazon sein eigenes globales Website-Netzwerk betreibt. S3 Standard wurde für eine Verfügbarkeit von 99,99 %, Standard-IA wurde für eine Verfügbarkeit von 99,9 % konzipiert. Beide Systeme werden durch das Amazon S3-Service Level Agreement gestützt.

F: Welches Datenkonsistenzmodell wendet Amazon S3 an?

Amazon S3 Buckets in allen Regionen bieten Read-after-Write-Konsistenz für PUTS neuer Objekte sowie abschließende Konsistenz für das Überschreiben von PUTS und DELETES.

Weitere Informationen

F: Was passiert, wenn plötzlich Spitzen im Datenverkehr der Anwendung auftreten?

Amazon S3 wurde von Grund auf für den Umgang mit dem Datenverkehr jeder beliebigen Internetanwendung entwickelt. Durch leistungsbasierte Zahlung und eine unbegrenzte Kapazität wird sichergestellt, dass sich Ihre Grenzkosten nicht ändern und Sie Ihren Service unterbrechungsfrei anbieten können. Die Skalierung von Amazon S3 ermöglicht die gleichmäßige Verteilung der Last, damit Datenverkehrsspitzen nicht nur einzelne Anwendungen betreffen.

F: Was ist das BitTorrent™-Protokoll und wie wende ich es mit Amazon S3 an?

BitTorrent ist ein frei zugängliches Internet-Verteilungsprotokoll. Die Bandbreiten-Gebühren von Amazon S3 sind gering. BitTorrent ermöglicht es Entwicklern, noch mehr zu sparen: Beliebte Daten können durch mehrere Nutzer gleichzeitig von Amazon heruntergeladen werden. Alle öffentlich zugänglichen Daten in Amazon S3 können zusätzlich zum Standard-Client/Server-Liefermechanismus über das BitTorrent-Protokoll heruntergeladen werden. Fügen Sie dazu einfach den Parameter "?torrent" am Ende Ihrer GET-Anforderung in der REST-API hinzu.

F: Umfasst Amazon S3 ein Service Level Agreement (SLA)?

Ja. Sollte in einem Abrechnungszeitraum Ihre monatliche Betriebszeit kürzer sein, als im SLA (Service Level Agreement) zugesagt, erhalten Sie von Amazon S3 eine Service-Gutschrift.

F: Wie kann ich die Anzahl der Amazon S3 Buckets erhöhen, die ich bereitstellen kann?

Standardmäßig können Kunden bis zu 100 Buckets pro AWS-Konto bereitstellen. Wie Sie die begrenzte Anzahl Ihrer Amazon S3 Buckets erhöhen können, lesen Sie in AWS Service Limits.


F: Wo werden meine Daten gespeichert?

Bei der Erstellung Ihres Amazon S3-Buckets legen Sie eine Region fest. In dieser Region werden Ihre Objekte redundant auf mehreren Geräten sowie auf mehrere Standorte verteilt gespeichert. Weitere Informationen über die Verfügbarkeit von Amazon S3-Services nach Regionen finden Sie unter Regionale Produkte und Services..

F: Wie entscheide ich, in welcher Region meine Daten gespeichert werden sollen?

Es sind verschiedene Faktoren zu berücksichtigen, die von der betreffenden Anwendung abhängen. So möchten Sie Ihre Daten möglicherweise in einer Region speichern, die ...

  • ... sich in der Nähe Ihrer Kunden, Ihrer Rechenzentren oder Ihrer sonstigen AWS-Ressourcen befindet, sodass Verzögerungszeiten beim Datenzugriff reduziert werden.
  • ... sich aus Gründen der geografischen Redundanz und für Disaster Recovery-Zwecke nicht in der Nähe Ihrer sonstigen Tätigkeiten befindet.
  • ... Ihnen die Einhaltung bestimmter rechtlicher und regulatorischer Anforderungen ermöglicht.
  • ... Ihnen die Reduzierung der Speicherkosten ermöglicht. Um Geld zu sparen, können Sie eine Region mit einem niedrigeren Preisniveau wählen. S3-Preisinformationen finden Sie auf der Seite Preise von S3.

F: Kann ich Amazon S3 außerhalb der USA oder der EU nutzen?

Sie können Amazon S3 unabhängig von Ihrem Standort verwenden. Sie müssen nur festlegen, in welchen AWS-Region(en) Ihre Amazon S3-Daten gespeichert werden sollen.

F: Gab es da nicht auch eine „Region USA Standard“?

Die „Region USA Standard“ wurde aus Gründen der Einheitlichkeit mit den regionalen AWS-Namenskonventionen in „Region USA Osten (Nord- Virginia)“ umbenannt. Der Endpunkt wird nicht verändert und Sie müssen keine Änderungen an Ihrer Anwendung vornehmen.


F: Wie viel kostet Amazon S3?

Mit Amazon S3 zahlen Sie nur das, was Sie tatsächlich nutzen. Es gibt keine Mindestgebühr. Sie können Ihre voraussichtliche Monatsrechnung mit AWS Einfacher Monatsrechner kalkulieren.

In Regionen, in denen uns niedrigere Kosten entstehen, erheben wir auch niedrigere Gebühren. Einige Preise variieren je nach Amazon-S3-Region, basierend auf dem Standort Ihres Buckets. Für Daten, die innerhalb einer Amazon S3-Region über eine COPY-Anforderung übertragen werden, fallen keine Datenübertragungsgebühren an. Für Daten, die über die Anforderung COPY zwischen Regionen übertragen werden, fallen Gebühren entsprechend dem Abschnitt mit den Preisen auf der Amazon S3-Detailseite an. Für Daten, die zwischen Amazon EC2 und Amazon S3 innerhalb derselben Region übertragen werden, oder für Daten, die zwischen den Amazon-Regionen EC2 Nord-Virginia und S3 USA Standard übertragen werden, fallen keine Gebühren an. Für Daten, die zwischen Amazon EC2 und Amazon S3 in allen anderen Regionen übertragen werden (z. B. zwischen der Amazon EC2-Region Nordkalifornien und der Amazon S3-Region USA Osten (Nord-Virginia)), fallen Gebühren entsprechend dem Abschnitt mit den Preisen auf der Amazon S3-Detailseite an.

Informationen zu den Preisen von finden Sie auf der Seite mit den Preisen von Amazon S3.

F: Warum unterscheiden sich die Preise je nach ausgewählter Amazon S3-Region?

In Regionen, in denen uns niedrigere Kosten entstehen, erheben wir auch niedrigere Gebühren. Beispielsweise sind unsere Kosten in der Region USA Ost (Nord-Virginia) niedriger als in der Region USA West (Nordkalifornien).

F: Wie wird mir Amazon S3 in Rechnung gestellt?

Sie können mit der Verwendung dieses Service beginnen, ohne dass Ihnen Einrichtungsgebühren oder sonstige Verpflichtungen entstehen. Nach Ende eines Monats wird Ihre Kreditkarte automatisch mit den Nutzungsgebühren für den betreffenden Monat belastet. Sie können sich die Gebühren für den aktuellen Abrechnungszeitraum jederzeit auf der Amazon Web Services-Website anzeigen lassen. Melden Sie sich hierzu bei Ihrem Amazon Web Services-Konto an und klicken Sie unter "Ihr Web-Services-Konto" auf "Konto-Aktivitäten".

Mit dem kostenlosen Nutzungskontingent für AWS* können Sie Amazon S3 in allen Regionen außer der AWS GovCloud Region kostenlos nutzen. Bei der Anmeldung erhalten neue AWS-Kunden ein Jahr lang monatlich 5 GB Amazon S3-Standard-Speicherplatz, 20.000 GET-Anforderungen, 2.000 PUT-Anforderungen sowie 15 GB Datenübertragung eingehend und 15 GB Datenübertragung ausgehend.

Amazon S3 rechnet für folgende Verwendungsarten Gebühren ab. Beachten Sie, dass in den folgenden Berechnungen davon ausgegangen wird, dass keine kostenlosen AWS-Kontingente vorliegen.

Verwendeter Speicher:

Die Preisgestaltung des Amazon S3-Speichers ist in der Preistabelle von Amazon S3 aufgeführt.

Bei der Anzahl des in einem Monat abgerechneten Speicherplatzes handelt es sich um die durchschnittliche, im Laufe des Monats verwendete Speichermenge. Darin enthalten sind alle Objektdaten sowie Metadaten, die in den Buckets Ihres AWS-Kontos gespeichert werden. Die gemessenen "TimedStorage-ByteHrs" werden am Monatsende summiert, um Ihre monatliche Gebühr zu ermitteln.

Speicherbeispiel:
Sie speichern in den ersten 15 Tagen im März 100 GB (107 374 182 400 Bytes) Amazon S3-Standardspeicherdaten in Ihrem Bucket und in den letzten 16 Tagen im März 100 TB (109 951 162 777 600 Bytes) Amazon S3-Standardspeicherdaten.

Ende März werden folgende Byte-Stunden errechnet:
Gesamtzahl verwendeter Byte-Stunden
= [107.374.182.400 Bytes x 15 Tage x (24 Stunden/Tag)] + [109.951.162.777.600 Bytes x 16 Tage x (24 Stunden/Tag)] = 42.259.901.212.262.400 Byte-Stunden

Umgerechnet in GB-Monate ergibt dies:
42 259 901 212 262 00 Byte-Stunden/1 073 741 824 Byte pro GB/744 Stunden pro Monat = 52 900 GB-Monate

Dieses Verwendungsvolumen erstreckt sich auf drei verschiedene Volumenstufen. Der monatliche Speicherpreis ist im Folgenden aufgeführt. Dabei wird angenommen, dass die Daten in der Region USA Osten (Nord-Virigina) gespeichert werden.
Stufe "1 TB": 1024 GB x 0,0300 USD = 30,72 USD
Stufe "1 TB bis 50 TB": 50 176 GB (49×1 024) x 0,0295 USD = 1480,19 USD
Stufe "50 TB bis 450 TB": 1700 GB (Rest) x 0,0290 USD = 49,30 USD

Gesamtspeichergebühr = 30,72 USD + 1480,19 USD + 49,30 USD = 1560,21 USD

Übertragene eingehende Netzwerkdaten:

Die Preisgestaltung der Amazon S3-Datenübertragung ist in der Preistabelle von Amazon S3 aufgeführt.

Dies gilt für an Ihre Amazon S3-Buckets gesendete Daten. Die Datenübertragung kostet 0,00 USD pro GB für Buckets in den Regionen USA Osten (Nord-Virigina), USA West (Oregon) USA West (Nordkalifornien), EU (Irland), EU (Frankfurt), Asien-Pazifik (Singapur), Asien-Pazifik (Tokio), Asien-Pazifik (Sydney), Südamerika (São Paulo) und AWS GovCloud (US).

Übertragene ausgehende Netzwerkdaten:

Die Preisgestaltung für aus Amazon S3 übertragene Daten ist in der Preistabelle von Amazon S3 aufgeführt. Bei Amazon S3 fällt diese Gebühr an, wenn Daten in Ihren Buckets an einem Standort außerhalb der angegebenen Amazon S3-Region gelesen werden.

Gebührenstufen für ausgehende Datenübertragungen umfassen Ihre gesammelten ausgehenden Datenübertragungen aus einer bestimmten Region in das Internet für Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS und Amazon VPC. Diese Gebührenstufen gelten nicht für ausgehende Datenübertragungen aus Amazon S3 in einer AWS-Region in eine andere AWS-Region.

Beispiel für die ausgehende Datenübertragung:
Angenommen, Sie befinden sich in der Region USA Osten (Nord-Virigina) und übertragen in einem Monat mit 31 Tagen täglich 1 TB Daten aus Amazon S3 in das Internet. Weiter soll angenommen werden, dass Sie in derselben Region aus einer Amazon EC2-Instance im selben Monat mit 31 Tagen täglich 1 TB Daten in das Internet übertragen.

Ihre gesammelte Datenübertragung beträgt dann 62 TB (31 TB von Amazon S3 und 31 TB von Amazon EC2). Dies entspricht 63.488 GB (62 TB * 1.024 GB/TB).

Dieses Verwendungsvolumen erstreckt sich auf drei verschiedene Volumenstufen. Die monatliche Gebühr für ausgehende Datenübertragung ist im Folgenden aufgeführt. Dabei wird davon ausgegangen, dass die Datenübertragung in der Region USA Osten (Nord-Virigina) stattfindet.
Stufe "10 TB": 10 239 GB (10 × 1 024 GB/TB) x 0,09 USD – 1 (kostenlos) = 921,51 USD
Stufe 10 TB bis 50 TB: 40 960 GB (40×1 024) x 0,085 USD = 3 481,60 USD
Stufe 50 TB bis 150 TB: 12 288 GB (Rest) x 0,070 USD = 860,16 USD

Gesamtsumme: = 921,51 USD + 3 481,60 USD + 860,16 USD = 5 263,27 USD

Datenanforderungen:

Die Preisgestaltung der Amazon S3-Anforderungen ist in der Preistabelle von Amazon S3 aufgeführt.

Anforderungsbeispiel:
Nehmen wir an, Sie übertragen im Monat März täglich 10.000 Daten in Amazon S3 und 20.000 aus Amazon S3. Am 31. März löschen Sie 5 000 Dateien.
PUT-Anforderungen gesamt = 10.000 Anforderungen x 31 Tage = 310.000 Anforderungen
GET-Anforderungen gesamt = 20.000 Anforderungen x 31 Tage = 620.000 Anforderungen
DELETE-Anforderungen gesamt = 5.000 x 1 Tag = 5.000 Anforderungen

Die Gebühren für Anforderungen sind im Folgenden aufgeführt. Dabei wird davon ausgegangen, dass sich Ihr Bucket in der USA Osten (Nord-Virigina) befindet.
310 000 PUT-Anforderungen: 310 000 Anforderungen x 0,005 USD/1 000 = 1,55 USD
620 000 GET-Anforderungen: 620 000 Anforderungen x 0,004 USD/10 000 Anforderungen = 0,25 USD
5 000 DELETE-Anforderungen = 5 000 Anforderungen x 0,00 USD (keine Gebühr) = 0,00 USD

Datenabrufe:

Die Preise für die Amazon S3-Datenabrufe gelten für die Speicherklasse Standard – Infrequent Access (Standard-IA). Sie sind auf der Seite Amazon S3-Preisdiagramm zusammengefasst.

Beispiel für Datenabrufe:
Angenommen, Sie rufen in einem Monat 300 GB aus Standard-IA ab. Davon gehen 100 GB ins Internet, 100 GB zu EC2 in derselben AWS-Region und 100 GB zu CloudFront in derselben AWS-Region.

Ihre Datenabrufkosten für diesen Monat werden folgendermaßen berechnet: 300 GB x 0,01 USD/GB = 3,00 USD. Beachten Sie, dass Sie für den Anteil, der ins Internet geht, Gebühren für die Übertragung der Netzwerkdaten bezahlen müssten.

Hier finden Sie Details dazu, wie in Amazon Glacier archivierte Objekte berechnet werden.

* * Ihre Nutzung des kostenlosen Kontingents wird jeden Monat für alle Regionen außer der AWS GovCloud-Region berechnet und automatisch auf die Rechnung angewandt. Unverwendete monatliche Nutzung wird nicht prolongiert. Eventuell geltende Einschränkungen finden Sie in den Angebotsbedingungen.

F: Wie wird der Zugriff auf Amazon S3 über die AWS Management Console in Rechnung gestellt?

Beim Zugriff auf den Service über die AWS Management Console gelten die normalen Preise für Amazon S3. Für eine verbesserte Benutzerfreundlichkeit kann die AWS Management Console Anforderungen proaktiv ausführen. Einige interaktive Vorgänge führen ebenfalls zur Ausgabe mehrerer Anforderungen an den Service.

F: Sind Steuern bereits in den Preisen enthalten?

Falls nicht anders angegeben, gelten unsere Preise zuzüglich geltender Steuern und Abgaben, darunter MwSt. und Umsatzsteuer. Bei Kunden mit japanischer Rechungsadresse unterliegt die Nutzung der Region Asien-Pazifik (Tokio) der japanischen Verbrauchssteuer. Weitere Informationen.


F: Wie sicher sind meine Daten?

Amazon S3 ist standardmäßig sicher. Generell haben nur die Bucket- und Objekt-Besitzer Zugang zu ihren selbst erstellen Amazon-S3-Ressourcen. Amazon S3 unterstützt Funktionen zur Benutzerauthentifizierung, um den Zugriff auf die Daten zu kontrollieren. Sie haben Zugriff auf die Kontrollmechanismen wie die Bucket-Richtlinien und Zugriffskontrolllisten (ACLs), um bestimmten Benutzern und Benutzergruppen selektiv Zugriffsrechte zu erteilen. Über SSL-Endpunkte, die das HTTPS-Protokoll verwenden können Sie sicher Ihre Daten in Amazon S3 hoch- bzw. herunterladen. Falls Sie zusätzliche Sicherheit benötigen, können Sie die Option Server Side Encryption (SSE) oder die Option Server Side Encryption mit Customer-Provided Keys (SSE-C) zur Datenverschlüssung während der Speicherung benutzen. Amazon S3 stellt die Verschlüsselungstechnologie sowohl für SSE als auch für SSE-C zur Verfügung. Alternativ können Sie auch Ihre eigenen Verschlüsselungsbibliotheken zum Verschlüsseln von Daten verwenden, bevor sie auf Amazon S3 gespeichert werden.

F: Wie kann ich den Zugriff auf meine über Amazon S3 gespeicherten Daten kontrollieren?

Den Kunden stehen drei Mechanismen zur Kontrolle des Zugriffs auf Amazon S3-Ressourcen zur Verfügung: Bucket-Richtlinien, Zugriffskontrolllisten (Access Control Lists, ACLs) und die Abfrage-String-Authentifizierung. IAM ermöglicht es Unternehmen mit großen Mitarbeiterzahlen, eine Vielzahl an Benutzern in einem einzelnen AWS-Konto zu erstellen und zu verwalten. Mit IAM-Richtlinien können Unternehmen IAM-Benutzern umfangreiche Kontrollfunktionen für den Zugriff auf ihren Amazon-S3-Bucket oder Amazon-S3-Objekte bieten, und verfügen gleichzeitig über die vollständige Kontrolle über sämtliche Aktionen, die die Benutzer durchführen. Bei Bucket-Richtlinien definieren Unternehmen Regeln, die umfassend für alle Anforderungen an ihre Amazon S3-Ressourcen angewandt werden. So kann beispielsweise festgelegt werden, dass für ein Subset von Amazon S3-Ressourcen Schreibberechtigungen gewährt werden. Kunden können den Zugriff auch basierend auf bestimmten Aspekten der Anforderung, z. B. HTTP-Referrer und IP-Adresse, einschränken. Mit ACLs können Kunden spezifische Genehmigungen (d. h. READ (Lesen), WRITE (Schreiben), und FULL_CONTROL (volle Kontrolle)) für bestimmte Nutzer und einzelne Buckets oder Objekte festlegen. Bei der Authentifizierung von Abfragezeichenfolgen haben Kunden die Möglichkeit, eine URL zu einem Amazon S3-Objekt zu erstellen, die nur für einen begrenzten Zeitraum gültig ist. Nähere Informationen zu den unterschiedlichen Kontrollrichtlinien in Amazon S3 finden Sie im Amazon S3 Developer Guide unter Access Control.

F: Unterstützt Amazon S3 Funktionen zur Datenzugriffsprüfung?

Ja, Kunden können optional Amazon-S3-Buckets konfigurieren, um Zugriffsprotokolle für sämtliche Zugriffe zu erstellen. Diese Zugriffsprotokolle können für die Durchführung von Audits verwendet werden und enthalten Details zu den jeweiligen Datenabrufen, wie beispielsweise die Art des Abrufs, die bei dem Abruf verwendeten Dateien oder die das Datum und die Uhrzeit des Abrufs.

F: Welche Möglichkeiten der Datenverschlüsselung stehen mir in Amazon S3 zur Verfügung?

Sie können die Verschlüsselung von Daten mit SSE-S3, SSE-C, SSE-KMS oder einer Client-Bibliothek wie beispielsweise Amazon S3 Encryption Client wählen. Mit allen vier Möglichkeiten können Sie vertrauliche Daten während der Speicherung auf Amazon S3 verschlüsseln.

SSE-S3 bietet eine integrierte Lösung, wobei Amazon wichtige Aspekte von Management und Schutz übernimmt und mehrere Sicherheitsebenen verwendet. Wenn Sie möchten, dass sich Amazon um die Verwaltung Ihrer Schlüssel kümmert, sollten Sie SSE-S3 auswählen.

SSE-C ermöglicht Ihnen, Amazon S3 beim Verschlüsseln und Entschlüsseln Ihrer Objekte zu nutzen und gleichzeitig die Kontrolle über die Verschlüsselungscodes zu behalten. Mit SSE-C brauchen Sie keine clientseitige Bibliothek zu implementieren oder zu verwenden, um die Verschlüsselung und Entschlüsselung von Objekten durchzuführen, die Sie auf Amazon S3 speichern. Sie müssen aber die Schlüssel verwalten, die Sie an Amazon S3 senden, um Objekte zu ver- und entschlüsseln. Verwenden Sie SSE-C, wenn Sie Ihre eigenen Verschlüsselungscodes verwalten möchten, aber keine clientseitige Verschlüsselungsbibliothek implementieren oder nutzen möchten.

SSE-KMS ermöglicht Ihnen die Verwendung von AWS Key Management Service (AWS KMS) zum Verwalten Ihrer Verschlüsselungsschlüssel. Die Verwendung von AWS KMS zum Verwalten Ihrer Schlüssel bietet mehrere zusätzliche Vorteile. Mit AWS KMS gibt es separate Berechtigungen für die Verwendung des Masterschlüssels. Dies bietet sowohl eine zusätzliche Kontrollebene als auch Schutz gegen nicht autorisierten Zugriff auf die in Amazon S3 gespeicherten Objekte. AWS KMS bietet einen Audit-Trail, sodass Sie sehen können, wer Ihren Schlüssel wann benutzt hat, um auf welches Objekt zuzugreifen, und welche fehlgeschlagenen Versuche es von Benutzern ohne Berechtigung gab, die Daten zu entschlüsseln. Außerdem bietet AWS KMS zusätzliche Sicherheitskontrollen zur Unterstützung der Kunden beim Einhalten der Branchenanforderungen PCI-DSS, HIPAA/HITECH und FedRAMP.

Durch die Verwendung einer Client-Bibliothek für die Verschlüsselung wie beispielsweise Amazon S3 Encryption Client behalten Sie die Kontrolle über die Schlüssel und führen Verschlüsselung und Entschlüsselung von Objekten clientseitig mit einer Verschlüsselungsbibliothek Ihrer Wahl durch. Manche Kunden möchten die vollständige Kontrolle über die Verschlüsselung und Entschlüsselung von Objekten behalten. In diesem Fall werden nur verschlüsselte Objekte über das Internet zu Amazon S3 gesendet. Verwenden Sie eine clientseitige Bibliothek, wenn Sie die Kontrolle über Ihre Verschlüsselungscodes behalten wollen, eine clientseitige Verschlüsselungsbibliothek implementieren oder verwenden können und Ihre Objekte verschlüsseln müssen, bevor sie zur Speicherung zu Amazon S3 gesendet werden.

Nähere Informationen zur Verwendung der Verschlüsselung mit Amazon S3 SSE-S3, SSE-C oder SSE-KMS finden Sie im Amazon-S3-Entwicklerhandbuch unter Verwenden der Datenverschlüsselung.

F: Wie schützt Amazon SSE-Verschlüsselungsschlüssel?

Mit SSE wird jedes geschützte Objekt mit einem separaten Schlüssel verschlüsselt. Dieser Objektschlüssel ist wiederum durch einen separaten Masterschlüssel verschlüsselt. Einen neuen Masterschlüssel wird mindestens einmal pro Monat ausgegeben. Verschlüsselte Daten, Verschlüsselungsschlüssel und Masterschlüssel sind in separaten Hosts gespeichert, um eine vielschichtige Sicherung zu gewährleisten.

F: Kann ich bei Nutzung von Amazon S3 die Datenschutzbestimmungen der EU einhalten?

Kunden haben die Wahl, sämtliche Daten in der EU zu speichern, indem sie die Region EU (Irland) oder EU (Frankfurt) wählen. Dennoch liegt es in Ihrer Verantwortung sicherzustellen, dass Sie die Datenschutzbestimmungen der EU einhalten.

F: Wo erhalte ich weitere Informationen zur Sicherheit von AWS?

Weitere Informationen zur Sicherheit von AWS finden Sie in dem Dokument Amazon Web Services: Sicherheitsprozesse im Überblick.

F: Was ist ein Amazon VPC-Endpunkt für Amazon S3?

Ein Amazon VPC-Endpunkt für Amazon S3 ist eine logische Entität innerhalb einer VPC, die eine Verbindung nur zu S3 zulässt. Der VPC-Endpunkt leitet Anfragen an S3 und Antworten zurück an die VPC. Weitere Informationen zu VPC-Endpunkten finden Sie unter Using VPC Endpoints.

F: Kann ich einem bestimmten Amazon VPC-Endpunkt Zugriff auf meinen Amazon S3-Bucket gewähren?

Sie können den Zugriff auf Ihren Bucket von einem bestimmten Amazon VPC-Endpunkt oder eine Gruppe von Endpunkten aus mithilfe von Amazon S3-Bucket-Richtlinien begrenzen. S3-Bucket-Richtlinien unterstützen nun die Bedingung aws:sourceVpce, mit der Sie den Zugriff beschränken können. Weitere Details und Beispielrichtlinien finden Sie unter Using VPC Endpoints.




F: Wie zuverlässig ist Amazon S3?

Amazon S3 Standard und Standard-IA wurden auf eine Objektlebensdauer von 99,999999999 % in einem bestimmten Jahr konzipiert. Diese Zuverlässigkeitsstufe entspricht einem jährlich zu erwartenden Objektverlust von 0,000000001 %. Wenn Sie beispielsweise 10.000 Objekte mit Amazon S3 speichern, können Sie davon ausgehen, dass im Durchschnitt alle 10.000.000 Jahre ein einziges Objekt verloren geht. Darüber hinaus wurde Amazon S3 so entwickelt, dass ein gleichzeitiger Datenverlust in zwei Anlagen ausgeschlossen ist.

Wie bei allen Umgebungen besteht die bewährte Methode darin, eine Sicherung anzulegen und Sicherheitsvorkehrungen gegen bösartige oder versehentliche Benutzerfehler zu treffen. Für S3-Daten umfasst die bewährte Methode sichere Zugriffsberechtigungen, regionsübergreifende Replikation, Versioning und eine funktionierende, regelmäßig getestete Sicherung.

F: Wie erreicht Amazon S3 eine Zuverlässigkeit von 99,999999999 %?

Amazon S3 Standard und Standard-IA führen für Ihre Objekte auf mehreren Geräten an mehreren Standorten einer Amazon S3-Region eine redundante Speicherung durch. Dieser Service ist konzipiert, um gleichzeitige Geräteausfälle durch schnelles Erfassen und Instandsetzen verlorener Redundanz zu überstehen. Wenn eine Anforderung zum Speichern von Daten verarbeitet wird, speichert der Dienst Ihr Objekt redundant an mehreren Standorten, bevor SUCCESS gemeldet wird. Amazon S3 überprüft auch regelmäßig die Integrität der Daten anhand von Prüfsummen.

F: Welche Prüfsummen wendet Amazon S3 an, um Datenkorruption festzustellen?

Amazon S3 verwendet eine Kombination von Content-MD5-Prüfsummen und zyklischer Redundanzprüfungen (CRCs) zum Entdecken von Datenkorruption. Amazon S3 führt diese Prüfsummen auf Daten im Ruhemodus aus und behebt alle Verfälschungen mittels redundanter Daten. Darüber hinaus berechnet der Dienst Prüfsummen des gesamten Netzwerkverkehrs, um beschädigte Datenpakete beim Speichern oder Empfangen von Daten festzustellen.

F: Was ist Versioning?

Versioning ermöglicht Ihnen, sämtliche Versionen aller in einem Amazon S3 Bucket gespeicherten Objekte zu speichern, abzurufen oder wiederherzustellen. Nachdem Versioning für ein Bucket aktiviert wurde, speichert Amazon S3 existierende Objekte jedes Mal, wenn Sie einen PUT-, POST-, COPY- oder DELETE-Vorgang an Ihnen durchführen. Standardmäßig rufen GET-Anforderungen die zuletzt geschriebene Version ab. Ältere Versionen eines überschriebenen oder gelöschten Objekts können wiederhergestellt werden, wenn die gewünschte Version in der Anforderung spezifiziert wird.

F: Weshalb sollte ich Versioning verwenden?

Amazon S3 bietet dem Kunden eine Speicherinfrastruktur mit hoher Beständigkeit. Versioning stellt eine zusätzliche Sicherheitsstufe bereit, da der Kunde versehentlich überschriebene oder gelöschte Objekte wiederherstellen kann. Auf diese Weise ist die Wiederherstellung nach unbeabsichtigten Nutzeraktionen oder Anwendungsausfällen problemlos möglich. Sie können Versioning auch zur Vorratsdatenspeicherung und Archivierung verwenden.

F: Was sind die ersten Schritte zur Verwendung von Versioning?

Als ersten Schritt zur Verwendung von Versioning können Sie eine Einstellung an Ihrem Amazon S3-Bucket ändern. Weitere Informationen zum Aktivieren des Versionings finden Sie in der technischen Dokumentation zu Amazon S3.

F: Wie schützt mich Versioning vor zufälliger Löschung meiner Objekte?

Wenn ein Benutzer einen DELETE-Vorgang für ein Objekt ausführt, können darauffolgende Standardanforderungen (ohne Versionen) das Objekt nicht mehr abrufen. Alle Versionen dieses Objekts sind jedoch weiter in Ihrem Amazon S3-Bucket gespeichert und können abgerufen oder wiederhergestellt werden. Nur der Eigentümer eines Amazon S3-Buckets kann eine Version permanent löschen. Sie können Lebenszyklusregeln festlegen, um die Lebensdauer und Kosten der Speicherung mehrerer Versionen Ihrer Objekte im Griff zu behalten.

F: Kann ich einen Papierkorb oder ein Rollback-Zeitfenster für meine Amazon S3-Objekte einrichten, um nach Lösch- oder Überschreibungsvorgängen eine Wiederherstellung zu ermöglichen?

Mithilfe von Lebenszyklusregeln und Versioning können Sie ein Rollback-Zeitfenster für Ihre Amazon S3-Objekte implementieren. Für Ihren Bucket mit aktivierte Versioning können Sie beispielsweise eine Regel festlegen, gemäß der alle vorherigen Versionen im kostengünstigeren Glacier-Speicher archiviert und alle 100 Tage gelöscht werden. Dadurch erhalten Sie bei günstigeren Speicherkosten ein Zeitfenster von 100 Tagen, um Änderungen an Ihren Daten rückgängig zu machen.

F: Wie kann ich den optimalen Schutz meiner gespeicherten Versionen gewährleisten?

Die MFA-Delete-Fähigkeit von Versioning, die Multifaktor-Authentifizierung verwendet, kann als zusätzliche Sicherheitsstufe eingesetzt werden. Standardmäßig benötigen Sie für alle Anforderungen an Ihren Amazon S3 Bucket Ihre Zugangsdaten für das AWS-Konto. Wenn Sie Versioning mit MFA Delete für Ihren Amazon S3 Bucket aktivieren, benötigen Sie zwei Formen der Authentifizierung, um eine Version eines Objekts dauerhaft zu löschen: Ihre AWS-Zugangsdaten und einen gültigen sechsstelligen Code sowie eine Seriennummer von einem Authentifizierungsgerät, das sich in Ihrem physischen Besitz befindet. Nähere Informationen zum Versioning mit MFA Delete, beispielsweise wie ein Authentifizierungsgerät erworben und aktiviert wird, finden Sie in der technischen Dokumentation zu Amazon S3 .

F: Wie wird mir die Nutzung von Versioning in Rechnung gestellt?

 Normale Amazon S3 Tarife fallen für jede Version eines gespeicherten oder angeforderten Objekts an. Betrachten wir beispielsweise das folgende Szenario, um die Speicherkosten bei der Nutzung von Versioning zu veranschaulichen (unter der Annahme, dass der aktuelle Monat 31 Tage hat).

1) Tag 1 des Monats: Sie führen eine PUT-Anforderung von 4 GB (4.294.967.296 Bytes) für Ihren Bucket aus.
2.) Tag 16 des Monats: Sie führen eine PUT-Anfrage von 5 GB (5 368 709 120 Bytes) innerhalb desselben Buckets aus und verwenden denselben Schlüssel wie bei der ursprünglichen PUT-Anfrage an Tag 1.

Bei der Analyse der Speicherkosten der obigen Vorgänge beachten Sie bitte, dass das 4-GB-Objekt von Tag 1 nicht aus dem Bucket gelöscht wird, wenn das 5-GB-Objekt am Tag 15 geschrieben wird. Das 4-GB-Objekt wird hingegen als ältere Version gespeichert und das 5-GB-Objekt wird zur zuletzt geschriebenen Version des Objekts in Ihrem Bucket. Am Ende des Monats:

Gesamtzahl verwendeter Byte-Stunden
[4 294 967 296 Bytes x 31 Tage x (24 Stunden/Tag)] + [5 368 709 120 Bytes x 16 Tage x (24 Stunden/Tag)] = 5 257 039 970 304 Byte-Stunden


Umrechnung in Gesamtzahl GB-Monate:
5 257 039 970 304 Byte-Stunden x (1 GB/1 073 741 824 Bytes) x (1 Monat/744 Stunden) = 6 581 GB-Monate

Der Speicherpreis ist im Folgenden aufgeführt. Dabei wird angenommen, dass die Daten in der Region USA Osten (Nord-Virigina) gespeichert werden.
Stufe "0 bis 1 TB": 6,581 GB x 0,0300 USD = 0,20 USD



F: Was versteht man unter S3 Standard – Infrequent Access?

Amazon S3 Standard – Infrequent Access (Standard-IA) ist eine Amazon S3-Speicherklasse für Daten mit selteneren Zugriffen, die bei Bedarf jedoch schnellen Zugriff benötigen. Standard-IA bietet die hohe Lebensdauer, den hohen Durchsatz und die geringen Latenzzeiten von Amazon S3 Standard zu einem günstigen Speicher- und Abrufpreis pro GB. Diese Kombination aus niedrigen Kosten und hoher Leistung machen Standard-IA zur idealen Lösung für langfristige Speicherung, Sicherung und Notfallwiederherstellungen. Die Speicherklasse Standard-IA wird auf der Objektebene eingestellt und kann im selben Bucket wie die Speicherklasse Standard verbleiben, so dass Sie Lebenszyklusrichtlinien für die automatische Objektübertragung zwischen Speicherklassen verwenden können, ohne die Anwendung zu ändern.

F: Welche Argumente sprechen für eine Nutzung von Standard-IA?

Standard-IA ist die ideale Speicherlösung für Daten mit selteneren Zugriffen, die bei Bedarf jedoch schnellen Zugriff benötigen. Standard-IA eignet sich optimal für die Speicherung von Langzeitdaten, älteren synchronisierten und geteilten Daten, Sicherungsdaten und Daten aus der Notfallwiederherstellung.

F: Welche Leistung bietet S3 Standard – Infrequent Access?

S3 Standard – Infrequent Access bietet dieselbe Leistung wie die Speicherklasse S3 Standard.

F: Wie dauerhaft ist Standard-IA?

S3 Standard-IA wurde für dieselbe Lebensdauer von 99,999999999 % konzipiert wie S3 Standard und Amazon Glacier. Standard-IA wurde für eine Verfügbarkeit von 99,9 % entwickelt und umfasst ein Service Level Agreement mit Service-Gutschriften, sollte die Verfügbarkeit in einem beliebigen Abrechnungszeitraum geringer ausfallen, als von uns zugesagt.

F: Wie verfügbar ist Standard-IA?

Standard-IA wurde mit einem schlankeren Front-End, das im Vergleich zu S3 Standard eine um ein Hundertstel eines Prozents geringere Verfügbarkeit bietet, für eine Verfügbarkeit von 99,9 % entwickelt. Das bedeutet, dass die Wahrscheinlichkeit, dass eine Anforderung fehlschlägt oder entfernt werden muss, im Vergleich zu S3 Standard geringfügig größer ist. Standard-IA umfasst ein Service Level Agreement mit Service-Gutschriften, sollte die Verfügbarkeit in einem beliebigen Abrechnungszeitraum geringer ausfallen, als von uns zugesagt.

F: Wie importiere ich Daten in Standard-IA?

Es gibt zwei Möglichkeiten, Daten in S3 in Standard-IA zu importieren. Den direkten Import in Standard-IA durch Eingabe von STANDARD_IA in den x-amz-storage-class-Kopf. Sie können außerdem Lebenszyklusrichtlinien festlegen, um Objekte von Standard in Standard-IA zu verschieben.

F: Sind meine Objekte in Standard-IA vom Service Level Agreement für Amazon S3 abgedeckt?

Ja, Standard-IA wird durch ein Amazon 3-Service Level Agreement gestützt und Kunden erhalten eine Service-Gutschrift, sollte die Verfügbarkeit in einem beliebigen Abrechnungszeitraum geringer ausfallen, als von uns zugesagt.

F: Welche Auswirkungen hat Standard-IA auf Latenzzeiten und den Datendurchsatz?

Sie können bei Standard-IA mit derselben Latenz- und Durchsatzleistung rechnen wie bei Amazon S3 Standard.

F: Wie wird die Nutzung von Standard-IA berechnet?

Allgemeine Informationen zu den Preisen von Standard-IA finden Sie auf der Seite Amazon S3-Preise.

F: Welche Gebühren werden mir berechnet, wenn ich die Speicherklasse eines Objekts von Standard-IA zu Standard mit einer Kopieranfrage ändere?

Ihnen werden Gebühren für eine Standard-IA-Kopieranfrage und einen Standard-IA-Datenabruf in Rechnung gestellt.

F: Gibt es eine Mindestdauer für Standard-IA?

Standard-IA wurde für Langzeitdaten mit selteneren Zugriffen konzipiert, die für Monate oder auch Jahre gespeichert werden. Für Daten, die innerhalb von 30 Tagen aus Standard-IA gelöscht werden, werden komplette 30 Tage berechnet. Weitere Informationen zu den Preisen von Standard-IA finden Sie auf der Seite Amazon S3-Preise.

F: Gibt es eine Mindestobjektgröße für Standard-IA?

Standard-IA ist für größere Objekte ausgelegt und sieht eine Mindestobjektgröße von 128 KB vor. Objekte, die kleiner als 128 KB sind, werden mit einer Größe von 128 KB berechnet. Beispiel: Für ein Objekt mit einer Größe von 6 KB werden in S3 Standard-IA 6 KB berechnet plus einer Gebühr für die Mindestobjektgröße, die 122 KB des Speicherpreises in S3 Standard-IA entspricht. Weitere Informationen zu den Preisen von Standard-IA finden Sie auf der Seite Amazon S3-Preise.

F: Kann ich Objekte aus Standard-IA in Amazon Glacier verschieben?

Ja. Sie können zusätzlich zu den Lebenszyklusrichtlinien, mit denen Objekte von Standard in Standard-IA migriert werden, weitere Lebenszyklusrichtlinien einrichten, mit denen Objekte von Standard-IA in Amazon Glacier verschoben werden.



F: Bietet Amazon S3 kostengünstigere Speicheroptionen zum Archivieren von Objekten?

Ja, Amazon S3 ermöglicht Ihnen die Nutzung des überaus kostengünstigen Speicherservice von Amazon Glacier als Speicherort für die Datenarchivierung.  Amazon Glacier speichert Daten für nur 0,004 USD pro Gigabyte und Monat. Amazon Glacier stellt drei Optionen für den Zugriff auf Archive bereit, die von wenigen Minuten bis zu mehreren Stunden dauern können, um die Kosten niedrig zu halten und dennoch variierende Abrufanforderungen zu erfüllen. Beispiele für Archivnutzungsfälle sind u. a. digitale Medienarchive, Finanz- und Patientenakten, unformatierte Daten genomischer Sequenzen, langfristige Datenbanksicherungen und Daten, deren Aufbewahrung vorgeschrieben ist.

F: Wie kann ich meine Daten mit der Amazon Glacier-Option speichern?

Sie können mithilfe der Lebenszyklusrichtlinie Gruppen von Amazon S3-Objekten basierend auf der Nutzungsdauer automatisch in Amazon Glacier archivieren. Archivierungsregeln können Sie mithilfe der Amazon S3 Management Console, der AWS SDKs oder Amazon S3-APIs festlegen. In den Regeln werden ein Präfix und ein Zeitraum angegeben. Das Präfix (z. B. "logs/") bestimmt die Objekte, die der Regel unterliegen. Der Zeitraum definiert entweder der Anzahl der Tage nach dem Erstellungsdatum von Objekten (z.  B. 180 Tage) oder das Datum, nach dem die Objekte archiviert werden sollen. Alle Objekte in Amazon S3 Standard oder Amazon S3 Standard-IA, deren Namen mit dem angegebenen Präfix beginnen und die den angegebenen Zeitraum überschritten haben, werden in Amazon Glacier archiviert. Zum Abrufen von in Amazon Glacier gespeicherten Amazon S3-Daten lösen Sie einen Abrufauftrag über die Amazon S3-APIs oder die Management Console aus. Nach Erledigung des Auftrags können Sie über eine Amazon S3-Objektanforderung vom Typ GET auf Ihre Daten zugreifen.

Weitere Informationen zu Lebenszyklusregeln für die Archivierung finden Sie im Thema Object Archival im Amazon S3 Developer Guide.

F: Kann ich Objekte, die in Amazon Glacier archiviert sind, mit den Amazon S3-APIs oder der Management Console auflisten?

Ja, wie bei den anderen Speicheroptionen von Amazon S3 (Standard oder Standard-IA) haben Objekte in Amazon Glacier, die über die Amazon S3-APIs oder Management Console gespeichert wurden, einen zugehörigen benutzerdefinierten Namen. Sie können über die Amazon S3-API LIST eine Liste aller Amazon S3-Objektnamen in Echtzeit abrufen, auch die Objekte, die mit der Amazon Glacier-Option gespeichert wurden.

F: Kann ich die Amazon Glacier-APIs für den Zugriff auf Objekte nutzen, die ich in Amazon Glacier archiviert habe?

Da Amazon S3 die Zuordnung zwischen Ihrem benutzerdefinierten Objektnamen und der Amazon Glacier-System-ID beibehält, kann auf Amazon S3-Objekte, die mit der Amazon Glacier-Option gespeichert wurden, nur über die Amazon S3-APIs oder Amazon S3 Management Console zugegriffen werden.

F: Wie kann ich meine in Amazon Glacier archivierten Objekte abrufen?

Lösen Sie zum Abrufen von in Amazon Glacier gespeicherten Amazon S3-Daten über die Amazon S3-APIs oder die Amazon S3 Management Console eine Abrufanforderung aus. Mit der Abrufanforderung wird eine temporäre Kopie Ihrer Daten in RRS erstellt, während die archivierten Daten in Amazon Glacier unverändert bleiben. Sie können die Anzahl der Tage angeben, die die temporäre Kopie in RRS gespeichert werden soll. Über das Anwenden einer Amazon S3-GET-Anforderung auf das archivierte Objekt können Sie anschließend auf Ihre temporäre Kopie in RRS zugreifen..

F: Wie lange dauert der Abruf meiner in Amazon Glacier archivierten Objekte?

Beim Verarbeiten eines Abrufauftrags ruft Amazon S3 zunächst die angeforderten Daten aus Amazon Glacier ab. Anschließend wird eine temporäre Kopie in RRS erstellt (was in der Regel nicht länger als ein paar Minuten dauert). Die Zugriffszeit Ihrer Anforderung hängt von der ausgewählten Abrufoption ab: "Expedited"-, "Standard"- oder "Bulk"-Abrufe. Für alle außer die größten Archive (ab 250 MB) stehen die Daten, auf die Sie über "Expedited"-Abrufe zugreifen, normalerweise innerhalb von 1 bis 5 Minuten zur Verfügung. "Standard"-Objektabrufe werden normalerweise innerhalb von 3 bis 5 Stunden abgeschlossen. "Bulk"-Abrufe werden normalerweise innerhalb von 5 bis 12 Stunden abgeschlossen. Weitere Informationen zu den Abrufoptionen finden Sie in den häufig gestellten Fragen zu Glacier.

F: Was kostet die Archivierung von Objekten in Amazon Glacier?

Amazon Glacier-Speicher kostet 0,004 USD pro Gigabyte und Monat. Lebenszyklus-Übergangsanforderungen an Amazon Glacier kosten 0,05 USD pro 1 000 Anforderungen. In Glacier archivierte Objekte werden mindestens 90 Tage gespeichert. Objekte, die vor 90 Tagen gelöscht werden, werden entsprechend den Speicherkosten für die verbliebenen Tage anteilig in Rechnung gestellt.

F: Wie werden die Speicherkosten für in Amazon Glacier archivierte Amazon S3-Objekte berechnet?

Der für einem Monat in Rechnung gestellte Speicherplatz basiert auf der durchschnittlichen, im Laufe des Monats genutzten Speicherkapazität, die in sog. Gigabyte-Monaten (GB-Monaten) gemessen wird. Amazon S3 berechnet die Objektgröße als gespeicherte Datenmenge plus 32 KB Glacier-Daten plus 8 KB S3-Standardspeicherdaten. Amazon Glacier benötigt zusätzlich 32 KB Daten pro Objekt für den Index und die Metadaten von Glacier, damit Sie Ihre Daten identifizieren und abrufen können. Amazon S3 benötigt 8 KB zum Speichern und Verwalten des benutzerdefinierten Namens und der Metadaten für in Amazon Glacier archivierte Objekte. Sie können über die Amazon S3-API LIST in Echtzeit eine Liste aller Amazon S3-Objektnamen erhalten, einschließlich der mithilfe der Amazon Glacier-Option gespeicherten Objekte. Wenn Sie beispielsweise 100 000 Objekte mit je 1 GB archiviert haben, wird Ihnen Speicher wie folgt in Rechnung gestellt:

1,000032 GB für jedes Objekt x 100 000 Objekte = 100 000,32 GB Amazon Glacier-Speicher.
0,000008 GB für jedes Objekt x 100 000 Objekte = 0,8 GB Amazon S3-Standardspeicher.

Bei einer einmonatigen Archivierung der Objekte in der Region Osten (Nord-Virginia) Standard würde Ihnen Folgendes in Rechnung gestellt:
(100 003,20 GB-Monate x 0,0040 USD) + (0,8 GB-Monate x 0,0300 USD) = 400,037 USD

F: Welche Datenmenge kann ich kostenlos abrufen?

Sie können pro Monat 10 GB Ihrer Amazon Glacier-Daten kostenlos abrufen. Sie können das kostenlose Kontingent, das für "Standard"-Abrufe gilt, jederzeit während des Monats verwenden.

F: Wie wird mir das Löschen von Objekten aus Amazon Glacier in Rechnung gestellt, die weniger als 3 Monate alt sind?

Amazon Glacier ist ausgelegt, um Daten Monate, Jahre oder Jahrzehnte zu speichern. Das Löschen von in Amazon Glacier archivierten Daten ist kostenlos, wenn die zu löschenden Objekte drei Monate oder länger in Amazon Glacier archiviert wurden. Wenn ein in Amazon Glacier archiviertes Objekt vorzeitig gelöscht oder überschrieben wird, fällt eine Gebühr für vorzeitiges Löschen an. Diese Gebühr wird tageweise umgelegt. Wenn Sie 1 GB Daten einen Monat nach dem Hochladen löschen, wird Ihnen eine Gebühr für vorzeitiges Löschen von 2 Monaten Amazon Glacier-Speicherung berechnet. Wenn Sie 1 GB Daten nach 2 Monaten löschen, wird Ihnen 1 Monat Amazon Glacier-Speicherung berechnet.

F: Was kostet das Abrufen von Daten aus Glacier?

Es gibt drei Möglichkeiten zum Abrufen von Daten aus Glacier, und bei jeder fallen unterschiedliche Abrufgebühren pro GB und pro Archiv an (das Abrufen eines Archivs zählt als eine Anforderung). "Expedited"-Abrufe kosten 0,03 USD pro GB und 0,01 USD pro Anforderung. "Standard"-Abrufe kosten 0,01 USD pro GB und 0,05 USD pro 1 000 Anforderungen. "Bulk"-Abrufe kosten 0,0025 USD pro GB und 0,025 USD pro 1 000 Anforderungen.

Wenn Sie beispielsweise "Expedited"-Abrufe verwenden und 10 Archive mit einer Größe von 1 GB pro Archiv anfordern, betragen die Kosten 10 x 0,03 USD +10 x 0,01 USD = 0,40 USD.

Wenn Sie "Standard"-Abrufe verwenden, um 500 Archive zu je 1 GB anzurufen, betragen die Kosten 500 GB x 0,01 USD + 500 x 0,05 USD/1 000 = 5,25 USD.

Wenn Sie schließlich "Bulk"-Abrufe verwenden und 500 Archive zu je 1 GB abrufen, betragen die Kosten 500 GB x 0,0025 USD + 500 x 0,025 USD/1 000 = 1 2625 USD.

Wird ein archiviertes Objekt abgerufen, befindet es sich in RRS und Glacier.

Eine Preisübersicht finden Sie auf der Seite der Glacier Preise.


F1: Was sind Amazon S3-Ereignisbenachrichtigungen?

Amazon S3-Ereignisbenachrichtigungen können als Reaktion auf Aktionen in Amazon S3 wie PUT, POST, COPY oder DELETE versendet werden. Benachrichtigungen können über Amazon SNS oder Amazon SQS versendet oder direkt an AWS Lambda gesendet werden.

F2: Was kann ich mit Amazon S3-Ereignisbenachrichtigungen tun?

Amazon S3-Ereignisbenachrichtigungen ermöglichen Ihnen das Auslösen von Workflows, das Versenden von Warnungen und andere Aktionen als Reaktion auf Änderungen Ihrer Objekte, die in Amazon S3 gespeichert sind.Mit Amazon S3-Ereignisbenachrichtigungen können Sie Auslöser für die Ausführung von Aktionen einrichten, zum Beispiel für die Transkodierung von Mediendateien beim Hochladen, die Verarbeitung von Datendateien, wenn diese verfügbar werden, und die Synchronisierung von Amazon S3-Objekten mit anderen Datenspeichern. Sie können außerdem Ereignisbenachrichtigungen anhand von Objektnamenpräfixen und -suffixen einrichten. Zum Beispiel können Sie wahlweise Benachrichtigungen über Objektnamen erhalten, die mit "images/" beginnen.

F3: Was ist in einer Amazon S3-Ereignisbenachrichtigung enthalten?

Eine detaillierte Beschreibung der Informationen in Amazon S3-Ereignisbenachrichtigungen finden Sie unter dem Thema Amazon S3-Ereignisbenachrichtigungen konfigurieren im Amazon-S3-Entwicklerhandbuch.

F4: Wie kann ich Amazon S3-Ereignisbenachrichtigungen einrichten?

Eine detaillierte Beschreibung der Konfiguration von Ereignisbenachrichtigungen finden Sie unter dem Thema Amazon S3-Ereignisbenachrichtigungen konfigurieren im Amazon S3-Entwicklerhandbuch. Weitere Informationen über die AWS-Messaging-Services finden Sie in der Amazon SNS-Dokumentation und der Amazon SQS-Dokumentation.

F5: Was kostet die Nutzung von Amazon S3-Ereignisbenachrichtigungen?

Für Amazon S3-Ereignisbenachrichtigungen werden keine zusätzlichen Gebühren berechnet. Sie zahlen lediglich für die Nutzung von Amazon SNS oder Amazon SQS für die Lieferung von Ereignisbenachrichtigungen oder für die Ausführung der AWS Lambda-Funktion. Besuchen Sie die Seiten mit den Preisen für Amazon SNS, Amazon SQS oder AWS Lambda, um Einzelheiten zu den Preisen für diese Services zu finden.



F: Kann ich meine statische Website in Amazon S3 hosten?

Ja, Sie können Ihre gesamte statische Website in Amazon S3 im Rahmen einer kostengünstigen, hoch verfügbaren Hosting-Lösung hosten, die zum Erfüllen von Datenverkehrsanforderungen automatisch skaliert werden kann. Amazon S3 bietet Ihnen einen Zugriff auf dieselbe überaus skalierbare, zuverlässige, schnelle und kostengünstige Infrastruktur, mit der Amazon sein eigenes globales Netz aus Websites betreibt. Die Service-Verfügbarkeit entspricht der Speicherklasse, und das Service Level Agreement stellt Service-Entlastungen bereit, wenn die Verfügbarkeit eines Kunden in einem Abrechnungszeitraum unterhalb unserer Service-Zusage fällt. Weitere Informationen zum Hosten Ihrer Website in Amazon S3 finden Sie in unserer exemplarischen Vorgehensweise zum Einrichten einer in Amazon S3 gehosteten Website.

F: Welche Arten von Websites sollte ich mithilfe des statischen Hostens von Websites in Amazon S3 hosten?

Amazon S3 eignet sich besonders für das Hosten von Websites mit ausschließlich statischen Inhalten einschließlich HTML-Dateien, Bildern, Videos und Skripts auf Client-Seite wie JavaScript. Für Websites mit Skripts auf Serverseite und Datenbankinteraktion wird Amazon EC2 empfohlen.

F: Kann ich bei meiner in Amazon S3 gehosteten Website meinen eigenen Host-Namen verwenden?

Ja, Sie können einfach und dauerhaft Ihre Inhalte in einem Amazon S3-Bucket speichern und Ihren Domain-Namen (z. B. "beispiel.de") diesem Bucket zuweisen. Besucher Ihrer Website können anschließend auf diese Inhalte zugreifen, indem sie in ihren Browser die URL Ihrer Website eingeben (Beispiel: http://beispiel.de).

F: Unterstützt Amazon S3 das Umleiten von Websites?

Ja, Amazon S3 bietet mehrere Möglichkeiten zum Aktivieren der Umleitung von Web-Inhalten für Ihre statischen Websites. Umleitungen ermöglichen Ihnen das Ändern der URL (Uniform Resource Locator) einer Webseite auf Ihrer in Amazon S3 gehosteten Website (z. B. von "www.beispiel.de/alte_seite" zu "www.beispiel.de/neue_seite), ohne dass Links oder Lesezeichen, die auf die alte URL verweisen unterbrochen werden. Sie können für Ihren Bucket Regeln festlegen, um die automatische Umleitung zu aktivieren. Sie können auch eine Umleitung für ein einzelnes S3-Objekt konfigurieren.

F: Fallen zusätzliche Gebühren für das Hosten statischer Websites in Amazon S3 an?

Für das Hosten statischer Websites in Amazon S3 fallen keine zusätzliche Gebühren an. Für die Objekte Ihrer Website gelten dieselben Preisstufen wie für Speicher, Anforderungen und Datenübertragungen.

Weitere Informationen finden Sie auf der Seite zur S3-Preisberechnung.


F: Was genau ist unter "S3 Analytics – Storage Class Analysis" zu verstehen?

Mit der Speicherklassenanalyse ("Storage Class Analysis") können Sie Speicherzugriffsmuster analysieren und die richtigen Daten auf die richtige Speicherklasse übertragen. Diese neue Funktion von S3 Analytics erkennt automatisch Muster einer seltenen Nutzung und erleichtert so die Übertragung von Speicher auf Standard-IA. Sie können eine Storage Class Analysis-Richtlinie konfigurieren, um ein gesamtes Bucket, ein Präfix oder ein Objekt-Tag zu überwachen. Sobald ein Muster eines seltenen Zugriffs festgestellt wird, können Sie ohne großen Aufwand auf Basis der Ergebnisse eine neue Lebenszyklus-Altersrichtlinie erstellen. Zudem ermöglicht die Speicherklassenanalyse tägliche grafische Darstellungen Ihrer Speichernutzung in der AWS Management Console. Sie können diese in ein S3-Bucket exportieren und dort für die Analyse Business Intelligence-Tools Ihrer Wahl wie beispielsweise Amazon QuickSight nutzen.

F: Welche ersten Schritte sind für S3 Analytics – Storage Class Analysis erforderlich?

Sie können über die AWS Management Console oder die S3PUTBucketAnalytics-API eine Storage Class Analysis-Richtlinie konfigurieren. Mit dieser Richtlinie haben Sie die Möglichkeit, selten genutzten Speicher zu ermitteln, der auf Standard-IA übertragen oder in Glacier archiviert werden kann. Auf der Registerkarte "Management" in der S3 Console können Sie S3 Analytics, S3 Inventory und S3 CloudWatch Metrics verwalten.

F: Wie wird mir die Nutzung von S3 Analytics – Storage Class Analysis in Rechnung gestellt?

Sie finden allgemeine Informationen zur Preisgestaltung von S3 Analytics – Storage Class Analysis auf der Seite mit Amazon S3-Preisen.

F: Wie oft wird Storage Class Analysis aktualisiert?

Storage Class Analysis wird täglich in der S3 Management Console aktualisiert. Sie haben zudem die Möglichkeit, S3 Analytics für den Export Ihrer täglichen Speicherklassenanalyse in ein S3-Bucket Ihrer Wahl zu konfigurieren.

F: Was ist S3 Inventory?

Mit S3 Inventory, einer planmäßigen Alternative zur synchronousList-API von Amazon S3, können Sie geschäftliche Workflows und Big Data-Jobs vereinfachen und beschleunigen. S3 Inventory stellt täglich oder wöchentlich für ein S3-Bucket oder ein gemeinsam genutztes Präfix eine Übersicht über Ihre Objekte und die zugehörigen Metadaten in Form einer CSV-Flatfile (CSV = Comma Separated Values, durch Kommas getrennte Werte) zur Verfügung.

F: Welche ersten Schritte sind für S3 Inventory erforderlich?

Mit der AWS Management Console oder der PUTBucketInventory-API können Sie eine tägliche oder wöchentliche Bestandsaufnahme aller Objekte in Ihrem S3-Bucket oder einer Untergruppe der Objekte unter einem gemeinsam genutzten Präfix konfigurieren. Bei der Konfiguration können Sie ein Ziel-S3-Bucket für Ihre Bestandsaufnahme, das Ausgabeformat der Ausgabedatei (CSV oder Parquet) und spezielle Objektmetadaten angeben, die für Ihre Geschäftsanwendung erforderlich sind, z. B. Objektname, Größe, Datum der letzten Änderung, Speicherklasse, Versions-ID, Lösch-Marker, Flag für veraltete Version, Flag für mehrteiligen Upload oder Replikationsstatus.

F: Kann ich mit S3 Inventory die Leistung meiner Big Data-Jobs und geschäftlichen Workflow-Anwendungen verbessern?

Ja. S3 Inventory kann anstelle der synchronousS3LIST-API als sofort einsatzfähiger Input in einem Big Data-Job oder in einer Workflow-Anwendung genutzt werden. So sparen Sie Zeit und Rechenressourcen, die Sie andernfalls für den Aufruf und die Verarbeitung der LIST-API-Antwort aufwenden müssten.

F: Wie wird mir die Nutzung von S3 Inventory in Rechnung gestellt?

Sie finden allgemeine Informationen zur Preisgestaltung von S3 Inventory auf der Seite mit Amazon S3-Preisen.

F: Welche ersten Schritte sind für S3 CloudWatch Metrics erforderlich?

Mit der AWS Management Console können Sie die Generierung einer einminütigen CloudWatch Metrics-Instanz für Ihr S3-Bucket aktivieren oder mithilfe eines Präfix oder Objekt-Tags Filter konfigurieren. Alternativ dazu haben Sie die Möglichkeit, die S3PUTBucketMetrics-API für die Aktivierung und Konfiguration der Veröffentlichung von S3-Speichermetriken aufzurufen. Speichermetriken sind bereits 15 Minuten nach ihrer Aktivierung in CloudWatch verfügbar.

F: Kann ich Speichermetriken gezielt auf meine Anwendungen oder Unternehmensorganisationen zuschneiden?

Ja. Sie können in der Konfiguration von S3 CloudWatch Metrics Metriken für Ihr S3-Bucket generieren oder mithilfe eines Präfix oder Objekt-Tags Filter für die Metriken konfigurieren. Sie können beispielsweise eine Spark-Anwendung, die auf Daten zugreift, unter dem Präfix "/Bucket01/BigData/SparkCluster" als Metrikfilter 1 überwachen und einen zweiten Metrikfilter mit dem Tag "Dept, 1234" als Metrikfilter 2 definieren. Ein Objekt kann Bestandteil mehrerer Filter sein; ein Objekt im Präfix "/Bucket01/BigData/SparkCluster" und mit dem Tag "Dept,1234" ist z. B. sowohl im Metrikfilter 1 als auch im Metrikfilter 2 enthalten. Auf diese Weise können Metrikfilter genau auf Geschäftsanwendungen, Teamstrukturen oder organisationsspezifische Budgets zugeschnitten werden, damit Sie mehrere Workloads im selben S3-Bucket separat überwachen und ggf. entsprechende Warnungen ausgeben können.

F: Welche Alarme kann ich für meine Speichermetriken einstellen?

In CloudWatch können Sie Schwellenwerte für sämtliche Zähler, Timer oder Raten von Speichermetriken festlegen und bei einer Nichteinhaltung der Werte eine Aktion auslösen. Sie können beispielsweise einen Schwellenwert für den Prozentsatz von 4xx-Fehlermeldungen festlegen und einen Techniker aus der Abteilung "Softwareentwicklung/IT-Betrieb" durch Auslösung eines CloudWatch-Alarms benachrichtigen, sobald mindestens drei Dateneinträge über dem Schwellenwert liegen.

F: Wie wird mir die Nutzung von S3 CloudWatch Metrics in Rechnung gestellt?

Die Metriken aus S3 CloudWatch Metrics werden als benutzerdefinierte Metriken für Amazon CloudWatch berechnet. Sie finden allgemeine Informationen zur Preisgestaltung von S3 CloudWatch Metrics auf der Seite mit Amazon CloudWatch-Preisen.

F: Was sind S3 Object Tags?

Bei S3 Object Tags handelt es sich um Schlüssel-Wert-Paare für S3-Objekte, die jederzeit während der Lebensdauer des Objekts erstellt, aktualisiert oder gelöscht werden können. Damit haben Sie die Möglichkeit, Richtlinien für das Identity and Access Management (IAM) zu erstellen, S3-Lebenszyklusrichtlinien einzurichten und Speichermetriken anzupassen. Diese Tags auf Objektebene können dann Übertragungen zwischen Speicherklassen verwalten und Objekte im Hintergrund auslaufen lassen.

F: Wie kann ich Object Tags auf meine Objekte anwenden?

Sie können Tags neuen Objekten hinzufügen, wenn Sie diese hochladen, oder Tags bereits vorhandenen Objekten hinzufügen. Jedem S3-Objekt können bis zu zehn Tags hinzugefügt werden. Für das Hinzufügen von Objekt-Tags können Sie entweder die AWS Management Console, die REST-API, die AWS-CLI oder die AWS-SDKs verwenden.

F: Was spricht für die Verwendung von Object Tags?

Bei Object Tags handelt es sich um ein neues Tool, mit dem Sie die Verwaltung Ihres S3-Speichers vereinfachen können. Da Sie die Möglichkeit haben, Tags jederzeit während der Lebensdauer Ihres Objekts erstellen, aktualisieren und löschen zu können, ist Ihr Speicher flexibel an die Anforderungen Ihres Unternehmens anpassbar. Mithilfe dieser Tags können Sie den Zugriff auf Objekte steuern, die mit bestimmten Schlüssel-Wert-Paaren getaggt wurden, damit vertrauliche Daten tatsächlich nur für eine ausgewählten Gruppe oder einen bestimmten Benutzer zugänglich sind. Objekt-Tags können außerdem für die Kennzeichnung von Objekten verwendet werden, die zu einem bestimmten Projekt oder Geschäftsbereich gehören, um in Verbindung mit Lebenszyklusrichtlinen die Verwaltung der Übertragungen auf die Speicherstufen "S3 Standard – Infrequent Access" und "Glacier" zu erleichtern.

F: Wie kann ich Object Tags für meine Objekte aktualisieren?

Object Tags können während der Lebensdauer Ihres S3-Objekts jederzeit über die AWS Management Console, REST-API, AWS-CLI oder AWS-SDKs geändert werden. Beachten Sie bitte, dass alle Änderungen an Tags, die außerhalb der AWS Management Console vorgenommen werden, für die gesamte Tag-Gruppe erfolgen. Wenn Sie einem bestimmten Objekt fünf Tags zugeordnet haben und einen sechsten Tag hinzufügen möchten, müssen Sie die ursprünglichen fünf Tags in diese Anforderung einschließen.

F: Werden meine Object Tags repliziert, wenn ich die regionsübergreifende Replikation verwende?

Object Tags können mithilfe der regionsübergreifenden Replikation über mehrere Regionen hinweg repliziert werden. Sie finden weitere Informationen zur Einrichtung der regionsübergreifenden Replikation unter How to Set Up Cross-Region Replication im Handbuch Amazon S3 Developer Guide.

Für Kunden, bei denen die regionsübergreifende Replikation bereits aktiviert ist, sind neue Berechtigungen erforderlich, damit Tags repliziert werden können. Sie finden weitere Informationen zu den erforderlichen Richtlinien unter How to Set Up Cross-Region Replication im Handbuch Amazon S3 Developer Guide

F: Welche Kosten fallen für Object Tags an?

Für Object Tags fallen monatliche Kosten in Höhe von 0,01 USD pro 10 000 Tags an. Die Preise für Anforderungen im Zusammenhang mit dem Hinzufügen und Aktualisieren von Object Tags werden genau wie bestehende Anforderungspreise berechnet. Sie finden weitere Informationen hierzu auf der Seite mit Amazon S3-Preisen.

F: Was ist Lebenszyklusmanagement?

Mit dem S3-Lebenszyklusmanagement können Sie den Lebenszyklus Ihrer Objekte mittels einer vordefinierten Richtlinie festlegen und Ihre Speicherkosten reduzieren. Sie können auf Grundlage des Erstellungsdatums von Daten Richtlinien für Lebenszykluswechsel definieren, sodass Amazon S3-Objekte automatisch auf Standard – Infrequent Access (Standard-IA) und/oder auf Amazon Glacier migriert werden. Ebenso können Sie Richtlinien für das Ende von Lebenszyklen erstellen, sodass Objekte automatisch entfernt werden, wenn sie ein bestimmtes Alter erreicht haben. Sie können eine Richtlinie für die Ablauffrist mehrteiliger Uploads festgelegt. Anhand dieser Richtlinie verfallen unvollständige mehrteilige Uploads basierend auf dem Alter.

F: Wie erstelle ich eine Lebenszyklusmanagementrichtlinie?

Lebenszyklusrichtlinien lassen sich in der AWS Management Console, in der S3 REST-API, den AWS-SDKs oder der AWS Command Line Interface (CLI) erstellen und verwalten. Eine Spezifizierung der Richtlinie ist auf Präfix- oder auf Bucket-Ebene möglich.

F: Wie viel kostet die Nutzung des Lebenszyklusmanagementservices?

Mit der Erstellung und Anwendung von Lebenszyklusrichtlinien sind keine zusätzlichen kosten verbunden. Kosten für die Anforderung eines Wechsels fallen pro Objekt an, sobald das betreffende Objekt gemäß der Lebenszyklusregel die Voraussetzungen für einen Wechsel erfüllt. Bitte besuchen Sie die Seite S3 – Preise, wenn Sie mehr Informationen über die Kosten wünschen.

F: Wie verwende ich Lebenszyklusmanagementrichtlinien?

Mit zunehmendem Alter von Daten verringert sich möglicherweise ihre Relevanz, ihr Wert und ihr Compliance-Status. Amazon S3 beinhaltet eine umfangreiche Bibliothek, die eine Automatisierung des Datenmigrationsprozesses erleichtert. Beispielsweise können Sie festlegen, dass selten genutzte Objekte nach einiger Zeit günstigeren Speicher-Tarifen (wie Standard-Infrequent Access) zugewiesen werden. Später können die Objekte dann zur Archivierung und für die Compliance in Amazon Glacier verschoben werden, bis sie schließlich gelöscht werden. Mithilfe dieser Richtlinien lassen sich die Speicherkosten sowie der Verwaltungsaufwand im Handumdrehen reduzieren. Gleichzeitig können sie sich gewinnbringend in allen Amazon-Speicherdiensten anwenden lassen. Diese Richtlinien umfassen unter anderem beispielhafte Verwaltungspraktiken### bei der Entfernung von Objekten und Attributen, die nicht mehr gebraucht werden und dienen der Kostenverwaltung und Performance-Optimierung.

F: Wie kann ich mithilfe der Lebenszyklusrichtlinie von Amazon S3 meine Amazon S3-Speicherkosten senken?

Mit den Lebenszyklusrichtlinien von Amazon S3 können Sie konfigurieren, dass Ihre Objekte in Standard – Infrequent Access (Standard-IA) migriert, in Amazon Glacier archiviert oder nach Ablauf eines bestimmten Zeitraums gelöscht werden. Mithilfe dieser durch Richtlinien gesteuerten Automatisierung können Sie schnell und einfach Speicherkosten senken und Zeit sparen. In jeder Regel können Sie ein Präfix, einen Zeitraum, eine Übertragung in Standard-IA oder in Amazon Glacier und/oder einen Ablauftermin angeben. Sie können beispielsweise eine Regel definieren, nach der alle Objekte mit dem gemeinsamen Präfix "logs/" 30 Tage nach der Erstellung in Amazon Glacier archiviert und 365 Tage nach der Erstellung gelöscht werden. Sie können auch eine gesonderte Regel erstellen, gemäß der nur alle Objekte mit dem Präfix "backups/" 90 Tage nach der Erstellung gelöscht werden. Lebenszyklusrichtlinien gelten sowohl für vorhandene als auch neue S3-Objekte. Sie ermöglichen Ihnen eine optimierte Speicherung und maximale Kosteneinsparung für alle derzeitigen und neuen Daten, die in S3 abgelegt werden, und zwar ohne zeitaufwendige manuelle Datenüberprüfungen und -migrationen. Bei einer Lebenszyklusregel bestimmt das Präfixfeld die Objekte, die der Regel unterliegen. Um die Regel auf ein einzelnes Objekt anzuwenden, müssen Sie den Schlüsselnamen angeben. Wenn Sie die Regel auf einen ganzen Satz an Objekten anwenden möchten, muss ihr gemeinsames Präfix angegeben werden (z. B. "logs"). Sie können zum Archivieren Ihrer Objekte eine Überführungsaktion und zum Entfernen Ihrer Objekte eine Löschaktion nach Terminablauf angeben. Geben Sie beim Zeitraum das Erstellungsdatum (z. B. 31.01.2013) oder die Anzahl der Tage ab dem Erstellungsdatum (z. B. 30 Tage) an, nach denen Ihre Objekte archiviert oder entfernt werden sollen. Sie können mehrere Regeln für unterschiedliche Präfixe erstellen.

Weitere Informationen

F: Wie kann ich meine Objekte konfigurieren, damit sie nach einer bestimmten Zeit gelöscht werden?

Sie können eine Richtlinie für das Lebenszyklusende erstellen, mit welcher Ihre Objekte nach einer festgelegten Anzahl von Tagen aus den Buckets entfernt werden. Sie können die Ablaufregeln für einen Objektsatz in Ihrem Bucket über die "Lifecycle Configuration"-Regel definieren, die Sie auf den Bucket anwenden. Für jede Objektablaufregel können Sie ein Präfix und ein Ablaufdatum festlegen. Das Präfixfeld identifiziert dann die Objekte, auf die die Regel Anwendung findet. Um die Regel auf ein einzelnes Objekt anzuwenden, müssen Sie den Schlüsselnamen angeben. Wenn Sie die Regel auf einen ganzen Satz an Objekten anwenden möchten, muss ihr gemeinsames Präfix angegeben werden (z. B. "logs"). Geben Sie für das Ablaufdatum die Anzahl der Tage ab dem Erstellungsdatum (also das Alter) an, nach deren Ablauf die Objekte entfernt werden sollen. Sie können mehrere Regeln für unterschiedliche Präfixe erstellen. Sie können beispielsweise eine Regel erstellen, mit der alle Objekte, deren Namen mit dem Präfix "logs/" beginnen, 30 Tage nach ihrer Erstellung entfernt werden, und eine separate Regel, mit der alle Objekte, deren Namen mit dem Präfix "backups/" beginnen, 90 Tage nach ihrer Erstellung entfernt werden.

Nachdem die Objektablaufregel hinzugefügt wurde, wird diese auf alle Objekte angewendet, die sich bereits im Bucket befinden, sowie auf alle neuen Objekte, die hinzugefügt werden. Sobald das Ablaufdatum eines Objekts erreicht ist, wird es ermittelt und in die Warteschlange zum Löschen aufgenommen. Die Speicherung von Objekten am Ablaufdatum oder danach wird nicht in Rechnung gestellt, selbst wenn die Objekte weiterhin so lange in der Warteschlange zur Verfügung stehen, bis sie entfernt werden. Wie bei standardmäßigen Löschanforderungen wird bei Amazon S3 das Entfernen von Objekten mithilfe der Objektablauffunktion nicht in Rechnung gestellt. Sie können auch für Ihre Buckets mit und ohne Versioning Ablaufregeln festlegen.

Weitere Informationen

F: Warum sollte ich eine Lebenszyklusrichtlinie verwenden, um unvollständige mehrteilige Uploads ablaufen zu lassen?

Die Lebenszyklus-Richtlinie für unvollständige mehrteilige Uploads ermöglicht es Ihnen, durch Begrenzung der Zeit für nicht abgeschlossenen mehrteiligen Uploads, Kosten zu sparen. Zum Beispiel, wenn Ihre Anwendung mehrere mehrteilige Objekt-Teile hochlädt, diese aber nie einbindet, wird Ihnen der benötigte Speicher trotzdem in Rechnung gestellt. Diese Richtlinie senkt Ihre S3-Rechnung, indem sie automatisch unvollständige mehrteilige Uploads entfernt und den zugehörigen Speicher nach einer festgelegten Anzahl von Tagen freigibt.

Weitere Informationen.

F: Was ist die Amazon S3 Cross-Region Replication (CRR – Regionsübergreifende Replikation)?

CRR ist eine automatische Replikation von Amazon S3-Daten über AWS-Regionen. Mit CRR wird jedes in einen S3-Bucket hochgeladene Objekt automatisch in einen Ziel-Bucket in einer anderen, von Ihnen ausgewählten AWS-Region repliziert. Sie können CRR einsetzen, um in verschiedenen geografischen Regionen einen Datenzugriff mit geringerer Latenz bereitzustellen. CRR kann auch nützlich sein, um die Compliance-Anforderung zu erfüllen, dass Daten Hunderte von Kilometern entfernt gespeichert werden müssen.

F: Wie aktiviere ich CRR?

CRR ist eine Konfiguration auf Bucket-Ebene. Sie aktivieren eine CRR-Konfiguration auf Ihrem Quell-Bucket, indem Sie für die Replikation einen Ziel-Bucket in einer anderen Region angeben. Sie können entweder die AWS Management Console, REST API, AWS CLI oder die AWS SDKs verwenden, um CRR zu aktivieren. Versioning muss für Quell- und Ziel-Bucket aktiviert sein, um CRR aktivieren zu können. Weitere Informationen finden Sie unter How to Set Up Cross-Region Replication (So richten Sie regionsübergreifende Replikation ein) im Amazon S3 Developer Guide.

F: Was repliziert CRR zum Ziel-Bucket?

CRR repliziert alle Uploads auf Objektebene, die Sie direkt in Ihren Quell-Bucket vornehmen. Die dem Objekt zugeordneten Metadaten und ACLs werden ebenfalls repliziert. Jegliche Änderung an den zugrunde liegenden Daten, Metadaten oder ACLs des Objekts löst eine neue Replikation zum Ziel-Bucket aus. Sie können entweder alle in einen Quell-Bucket hochgeladenen Objekte replizieren oder nur eine Teilmenge der hochgeladenen Objekte, indem Sie Präfixe angeben. Daten die sich vor der Aktivierung von CRR im Bucket befanden, werden nicht repliziert. Sie können COPY API von S3 verwenden, um die vorhandenen Daten in Ihren Ziel-Bucket zu kopieren. Weitere Informationen finden Sie unter How to Set Up Cross-Region Replication (So richten Sie regionsübergreifende Replikation ein) im Amazon S3 Developer Guide.

F: Kann ich CRR mit Lebenszyklusregeln verwenden?

Ja, Sie können separate Lebenszyklusregeln für den Quell- und den Ziel-Bucket konfigurieren. Beispiel: Sie können eine Lebenszyklusregel konfigurieren, nach der Daten von Standard in Standard-IA im Ziel-Bucket migriert werden, oder eine Regel, nach der Daten in Amazon Glacier archiviert werden.

F: Wie sieht das Preisangebot für CRR aus?

Sie bezahlen die Amazon S3-Kosten für Speicherung, Anforderungen und regionsübergreifende Datenübertragungen für die replizierte Kopie der Daten. Wenn Sie beispielsweise 1000 Objekte mit 1 GB (1000 GB) zwischen Regionen replizieren, werden Anfragegebühren von 0,005 USD (1000 Anfragen mal 0,005 USD pro 1000 Anfragen) für die Reduzierung von 1000 Objekten und eine Gebühr von 20 USD (0,020 USD pro übertragenes Gigabyte mal 1000 GB) für die Datenübertragung zwischen Regionen anfallen. Nach der Platzierung werden für die 1000 GB Speicherkosten basierend auf der Zielregion anfallen.

Wenn das Quellobjekt mit der Funktion für den mehrteiligen Upload hochgeladen wird, erfolgt die Reduzierung mit derselben Anzahl von Teilen und Teilgrößen. Beispiel: Ein Objekt mit 100 GB, das mithilfe der Funktion für mehrteiligen Upload (800 Teile mit jeweils 128 MB) hochgeladen wird, veranlasst bei der Replikation Anfragekosten für 802 Anfragen (800 Anfragen zum Hochladen für Teile plus 1 zur Einleitung eines mehrteiligen Uploads plus 1 Anfrage zur Beendigung des mehrteiligen Uploads). Dabei entstehen Anfragekosten von 0,00401 USD (802 Anfragen mal 0,005 USD pro 1000 Anfragen) und eine Gebühr von 2,00 USD (0,020 USD pro übertragenem Gigabyte mal 100 GB) für die Datenübertragung zwischen Regionen. Nach der Platzierung werden für die 1000 GB Speicherkosten basierend auf der Zielregion anfallen.

Weitere Informationen finden Sie auf der Seite zur S3-Preisberechnung.

F: Was ist Transfer Acceleration?

Amazon S3 Transfer Acceleration ermöglicht die schnelle, einfache und sichere Übertragung von Dateien über große Entfernungen zwischen Ihrem Client und Ihrem Amazon S3-Bucket. Transfer Acceleration nutzt die weltweit verteilten AWS-Edge-Standorte von Amazon CloudFront. Wenn Daten an einem AWS-Edge-Standort eintreffen, werden sie über einen optimierten Netzwerkpfad an Ihren Amazon S3-Bucket weitergeleitet.

F: Was sind die ersten Schritte bei Transfer Acceleration?

Der Einstieg in Transfer Acceleration ist ganz einfach. Aktivieren Sie zunächst Transfer Acceleration in einem S3-Bucket mithilfe der Amazon S3-Konsole, der Amazon S3-API oder der AWS CLI. Nachdem Transfer Acceleration aktiviert wurde, können Sie mit Ihren Amazon S3-PUT- und -GET-Anforderungen auf den s3-accelerate-Endpunkt-Domain-Namen verweisen. Ihre Anwendung für die Datenübertragung muss einen der beiden folgenden Endpunkttypen verwenden, um auf den Bucket für schnellere Datenübertragung zuzugreifen: .s3-accelerate.amazonaws.com oder .s3-accelerate.dualstack.amazonaws.com für den " Dual Stack"-Endpunkt. Wenn Sie die Standard-Datenübertragung verwenden möchten, können Sie weiterhin die regulären Endpunkte verwenden.

Es gibt bestimmte Einschränkungen dazu, welcher Bucket mit Transfer Acceleration funktioniert. Weitere Informationen finden Sie hier im Amazon S3-Entwicklerhandbuch.

F: Wie schnell ist Transfer Acceleration?

Mit Transfer Acceleration können Sie Ihre Bandbreite voll nutzen, die Auswirkungen der Entfernung auf den Durchsatz minimieren und die gleichbleibend schnelle Datenübertragung zu Amazon S3 unabhängig vom Standort des Clients sicherstellen. Die Beschleunigung hängt dabei vor allem von der verfügbaren Bandbreite, der Entfernung zwischen Quelle und Ziel und den Paketverlustraten im Netzwerkpfad ab. Allgemein ist die Beschleunigung höher, wenn die Quelle weiter vom Ziel entfernt ist, wenn es mehr verfügbare Bandbreite gibt und/oder wenn das Objekt größer ist.

Ein Kunde hat eine fünfzigprozentige Reduzierung der Durchschnittszeit für die Aufnahme von 300 MB an Dateien von einer globalen Benutzerbasis, die in den USA, in Europa und in Teilen Asiens verteilt ist, zu einem Bucket in der Asien-Pazifik-Region (Sydney) gemessen. Ein anderer Kunde hat Fälle beobachtet, in denen die Leistung für Benutzer in Südostasien und Australien beim Hochladen von 250 MB an Dateien (zu jeweils 50 MB) in einen S3-Bucket in der Region USA Ost (N. Virginia) um 500 % erhöht wurde.

Mit dem Geschwindigkeitsvergleichstool erhalten Sie eine Vorschau der Leistungsvorteile für Ihren Standort.

F: Wer sollte Transfer Acceleration verwenden?

Transfer Acceleration wurde entwickelt, um die Übertragungsgeschwindigkeiten aus aller Welt in S3-Buckets zu optimieren. Wenn Sie Daten in einen zentralisierten Bucket von geografisch verteilten Standorten aus hochladen oder wenn Sie regelmäßig mehrere GB oder TB an Daten über Kontinente hinweg übertragen, können Sie Stunden oder Tage an Datenübertragungszeit sparen.

F: Wie sicher ist Transfer Acceleration?

Transfer Acceleration bietet die gleiche Sicherheit wie reguläre Übertragungen zu Amazon S3. Alle Amazon S3-Sicherheitsfunktionen, zum Beispiel das Einschränken des Zugriffs basierend auf der IP-Adresse eines Clients, werden ebenfalls unterstützt. Transfer Acceleration kommuniziert mit Clients über Standard-TCP und erfordert keine Firewall-Änderungen. An AWS-Edge-Standorten werden keine Daten gespeichert.

F: Was geschieht, wenn Transfer Acceleration nicht schneller ist?

Jedes Mal, wenn Sie ein Objekt mit Transfer Acceleration hochladen, prüfen wir, ob Transfer Acceleration voraussichtlich schneller als eine reguläre Amazon S3-Übertragung ist. Wenn wir feststellen, dass Transfer Acceleration voraussichtlich nicht schneller als eine reguläre Amazon S3-Übertragung desselben Objekts an dieselbe AWS-Zielregion ist, fallen keine Gebühren für diese Nutzung von Transfer Acceleration an. Gegebenenfalls wird das Transfer Acceleration-System für diesen Upload umgangen.

F: Kann ich Transfer Acceleration für mehrteilige Uploads verwenden?

Ja, Transfer Acceleration unterstützt alle Bucket-Ebenenfunktionen einschließlich mehrteilige Uploads.

F: Wie kann ich mich zwischen Transfer Acceleration und PUT/POST von Amazon CloudFront entscheiden?

Transfer Acceleration optimiert das TCP-Protokoll und fügt zusätzliche Intelligenz zwischen dem Client und dem S3-Bucket hinzu, sodass Transfer Acceleration die bessere Wahl ist, wenn ein höherer Durchsatz gewünscht wird. Wenn Sie Objekte haben, die kleiner als 1 GB sind, oder wenn der gesamte Datensatz kleiner als 1 GB ist, sollten Sie für eine optimale Leistung die PUT-/POST-Befehle von Amazon CloudFront verwenden.

F: Wie kann ich mich zwischen Transfer Acceleration und AWS Snowball entscheiden?

AWS Import/Export Snowball ist ideal für Kunden, die große Datenstapel in einer einzigen Übertragung verschieben. AWS Snowball hat normalerweise eine Durchlaufzeit von fünf bis sieben Tagen. Transfer Acceleration kann über eine voll ausgenutzte 1-Gbps-Leitung in der gleichen Zeit normalerweise bis zu 75 TB übertragen. Allgemein ist Transfer Acceleration eine gute Wahl, wenn die Übertragung über das Internet mehr als eine Woche dauert oder wenn es wiederkehrende Übertragungsaufträge und mehr als 25 Mbps verfügbare Bandbreit gibt. Sie können aber auch beide Methoden verwenden: Führen Sie die ersten umfangreichen Datenübertragungen mit AWS Snowball (bzw. mit einer Reihe von AWS Snowball-Übertragungen) und danach inkrementelle Änderungen mit Transfer Acceleration durch.

F: Kann Transfer Acceleration AWS Direct Connect ergänzen?

AWS Direct Connect ist eine gute Wahl für Kunden, die ein privates Netzwerk benötigen oder Zugriff auf den AWS Direct Connect-Datenaustausch haben. Transfer Acceleration eignet sich am besten für das Versenden von Daten von verteilten Client-Standorten über das öffentliche Internet oder in Fällen, in denen der Durchsatz aufgrund variabler Netzwerkbedingungen schlecht ist. Einige AWS Direct Connect-Kunden verwenden Transfer Acceleration für Übertragungen an Filialen, die möglicherweise unter einer schlechten Internetleistung leiden.

F: Kann Transfer Acceleration das AWS Storage Gateway oder das Gateway eines Drittanbieters ergänzen?

Ja. Storage Gateways sollen Amazon S3 auf eine lokale Umgebung ausweiten. Transfer Acceleration kann für eine schnellere Verbindung zwischen Amazon S3 und einem Gateway und somit für eine bessere Erfahrung der Gateway-Benutzer sorgen.

F: Kann Transfer Acceleration integrierte Software von Drittanbietern ergänzen?

Ja. Softwarepakete, die sich direkt mit Amazon S3 verbinden (weitere Informationen zu Speicherlösungen von Partnern finden Sie hier), können Transfer Acceleration nutzen, wenn sie ihre Aufträge an Amazon S3 senden

F: Was ist IPv6?

Alle Server und Geräte, die mit dem Internet verbunden sind, müssen eine eindeutige Adresse haben. Internet Protocol Version 4 (IPv4) war das Originalschema für 32-Bit-Adressen. Das anhaltende Wachstum des Internets würde jedoch dazu führen, dass alle verfügbaren IPv4-Adressen nach einiger Zeit in Gebrauch sind. Internet Protocol Version 6 (IPv6) ist der neue Adressierungsmechanismus, der dazu konzipiert wurde, die globalen Adresseinschränkungen von IPv4 zu überwinden.

F: Was kann ich mit IPv6 tun?

Mit der IPv6-Unterstützung für Amazon S3 können Anwendungen eine Verbindung zu Amazon S3 herstellen, ohne Software oder Systeme für die Übersetzung von IPv6 zu IPv4 benötigen. Sie können Compliance-Anforderungen erfüllen, eine Integration mit bestehenden Vor-Ort-Anwendungen auf IPv6-Basis einfacher durchführen und die Notwendigkeit teurer Netzwerkausrüstung zum Verarbeiten der Adressenübersetzung eliminieren. Sie können jetzt außerdem die vorhandenen Funktionen zum Filtern von Quelladressen in IAM-Richtlinien und Bucket-Richtlinien mit IPv6-Adressen nutzen, um Ihre Optionen zum Schützen von Anwendungen bei der Zusammenarbeit mit Amazon S3 zu erweitern.

F: Was sind die ersten Schritte mit IPv6 mit Amazon S3?

Sie können damit beginnen, Ihre Anwendung auf den neuen "Dual Stack"-Endpunkt von Amazon S3 zu verweisen, der Zugriff sowohl über IPv4 als auch über IPv6 unterstützt. In den meisten Fällen wird für den Zugriff über IPv6 keine weitere Konfiguration benötigt, da die meisten Netzwerkclients standardmäßig IPv6-Adressen bevorzugen. Ihre Anwendungen greifen möglicherweise weiterhin über die vorhandenen APIs oder URLs im virtuellen gehosteten Stil (beispielsweise http://bucket.s3.dualstack.aws-region.amazonaws.com) oder im Pfadstil (beispielsweise http://s3.dualstack.aws-region.amazonaws.com/bucket) ohne Code-Änderungen auf Daten zu. Bei der Verwendung von Amazon S3 Transfer Acceleration muss der "Dual Stack"-Endpunkt die folgende Form haben: http(s)://bucket.s3-accelerate.dualstack.amazonaws.com. Sie müssen jedoch auch Ihre Bucket- und IAM-Richtlinien prüfen, um sicherzustellen, dass Sie den richtigen Zugriff für Ihre neuen IPv6-Adressen konfiguriert haben. Weitere Informationen zu ersten Schritten beim Zugriff auf Amazon S3 über IPv6 finden Sie unter Amazon S3-Anfragen über IPv6 senden.

F: Wenn ich auf den "Dual Stack"-Endpunkt von Amazon S3 verweise, werde ich dann noch in der Lage sein, über IPv4 auf Amazon S3-APIs zuzugreifen?

Ja, Sie können weiterhin auf Amazon S3-APIs zugreifen, sowohl über IPv6- als auch über IPv4-Adressen, wenn Sie eine Verbindung zu den "Dual Stack"-Endpunkten von Amazon S3 herstellen. Sie müssen Ihren Client so konfigurieren, dass er IPv4-Adressen bevorzugt. Dabei kann es sich bei vielen Programmiersprachen für Anwendungen um eine Konfigurationsoption auf Anwendungs- oder Host-Ebene handeln. Bitte informieren Sie sich in der Dokumentation der Programmiersprache, die Sie für Ihre Ausführungsplattform nutzen, über die spezifische Konfigurationsoption, die IPv4-Verbindungen bevorzugt.

F: Muss ich mit einer Änderung der Amazon S3-Leistung rechnen, wenn ich IPv6 nutze?

Nein, die Leistungen von Amazon S3 ist mit IPv4 und IPv6 gleich.

F: Funktionieren vorhandene VPC-Endpunkte weiterhin, wenn ich auf den "Dual Stack"-Endpunkt von Amazon S3 verweise?

Ja, Sie können weiterhin VPC-Endpunkte für den Zugriff auf Amazon S3 über IPv4 verwenden. Wenn Sie den Dual-Stack-Endpunkt in einer nur IPv4-fähigen VPC verwenden, ignorieren die VPC-Instances den AAAA-Datensatz und greifen immer über Ipv4 auf Amazon S3 zu.

F: Wenn ich IPv6 aktiviere, erscheint dann die IPv6-Adresse im Server-Zugriffsprotokoll?

Ja, IPv6-Adressen werden jetzt in den Server-Zugriffsprotokollen angezeigt, wenn Sie die Funktion für die Amazon S3-Server-Zugriffsprotokolle aktiviert haben. Alle benutzerdefinierten Tools oder Softwareprogramme, die die Protokolle interpretieren, sollten so aktualisiert werden, dass sie die neuen IPv6-Adressenformate verarbeiten können. Wenden Sie sich an den Entwickler-Support, wenn der IPv6-Datenverkehr die Fähigkeit Ihres Tools oder Ihrer Software beeinträchtigt, IPv6-Adressen in Server-Zugriffsprotokollen zu verarbeiten.

F: Muss ich meine Bucket- und IAM-Richtlinien aktualisieren?

Ja, wenn Sie Richtlinien verwenden, die den Zugriff über IP-Adressen gewähren oder einschränken, müssen Sie diese Richtlinien aktualisieren, sodass die zugehörigen IPv6-Bereiche einbezogen werden, bevor Sie auf den "Dual Stack"-Endpunkt umschalten. Falls Ihr Bucket den Zugriff auf bestimmte IAM-Benutzer gewährt oder einschränkt, müssen Sie die IAM-Richtlinien dieser Benutzer vom Administrator für die IAM-Richtlinien prüfen lassen. Dabei muss sichergestellt werden, dass diese entsprechenden Zugriff auf die zugehörigen IPv6-Bereiche haben, bevor Sie auf den "Dual Stack"-Endpunkt umschalten. Sollten Sie dies nicht tun, könnten Clients fälschlicherweise den Zugriff auf den Bucket verlieren oder erhalten, wenn sie beginnen, IPv6 zu nutzen.

F: Was kann ich tun, wenn meine Clients durch Richtlinien, Netzwerk oder andere Einschränkungen bei der Verwendung von IPv6 für Amazon S3 beeinträchtigt werden?

Anwendungen, die durch die Verwendung von IPv6 beeinträchtigt werden, können jederzeit auf die standardmäßigen nur IPv4-fähigen Endpunkte zurückgeschaltet werden.

F: Kann ich IPv6 für alle Funktionen von Amazon S3 verwenden?

Nein, die IPv6-Unterstützung steht zurzeit für Website-Hosting und Zugriff über BitTorrent nicht zur Verfügung. Alle anderen Funktionen sollten beim Zugriff auf Amazon S3 IPv6 wie erwartet funktionieren.

F: Wird IPv6 in allen Regionen unterstützt?

Sie können IPv6 in allen kommerziellen AWS-Regionen außer in China (Beijing) mit Amazon S3 verwenden. Sie können IPv6 auch in der AWS-Region GovCloud (USA) verwenden.