Überspringen zum Hauptinhalt

Amazon S3

Amazon S3 – Häufig gestellte Fragen

S3 – Häufig gestellte allgemeine Fragen

Alles öffnen

Amazon S3 ist ein Objektspeicher zum Speichern und Abrufen beliebiger Datenmengen aus allen Speicherorten. S3 ist ein einfacher Speicherservice, der branchenführende Haltbarkeit, Verfügbarkeit, Leistung, Sicherheit und praktisch unbegrenzte Skalierbarkeit zu sehr geringen Kosten bietet.

Amazon S3 ist eine einfache Web-Service-Schnittstelle, mit der beliebige Datenmengen jederzeit und überall im Web gespeichert und abgerufen werden können. Mit diesem Web-Service können Sie unkompliziert Anwendungen erstellen, die Cloudspeicher nutzen. Da Amazon S3 hochgradig skalierbar ist und leistungsbasiert bezahlt wird, können Sie klein anfangen und Ihre Anwendung nach Bedarf erweitern, ohne Kompromisse in Bezug auf die Leistung und die Zuverlässigkeit eingehen zu müssen. Amazon S3 ist außerdem noch sehr flexibel. Speichern Sie beliebige Datentypen und so viele Daten, wie Sie möchten, rufen Sie dieselben Daten beliebig oft oder nur für die Notfallwiederherstellung ab, erstellen Sie eine einfache FTP-Anwendung oder eine anspruchsvolle Webanwendung wie die Website von amazon.com. Mit Amazon S3 können Sie sich auf Innovationen konzentrieren, anstatt Zeit damit zu verbringen, herauszufinden, wie Sie Ihre Daten speichern können.

Um sich für Amazon S3 anzumelden, besuchen Sie die S3-Konsole. Um diesen Service nutzen zu können, benötigen Sie ein Amazon-Web-Services-Konto. Wenn Sie noch kein Konto haben, werden Sie aufgefordert, eines zu erstellen, wenn Sie mit dem Anmeldeprozess für Amazon S3 beginnen. Lesen Sie nach der Anmeldung die Amazon-S3-Dokumentation, sehen Sie sich die S3-Einstiegsmaterialien an, und sehen Sie sich die zusätzlichen Ressourcen im Ressourcenzentrum an, um mit der Nutzung von Amazon S3 zu beginnen.

Mit Amazon S3 profitieren Sie von den Amazon-Vorteilen, wie hohe Skalierbarkeit ohne Vorleistungen oder keine Kompromisse bei der Leistung. Durch die Verwendung von Amazon S3 können Sie kostengünstig und einfach sicherstellen, dass Ihre Daten schnell zugänglich, immer verfügbar und sicher sind.

Sie können praktisch alle Dateitypen in jedem Format speichern. Weitere Informationen finden Sie in der Lizenzvereinbarung von Amazon Web Services.

Das speicherbare Gesamtvolumen an Daten sowie die Anzahl der Objekte, die Sie in Amazon S3 speichern können, sind unbegrenzt. Einzelne Amazon-S3-Objekte variieren in ihrer Größe von minimal 0 Bytes bis maximal 5 TB. Das größte Objekt, das in einem einzelnen PUT hochgeladen werden kann, kann bis zu 5 GB groß sein. Für Objekte, die größer als 100 MB sind, sollten Kunden die Funktion mehrteiliger Upload in Erwägung ziehen.

Ein Allzweck-Bucket ist ein Container für Objekte, die in Amazon S3 gespeichert sind, und Sie können eine beliebige Anzahl von Objekten in einem Bucket speichern. Allzweck-Buckets sind der ursprüngliche S3-Bucket-Typ, und ein einziger Allzweck-Bucket kann Objekte enthalten, die in allen Speicherklassen außer S3 Express One Zone gespeichert sind. Sie werden für die meisten Anwendungsfälle und Zugriffsmuster empfohlen.

Ein Verzeichnis-Bucket ist ein Container für Objekte, die in Amazon S3 gespeichert sind, und Sie können eine beliebige Anzahl von Objekten in einem Bucket speichern. S3-Verzeichnis-Buckets lassen nur Objekte zu, die in der Speicherklasse S3 Express One Zone gespeichert sind, was eine schnellere Datenverarbeitung innerhalb einer einzelnen Availability Zone ermöglicht. Sie werden für Anwendungsfälle mit geringer Latenz empfohlen. Jeder S3-Verzeichnis-Bucket kann bis zu 2 Millionen Transaktionen pro Sekunde (TPS) unterstützen, unabhängig von der Anzahl der Verzeichnisse innerhalb des Buckets.


Ein Tabellen-Bucket wurde speziell für die Speicherung von Tabellen im Apache-Iceberg-Format entwickelt. Verwenden Sie Amazon S3 Tables, um Tabellen-Buckets zu erstellen und Berechtigungen auf Tabellenebene in nur wenigen Schritten einzurichten. S3-Tabellen-Buckets sind speziell für Analytik- und Machine-Learning-Workloads optimiert. Dank der integrierten Unterstützung für Apache Iceberg können Sie tabellarische Daten in S3 mit gängigen Abfrage-Engines wie Amazon Athena, Amazon Redshift und Apache Spark abfragen. Verwenden Sie S3-Tabellen-Buckets, um tabellarische Daten wie tägliche Kauftransaktionen, Streaming-Sensordaten oder Anzeigenimpressionen als Iceberg-Tabelle in Amazon S3 zu speichern und dann mithilfe von Analytikfunktionen mit diesen Daten zu interagieren.

Ein Vektor-Bucket wurde speziell für das Speichern und Abfragen von Vektoren entwickelt. Innerhalb eines Vektor-Buckets verwenden Sie nicht die S3-Objekt-APIs, sondern dedizierte Vektor-APIs, um Vektordaten zu schreiben und sie auf der Grundlage semantischer Bedeutung und Ähnlichkeit abzufragen. Sie können den Zugriff auf Ihre Vektordaten mit den vorhandenen Zugriffskontrollmechanismen in Amazon S3 kontrollieren, einschließlich Bucket- und IAM-Richtlinien. Alle Schreibvorgänge in einen Vektor-Bucket sind stark konsistent, was bedeutet, dass Sie sofort auf die zuletzt hinzugefügten Vektoren zugreifen können. Während Sie Vektoren im Laufe der Zeit schreiben, aktualisieren und löschen, optimieren S3-Vektor-Buckets automatisch die darin gespeicherten Vektordaten, um das optimale Preis-Leistungs-Verhältnis zu erzielen, selbst wenn die Datensätze skalieren und sich weiterentwickeln.

Ein Bucket ist ein Container für Objekte und Tabellen, die in Amazon S3 gespeichert sind, und Sie können eine beliebige Anzahl von Objekten in einem Bucket speichern. Allzweck-Buckets sind der ursprüngliche S3-Bucket-Typ, und ein einziger Allzweck-Bucket kann Objekte enthalten, die in allen Speicherklassen außer S3 Express One Zone gespeichert sind. Sie werden für die meisten Anwendungsfälle und Zugriffsmuster empfohlen. S3-Verzeichnis-Buckets lassen nur Objekte zu, die in der Speicherklasse S3 Express One Zone gespeichert sind, was eine schnellere Datenverarbeitung innerhalb einer einzelnen Availability Zone ermöglicht. Sie werden für Anwendungsfälle mit geringer Latenz empfohlen. Jeder S3-Verzeichnis-Bucket kann bis zu 2 Millionen Transaktionen pro Sekunde (TPS) unterstützen, unabhängig von der Anzahl der Verzeichnisse innerhalb des Buckets. S3-Tabellen-Buckets wurden speziell für die Speicherung tabellarischer Daten in S3 entwickelt, z. B. tägliche Kauftransaktionen, Streaming-Sensordaten oder Anzeigenimpressionen. Wenn Sie einen Tabellen-Bucket verwenden, werden Ihre Daten als Iceberg-Tabelle in S3 gespeichert. Anschließend können Sie mit diesen Daten interagieren, indem Sie Analytikfunktionen wie Transaktionen auf Zeilenebene, abfragbare Tabellen-Snapshots und mehr verwenden, die alle von S3 verwaltet werden. Darüber hinaus führen Tabellen-Buckets eine kontinuierliche Tabellenwartung durch, um die Abfrageeffizienz im Laufe der Zeit automatisch zu optimieren, auch wenn der Data Lake skaliert und weiterentwickelt wird. S3-Vektor-Buckets wurden speziell für das Speichern und Abfragen von Vektoren entwickelt. Innerhalb eines Vektor-Buckets verwenden Sie spezielle Vektor-APIs, um Vektordaten zu schreiben und sie auf der Grundlage ihrer semantischen Bedeutung und Ähnlichkeit abzufragen. Sie können den Zugriff auf Ihre Vektordaten mithilfe der vorhandenen Zugriffskontrollmechanismen in Amazon S3 kontrollieren, einschließlich Bucket- und IAM-Richtlinien. Während Sie Vektoren im Laufe der Zeit schreiben, aktualisieren und löschen, optimieren S3-Vektor-Buckets automatisch die darin gespeicherten Vektordaten, um das optimale Preis-Leistungs-Verhältnis zu erzielen, selbst wenn die Datensätze skalieren und sich weiterentwickeln.

Für Fakturierungszwecke speichert Amazon Ihre Daten und ermittelt die damit verbundene Nutzung. Amazon S3 greift außerhalb dieses Rahmens nicht auf Ihre Daten zu, es sei denn, dies ist aus rechtlichen Gründen erforderlich. Weitere Informationen finden Sie in der Lizenzvereinbarung von Amazon Web Services.

Ja. Amazon-Organisationen nutzen Amazon S3 für zahlreiche unterschiedliche Projekte. Viele dieser Projekte verwenden Amazon S3 als autoritativen Datenspeicher, den sie für geschäftskritische Vorgänge verwenden.

Bei Amazon S3 handelt es sich um einen einfachen, schlüsselbasierten Objektspeicher. Beim Speichern von Daten vergeben Sie einen einmaligen Objektschlüssel, der später für die Datenabfrage verwendet werden kann. Schlüssel können aus einer beliebigen Zeichenfolge bestehen und für die Imitation hierarchischer Attribute erstellt werden. Alternativ können Sie S3-Objekt-Tagging nutzen, um die Daten in allen Ihren S3-Buckets bzw. mit allen Präfixen zu organisieren.

Amazon S3 umfasst benutzerfreundliche, auf Standards basierende REST-Schnittstellen für Web-Services, die mit jedem beliebigen Toolkit für die Internetentwicklung kompatibel sind. Die Abläufe wurden bewusst einfach gehalten, um das Hinzufügen neuer Verteilungsprotokolle und funktionaler Ebenen unkompliziert zu gestalten.

Über Amazon S3 erhalten Sie Zugriff auf dieselbe hochgradig skalierbare, hoch verfügbare, schnelle und kostengünstige Datenspeicher-Infrastruktur, mit der Amazon sein eigenes globales Website-Netzwerk betreibt. Die Speicherklasse S3 Standard ist für eine Verfügbarkeit von 99,99 % konzipiert, die Speicherklassen S3-Standard-IA, S3 Intelligent-Tiering und S3 Glacier Instant Retrieval für eine Verfügbarkeit von 99,9 % und die Speicherklasse S3-One-Zone-IA für eine Verfügbarkeit von 99,5 %. Die Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive sind für eine Verfügbarkeit von 99,99 % und ein SLA von 99,9 % ausgelegt. Alle Speicherklassen werden durch das Amazon-S3-Service-Level-Agreement gestützt.

Amazon S3 wird von Grund auf für den Umgang mit dem Datenverkehr jeder beliebigen Internetanwendung entwickelt. Durch nutzungsbasierte Zahlung und eine unbegrenzte Kapazität wird sichergestellt, dass sich Ihre Grenzkosten nicht ändern und Sie Ihren Service unterbrechungsfrei anbieten können. Die enorme Skalierung von Amazon S3 ermöglicht die gleichmäßige Verteilung der Last, damit Datenverkehrsspitzen nicht nur einzelne Anwendungen betreffen.

Ja. Wenn in einem Abrechnungszeitraum die monatliche Betriebszeit kürzer ist, als im SLA zugesagt, sieht das Amazon-S3-SLA eine Service-Gutschrift vor.

Amazon S3 bietet automatisch hohe Read-after-Write-Konsistenz, ohne Änderungen an der Leistung oder Verfügbarkeit, ohne Abstriche bei der regionalen Isolierung für Anwendungen und ohne zusätzliche Kosten. Nach dem erfolgreichen Schreiben eines neuen Objekts oder dem Überschreiben eines vorhandenen Objekts, erhält jede nachfolgende Leseanforderung sofort die neueste Version des Objekts. S3 bietet auch hohe Konsistenz für Listenvorgänge, sodass Sie nach einem Schreibvorgang sofort eine Auflistung der Objekte in einem Bucket durchführen können, bei der Änderungen berücksichtigt werden.

Die hohe Read-after-Write-Konsistenz hilft, wenn Sie sofort lesen und Einspruch nach dem Schreibvorgang erheben müssen; z. B. wenn Sie oft lesen und sofort nach dem Schreibvorgang Ojekte auflisten. Hochleistungs-Computing-Workloads profitieren auch davon, dass, wenn ein Objekt überschrieben und dann viele Male gleichzeitig gelesen wird, eine hohe Read-after-Write-Konsistenz die Sicherheit bietet, dass der letzte Schreibvorgang über alle Lesevorgänge hinweg gelesen wird. Diese Anwendungen profitieren automatisch und umgehend von einer hohen Read-after-Write-Konsistenz. Die hohe Konsistenz von S3 senkt außerdem die Kosten, da keine zusätzliche Infrastruktur erforderlich ist, um eine hohe Konsistenz zu gewährleisten.  

AWS-Regionen

Alles öffnen

Sie geben eine AWS-Region an, wenn Sie Ihren Amazon-S3-Allzweck-Bucket erstellen. Bei den Speicherklassen S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive werden Ihre Objekte automatisch auf mehreren Geräten gespeichert, die jeweils mindestens drei Availability Zones (AZs) voneinander entfernt sind. Die AZs sind physisch durch eine große Entfernung, vieler Kilometer, von jeder anderen AZ getrennt, obwohl alle innerhalb von 100 km voneinander liegen. Objekte, die in der Speicherklasse S3 One Zone-IA gespeichert werden, werden redundant innerhalb einer einzigen Availability Zone in der gewählten AWS-Region gespeichert.  Sie geben eine einzelne Availability Zone oder AWS Dedicated Local Zone an, wenn Sie Ihren Verzeichnis-Bucket erstellen. Objekte in Verzeichnis-Buckets werden redundant in einer einzelnen Availability Zone oder einer einzelnen Local Zone gespeichert. Wenn Sie S3-Speicherklassen für Dedicated Local Zones verwenden, bleiben Ihre Objekte in der Dedicated Local Zone, sofern Sie sie nicht in eine AWS-Region übertragen. Für S3 in Outposts werden Ihre Daten in Ihrer Outpost-On-Premises-Umgebung gespeichert, es sei denn, Sie entscheiden sich manuell für die Übertragung in eine AWS-Region. In der Liste der regionalen AWS-Services finden Sie Details zur Verfügbarkeit der Amazon-S3-Services nach AWS-Region.

Sie sollten S3-Speicherklassen für dedizierte AWS Local Zones verwenden, wenn Sie sensible Daten und Anwendungen haben, die auf einer physisch getrennten Infrastruktur ausgeführt werden müssen, die ausschließlich für Sie bestimmt ist und in eine bestimmte behördliche Zuständigkeit fällt, um Sicherheits- und Compliance-Anforderungen zu erfüllen. Einige Vorschriften schreiben beispielsweise vor, dass Daten in einem bestimmten Land oder Bundesstaat gespeichert werden müssen, und zwar aus regulatorischen, vertraglichen oder informationssicherheitstechnischen Gründen, die im öffentlichen Sektor, im Gesundheitswesen, in der Öl- und Gasindustrie und in anderen stark regulierten Branchen üblich sind. AWS arbeitet mit Ihnen zusammen, um Ihre eigenen Private Zones mit den erweiterten Sicherheits- und Governance-Funktionen zu konfigurieren, die Sie benötigen, um Ihre regulatorischen Anforderungen zu erfüllen.

Eine AWS-Region ist ein physischer Standort auf der ganzen Welt, an dem AWS Rechenzentren clustert.  Jede Gruppe logischer Rechenzentren innerhalb einer Region wird als Availability Zone (AZ) bezeichnet. Jede AWS-Region besteht aus mindestens drei isolierten und physisch getrennten AZs innerhalb eines geographischen Bereichs. Im Gegensatz zu anderen Cloud-Anbietern, die eine Region oft als einzelnes Rechenzentrum definieren, bietet das Konzept mehrerer AZs pro AWS-Region klare Vorteile. Jede AZ verfügt über unabhängige Stromversorgung, Kühlung sowie physische Sicherheit und ist über redundante, extrem latenzarme Netzwerke verbunden.

Eine Availability Zone (AZ) ist ein oder mehrere diskrete Rechenzentren mit redundanter Stromversorgung, Vernetzung und Konnektivität in einer AWS-Region. Mithilfe dieser Availability Zones (AZs) können Sie Produktionsanwendungen und Datenbanken betreiben, die verfügbarer, fehlertoleranter und skalierbarer sind, als dies von einem einzigen Rechenzentrum aus möglich wäre. Alle AZs in einer AWS-Region sind mit einem Netzwerk mit hoher Bandbreite und niedriger Latenz über eine vollständig redundante, dedizierte Metro-Glasfaser-Leitung miteinander verbunden, die einen hohen Durchsatz und eine niedrige Latenz zwischen den AZ ermöglicht. Die Speicherklassen Amazon S3 Standard, S3 Standard-Infrequent Access, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive replizieren Daten auf mindestens drei AZs, damit sie geschützt sind, falls eine ganze AZ ausfällt. Das gilt auch für Regionen, in denen weniger als drei AZs öffentlich verfügbar sind. Der Zugriff auf die in diesen Speicherklassen gespeicherten Objekte ist von allen AZs in der AWS-Region aus möglich.
Die Speicherklasse Amazon-S3-One-Zone-IA repliziert Daten innerhalb einer einzigen AZ. Die in S3 One Zone-IA gespeicherten Daten sind nicht resistent gegen den physischen Verlust einer Availability Zone infolge von Katastrophen wie Erdbeben, Brände oder Überschwemmungen.

Es sind verschiedene Faktoren zu berücksichtigen, die von der betreffenden Anwendung abhängen. Sie möchten zum Beispiel Ihre Daten in einer Region speichern, die sich in der Nähe Ihrer Kunden, Ihrer Rechenzentren oder anderen AWS-Ressourcen befindet, um die Latenz beim Datenzugriff zu verrigern. Vielleich möchten Sie Ihre Daten in einer Region speichern, die sich nicht in der Nähe Ihrer sonstigen Tätigkeit befindet, aus Gründen der geografischen Redundanz und für Notfallwiederherstellungszwecke. Sie sollten auch Regionen in Betracht ziehen, die es Ihnen ermöglichen, bestimmte rechtliche und behördliche Anforderungen zu erfüllen und/oder Ihre Speicherkosten verringern. Um Geld zu sparen, können Sie eine Region mit einem niedrigeren Preisniveau wählen. Informationen zu den Preisen in China finden Sie auf der Amazon-S3-Preisseite.

Amazon S3 ist in allen AWS-Regionen weltweit verfügbar und Sie können Amazon S3 unabhängig von Ihrem Standort verwenden. Sie müssen nur festlegen, in welcher bzw. welchen AWS-Region(en) Ihre Amazon S3-Daten gespeichert werden sollen. In der Liste der regionalen AWS-Services finden Sie eine Liste der AWS-Regionen, in denen S3 heute verfügbar ist.

Fakturierung

Alles öffnen

Mit Amazon S3 zahlen Sie nur das, was Sie tatsächlich nutzen. Es gibt keine Mindestgebühr. Kalkulieren Sie Ihre voraussichtliche Monatsrechnung mit dem AWS-Preisrechner. In Regionen, in denen uns niedrigere Kosten entstehen, erhebt AWS auch niedrigere Gebühren. Einige Preise sind in den einzelnen Amazon-S3-Regionen unterschiedlich. Die abgerechneten Preise richten sich nach dem Standort Ihres S3-Buckets. Für Daten, die innerhalb einer Amazon S3-Region über eine COPY-Anforderung übertragen werden, fallen keine Datenübertragungsgebühren an. Daten, die über eine COPY-Anforderung zwischen AWS-Regionen übertragen werden, werden zu den auf der Preisseite zu Amazon S3 angegebenen Tarifen berechnet. Für Daten, die innerhalb derselben Region zwischen Amazon EC2 (oder jedem beliebigen AWS-Service) und Amazon S3 übertragen werden, z. B. Daten, die innerhalb der Region USA Ost (Nord-Virginia) übertragen werden, werden keine Datenübertragungsgebühren berechnet. Daten, die zwischen Amazon EC2 (oder jedem beliebigen AWS-Service) und Amazon S3 in allen anderen Regionen übertragen werden, werden gemäß den Preisen auf der Preisseite zu Amazon S3 in Rechnung gestellt, z. B. Daten, die zwischen der Region Amazon EC2 USA Ost (Nord-Virginia) und der Region Amazon S3 USA West (Nordkalifornien) übertragen werden. Die Kosten für die Datenübertragung werden dem Eigentümer des Quell-Buckets in Rechnung gestellt. Informationen zu den Preisen für S3 on Outposts finden Sie auf der Preisseite für Outposts.

Sie können mit der Verwendung von Amazon S3 beginnen, ohne dass Ihnen Einrichtungsgebühren oder sonstige Verpflichtungen entstehen. Am Monatsende werden Ihnen die Nutzungsgebühren für den betreffenden Monat automatisch in Rechnung gestellt. Sie können die Gebühren für den aktuellen Abrechnungszeitraum jederzeit einsehen. Melden Sie sich hierzu bei Ihrem Amazon Web Services-Konto an und wählen Sie das mit Ihrem Konsolenprofil verbundene „Billing Dashboard“ aus. Mit dem kostenlosen Nutzungskontingent für AWS* können Sie Amazon S3 in allen Regionen außer der Region „AWS GovCloud“ kostenlos nutzen. Bei der Anmeldung erhalten AWS-Neukunden ein Jahr lang monatlich 5 GB Amazon-S3-Standard-Speicher, 20 000 GET-Anforderungen, 2 000 PUT-Anforderungen und 100 GB für ausgehende Datenübertragungen (ins Internet, andere AWS-Regionen oder Amazon CloudFront). Ungenutzte monatliche Nutzung wird nicht auf den nächsten Monat übertragen. Amazon S3 rechnet für folgende Verwendungsarten Gebühren ab. Beachten Sie, dass in den folgenden Berechnungen davon ausgegangen wird, dass keine kostenlosen AWS-Kontingente vorliegen.

In Regionen, in denen uns niedrigere Kosten entstehen, erhebt AWS auch niedrigere Gebühren. Beispielsweise sind unsere Kosten in der Region USA Ost (Nord-Virginia) niedriger als in der Region USA West (Nordkalifornien).

Normale Amazon-S3-Tarife fallen für jede Version eines gespeicherten oder angeforderten Objekts an. Betrachten wir beispielsweise das folgende Szenario, um die Speicherkosten bei der Nutzung von Versioning zu veranschaulichen (unter der Annahme, dass der aktuelle Monat 31 Tage hat). 1) Tag 1 des Monats: Sie führen eine PUT-Anforderung von 4 GB (4 294 967 296 Bytes) für Ihren Bucket aus.
2) Tag 16 des Monats: Sie führen eine PUT-Anfrage von 5 GB (5 368 709 120 Bytes) innerhalb desselben Buckets aus und verwenden denselben Schlüssel wie bei der ursprünglichen PUT-Anfrage an Tag 1.

Bei der Analyse der Speicherkosten der obigen Vorgänge beachten Sie, dass das 4-GB-Objekt von Tag 1 nicht aus dem Bucket gelöscht wird, wenn das 5-GB-Objekt am Tag 15 geschrieben wird. Das 4-GB-Objekt wird hingegen als ältere Version gespeichert und das 5-GB-Objekt wird zur zuletzt geschriebenen Version des Objekts in Ihrem Bucket. Am Ende des Monats: Byte-Hour-Nutzung insgesamt
[4 294 967 296 Bytes x 31 Tage x (24 Stunden/Tag)] + [5 368 709 120 Bytes x 16 Tage x (24 Stunden/Tag)] = 5 257 039 970 304 Byte-Stunden. Umrechnung in Gesamtzahl GB-Monate
5 257 039 970 304 Byte-Stunden x (1 GB / 1 073 741 824 Bytes) x (1 Monat / 744 Stunden) = 6,581 GB-Monat Die Kosten errechnen sich aus den aktuellen Tarifen für Ihre Region, die Sie auf der Preisseite zu Amazon S3 finden.

Beim Zugriff auf den Service über die AWS-Managementkonsole gelten die normalen Preise für Amazon S3. Für eine verbesserte Benutzerfreundlichkeit kann die AWS-Managementkonsole Anforderungen proaktiv ausführen. Einige interaktive Vorgänge führen ebenfalls zur Ausgabe mehrerer Anforderungen an den Service.

Normale Amazon-S3-Tarife gelten, wenn auf Ihren Speicher über ein anderes AWS-Konto zugegriffen wird. Sie können Ihren Bucket auch als „Zahlung durch den Anforderer“-Bucket einrichten. In diesem Fall bezahlt der Anforderer die Kosten für die Anforderungen und Downloads Ihrer Amazon S3-Daten. Weitere Informationen über die „Requester-Pays“-Bucketkonfigurationen finden Sie in der Amazon-S3-Dokumentation.

Falls nicht anders angegeben, gelten unsere Preise zuzüglich anfallender Steuern und Abgaben, darunter MwSt. und Umsatzsteuer. Bei Kunden mit japanischer Rechnungsadresse unterliegt die Nutzung von AWS-Services der japanischen Verbrauchssteuer. Weitere Informationen zu Steuern auf AWS-Services »

AWS bietet berechtigten Kunden eine kostenlose Datenübertragung ins Internet an, wenn sie alle ihre Daten aus AWS übertragen, wie unten beschrieben.

Schließen Sie die folgenden Schritte ab: 1) Wenn Sie ein eigenes AWS-Kontenteam haben, wenden Sie sich zuerst an dieses und informieren Sie es über Ihre Pläne. In einigen Fällen sollten Sie, wenn Sie eine ausgehandelte Vereinbarung mit AWS getroffen haben, Ihre Optionen mit Ihrem AWS-Kundenbetreuungsteam besprechen. 2) Überprüfen Sie die auf dieser Seite beschriebenen Kriterien und Verfahren. 3) Wenden Sie sich an den AWS-Kundensupport und geben Sie an, dass es sich bei Ihrer Anfrage um eine „kostenlose Datenübertragung bei einem Umzug aus AWS“ handelt. Der AWS-Kundensupport wird Sie um die Angabe von Informationen bitten, damit er Ihre Umzugspläne überprüfen kann, beurteilen kann, ob Sie für eine kostenlose Datenübertragung in Frage kommen, und einen angemessenen Kreditbetrag berechnen kann. 4) Wenn der AWS-Kundensupport Ihren Umzug genehmigt, erhalten Sie eine vorübergehende Gutschrift für die Kosten für die ausgehende Datenübertragung auf der Grundlage des Volumens aller Daten, die Sie zum Zeitpunkt der AWS-Berechnung in allen AWS-Services gespeichert haben. Der AWS-Kundensupport benachrichtigt Sie, wenn Sie eine Genehmigung erhalten, und Sie haben dann 60 Tage Zeit, um Ihren Umzug von AWS abzuschließen. Das Guthaben wird nur auf die Nutzung der ausgehenden Datenübertragung angerechnet, nicht auf die Nutzung anderer Dienste. Nachdem Sie die AWS-Services verlassen haben, müssen Sie innerhalb des Zeitraums von 60 Tagen alle verbleibenden Daten und Workloads von Ihrem AWS-Konto löschen, oder Sie können Ihr AWS-Konto schließen. Die kostenlose Datenübertragung bei einem Wechsel des IT-Anbieters unterliegt ebenfalls den folgenden Kriterien: a) Nur Kunden mit einem aktiven AWS-Konto mit einem guten Ruf haben Anspruch auf eine kostenlose ausgehende Datenübertragung. b) Wenn in Ihrem AWS-Konto weniger als 100 GB an Daten gespeichert sind, können Sie diese Daten im Rahmen des bestehenden monatlichen AWS-Kontingents von 100 GB für ausgehende Datenübertragungen kostenlos aus AWS verschieben. Kunden mit weniger als 100 GB an Daten, die in ihrem AWS-Konto gespeichert sind, haben keinen Anspruch auf zusätzliche Kredite. c) AWS bietet Ihnen eine kostenlose Datenübertragung ins Internet, wenn Sie alle Ihre Daten von AWS entfernen. Wenn Sie nur Ihre Gesamtnutzung eines einzelnen Services, aber nicht alles, übertragen möchten, wenden Sie sich an den AWS-Kundensupport.d) Wenn sich Ihre Pläne ändern oder Sie Ihren Umzug von AWS nicht innerhalb von 60 Tagen abschließen können, müssen Sie den AWS-Kundensupport benachrichtigen. e) Die Gebühren für Standardservices für die Nutzung von AWS-Services sind nicht enthalten. Nur Gebühren für ausgehende Datenübertragungen zur Unterstützung Ihres Umzugs von AWS sind gutgeschrieben. Datenübertragungen von speziellen Datenübertragungsservices wie Amazon CloudFront, AWS Direct Connect, AWS Snowball und AWS Global Accelerator sind jedoch nicht enthalten. f) AWS kann Ihre Servicenutzung überprüfen, um die Einhaltung dieser Anforderungen zu überprüfen. Wenn wir feststellen, dass Sie die ausgehende Datenübertragung zu einem anderen Zweck als dem Verlassen von AWS verwendet haben, können wir Ihnen die gutgeschriebene ausgehende Datenübertragung in Rechnung stellen. g) AWS kann jederzeit Änderungen in Bezug auf kostenlose Datenübertragungen ins Internet vornehmen.

AWS-Kunden führen täglich Hunderte Millionen von Datenübertragungen durch, und wir kennen im Allgemeinen nicht den Grund für eine bestimmte Datenübertragung. Beispielsweise können Kunden Daten zu Backup-Zwecken an einen Endbenutzer ihrer Anwendung, an einen Besucher ihrer Website oder an eine andere Cloud- oder On-Premises-Umgebung übertragen. Daher können wir nur dann wissen, dass Ihre Datenübertragung dazu dient, Ihren Umzug von AWS zu unterstützen, wenn Sie uns dies im Voraus mitteilen.

S3 Tables

Alles öffnen

Amazon S3 Tables bieten S3-Speicher, der speziell für Analytik-Workloads optimiert ist. Dadurch wird die Abfrageleistung verbessert und gleichzeitig die Kosten gesenkt. Über die S3-Tables-Integration mit Amazon SageMaker Lakehouse können Sie mit vertrauten AWS-Services wie Amazon Athena, Redshift und EMR auf erweiterte Analysefunktionen von Iceberg zugreifen und Daten abfragen. Darüber hinaus können Sie Iceberg-REST-kompatible Drittanbieteranwendungen wie Apache Spark, Apache Flink, Trino, DuckDB und PyIceberg verwenden, um Daten in S3 Tables zu lesen und zu schreiben. Sie können Tabellen-Buckets verwenden, um tabellarische Daten wie tägliche Kauftransaktionen, Streaming-Sensordaten oder Anzeigenimpressionen als Iceberg-Tabelle in Amazon S3 zu speichern und dann mithilfe von Analytikfunktionen wie Transaktionen auf Zeilenebene, abfragbare Tabellen-Snapshots und mehr, mit diesen Daten zu interagieren, die alle von Amazon S3 verwaltet werden. Darüber hinaus führen Tabellen-Buckets eine kontinuierliche Tabellenwartung durch, um die Abfrageeffizienz im Laufe der Zeit automatisch zu optimieren, auch wenn der Data Lake skaliert und weiterentwickelt wird.

Sie sollten S3 Tables verwenden, um tabellarische Daten auf einfache, leistungsstarke und kostengünstige Weise in Amazon S3 zu speichern. S3 Tables bieten Ihnen die Möglichkeit, Ihre strukturierten Daten in Tabellen zu organisieren und diese Daten dann mit Standard-SQL-Anweisungen abzufragen, praktisch ohne Einrichtung. Darüber hinaus bieten S3 Tables die gleiche Haltbarkeit, Verfügbarkeit, Skalierbarkeit und Leistungsmerkmale wie S3 selbst und optimieren automatisch Ihren Speicher, um die Abfrageleistung zu maximieren und die Kosten zu minimieren.

S3 Tables bieten speziell entwickelten S3-Speicher zum Speichern strukturierter Daten im Apache-Parquet-Format. Innerhalb eines Tabellen-Buckets können Sie Tabellen als erstklassige Ressourcen direkt in S3 erstellen. Diese Tabellen können mit Berechtigungen auf Tabellenebene gesichert werden, die entweder in identitäts- oder ressourcenbasierten Richtlinien definiert sind, und sind für Anwendungen oder Tools zugänglich, die den Apache-Iceberg-Standard unterstützen. Wenn Sie eine Tabelle in Ihrem Tabellen-Bucket erstellen, werden die zugrunde liegenden Daten in S3 als Parquet-Dateien gespeichert. Dann verwendet S3 den Apache-Iceberg-Standard, um die Metadaten zu speichern, die erforderlich sind, damit diese Parquet-Daten von Ihren Anwendungen abgefragt werden können. S3 Tables enthalten eine Client-Bibliothek, die von Abfrage-Engines verwendet wird, um in den Iceberg-Metadaten der Tabellen in Ihrem Tabellen-Bucket zu navigieren und sie zu aktualisieren. Diese Bibliothek ermöglicht in Verbindung mit aktualisierten S3-APIs für Tabellenoperationen mehreren Clients das sichere Lesen und Schreiben von Daten in Ihre Tabellen. Im Laufe der Zeit optimiert S3 automatisch die zugrunde liegenden Parquet-, Avro- oder ORC-Daten, indem Ihre Objekte neu geschrieben oder „komprimiert“ werden. Die Komprimierung optimiert Ihre Daten auf S3, um die Abfrageleistung zu verbessern.

Sie können in nur drei Schritten mit S3 Tables beginnen, ohne eine Infrastruktur außerhalb von Amazon S3 einrichten zu müssen. Erstellen Sie zunächst einen Tabellen-Bucket in der S3-Konsole. Im Rahmen der Erstellung Ihres ersten Tabellen-Buckets über die Konsole erfolgt die Integration mit den AWS-Analytics-Services automatisch, sodass S3 automatisch alle Tabellen-Buckets und Tabellen in Ihrem Konto und Ihrer Region im AWS-Glue-Datenkatalog auffüllen kann. Danach ist S3 Tables jetzt für AWS-Abfrage-Engines wie Amazon Athena, EMR und Redshift zugänglich. Als Nächstes können Sie in der S3-Konsole auf Amazon Athena klicken, um eine Tabelle zu erstellen. Sobald Sie sich in Athena befinden, können Sie umgehend mit dem Erstellen neuer Tabellen und dem Abfragen dieser Tabellen beginnen.

Alternativ können Sie mithilfe des Iceberg-REST-Katalog-Endpunkts über den AWS-Glue-Datenkatalog auf S3 Tables zugreifen, sodass Sie Ihren gesamten Datenbestand einschließlich aller Tabellenressourcen ermitteln können. Sie können auch eine direkte Verbindung zu einem einzelnen Tabellen-Bucket-Endpunkt herstellen, um alle S3-Tables-Ressourcen in diesem Bucket zu ermitteln. Auf diese Weise können Sie S3-Tables mit jeder Anwendung oder Abfrage-Engine verwenden, die die Apache-Iceberg-REST-Katalog-Spezifikation unterstützt.

Sie können mithilfe der CreateTable-API in S3 eine Tabelle in Ihrem Tabellen-Bucket erstellen. Alternativ können Sie Ihre Abfrage-Engine verwenden, um ebenfalls eine Tabelle zu erstellen. Mit der DeleteTable-API in S3 können Sie eine Tabelle aus Ihrem Tabellen-Bucket löschen. Alternativ können Sie Ihre Abfrage-Engine verwenden, um eine Tabelle zu löschen. Wenn Sie dies tun, kann Ihre Abfrage-Engine nicht mehr auf Ihre Tabelle zugreifen.

S3 Tables unterstützen den Apache-Iceberg-Standard, und Abfrage-Engines wie Amazon Athena, Amazon Redshift und Apache Spark können verwendet werden, um Iceberg-Tabellen abzufragen. Sie können verwendet werden, um die Tabellen in Ihren Tabellen-Buckets mit Standard-SQL abzufragen.

Sie können eine bis zu 3-mal schnellere Abfrageleistung und bis zu 10-mal höhere Transaktionen pro Sekunde (TPS) im Vergleich zum Speichern von Iceberg-Tabellen in Amazon-S3-Allzweck-Buckets erwarten. Das liegt daran, dass Tabellen-Buckets automatisch die zugrunde liegenden Parquet-Daten für Ihre Tabellen komprimieren, um die Abfrageleistung zu optimieren. Der speziell entwickelte Speicher unterstützt standardmäßig das bis zu 10-fache TPS.

Nein. Um zu verhindern, dass versehentlich die Integrität Ihrer Tabellen beeinträchtigt wird oder nachgelagerte Anwendungen beschädigt werden, lassen Tabellen-Buckets das manuelle Überschreiben oder Löschen von Objekten nicht zu. Tabellen-Buckets unterstützen nur die Teilgruppe der S3-APIs, die für den Zugriff auf und die Aktualisierung von Iceberg-Tabellen erforderlich sind. Stattdessen können Sie das Entfernen unreferenzierter Dateien und den Ablauf von Snapshots in Ihren Tabellen konfigurieren, um Daten zu löschen.

Tabellen-Buckets bieten Ihnen die Möglichkeit, Ressourcenrichtlinien auf den gesamten Bucket oder auf einzelne Tabellen anzuwenden. Tabellen-Bucket-Richtlinien können mithilfe der PutTablePolicy- und PutTableBucketPolicy-APIs angewendet werden. Mithilfe von Richtlinien auf Tabellenebene können Sie die Berechtigungen für Tabellen in Ihren Tabellen-Buckets auf der Grundlage der logischen Tabelle verwalten, mit der sie verknüpft sind, ohne den physischen Speicherort der einzelnen Parquet-Dateien kennen zu müssen. Darüber hinaus wird S3 Block Public Access immer auf Ihre Tabellen-Buckets angewendet.

Ja. Tabellen-Buckets basieren auf der Snapshot-Funktion von Iceberg, um Ihre Tabellen konsistent zu halten, wenn mehrere Schreiber gleichzeitig arbeiten.

Tabellen-Buckets unterstützen das Apache-Iceberg-Tabellenformat mit Parquet-Daten.

Tabellen-Buckets bieten drei Wartungsvorgänge: Komprimierung, Snapshot-Verwaltung und Entfernung unreferenzierter Dateien. Bei der Komprimierung werden in regelmäßigen Abständen kleinere Objekte zu weniger, größeren Objekten kombiniert, um die Abfrageleistung zu verbessern. Die Snapshot-Verwaltung läuft ab und die Tabellen-Snapshots werden entsprechend Ihrer Snapshot-Aufbewahrungskonfiguration entfernt. Beim Entfernen unreferenzierter Dateien werden gemäß Ihrer Richtlinie zum Entfernen unreferenzierter Dateien Objekte gelöscht, auf die in keinen Tabellen-Snapshots verwiesen wird, wodurch die Speicherkosten optimiert werden.

Ja, S3-Tabellen unterstützen AWS CloudTrail. Sie können CloudTrail-Daten und Verwaltungsereignisse von CloudTrail für Ihre Tabellen-Buckets einrichten, ähnlich wie Sie es mit einem Allzweck-S3-Bucket tun würden. CloudTrail-Protokolle für Ihre Tabellen-Buckets enthalten sowohl Tabellen- als auch Datenobjektinformationen. 

Ja, Daten in Tabellen-Buckets werden standardmäßig mit serverseitiger Verschlüsselung verschlüsselt, wodurch ein grundlegender Schutz für Ihre Daten im Ruhezustand gewährleistet ist. Zur Erhöhung der Sicherheit haben Sie die Möglichkeit, Ihre Daten in S3-Tabellen mit Ihren eigenen Verschlüsselungsschlüsseln zu verschlüsseln. Diese Schlüssel werden in Ihrem AWS-Konto über den AWS Key Management Service (AWS KMS) erstellt und verwaltet. Mit KMS gibt es separate Berechtigungen für die Verwendung des KMS-Schlüssels, wodurch eine zusätzliche Ebene der Kontrolle und des Schutzes vor unbefugtem Zugriff auf Ihre in Tabellen-Buckets gespeicherten Tabellen geschaffen wird. Darüber hinaus generiert KMS einen detaillierten Audit Trail, sodass Sie anhand Ihres Schlüssels verfolgen können, wer wann auf welche Tabelle zugegriffen hat. KMS bietet auch zusätzliche Sicherheitskontrollen, um Sie bei der Einhaltung von Branchenanforderungen wie PCI-DSS, HIPAA/HITECH und FedRAMP zu unterstützen. Dieser umfassende Ansatz für Verschlüsselung und Schlüsselmanagement bietet die Sicherheit und Flexibilität, die Sie benötigen, um Ihre sensiblen Daten effektiv zu schützen.

Mit S3 Tables zahlen Sie für Speicher, Anforderungen und eine Objektüberwachungsgebühr pro Objekt, das in Tabellen-Buckets gespeichert ist. Es fallen auch zusätzliche Gebühren für die Tabellenwartung an. Preisdetails finden Sie auf der S3-Preisseite.

Die Komprimierung kombiniert kleinere Objekte zu weniger, größeren Objekten, um die Iceberg-Abfrageleistung zu verbessern. Amazon S3 komprimiert Tabellen auf der Grundlage einer für Ihr Datenzugriffsmuster optimalen Zieldateigröße oder eines von Ihnen angegebenen Werts. Die komprimierten Dateien werden als der neueste Snapshot Ihrer Tabelle geschrieben. Die Komprimierung wird standardmäßig für alle S3-Tabellen mit einer Standard-Zieldateigröße von 512 MB unterstützt. Sie können die Zieldateigröße mithilfe der PutTableMaintenanceConfiguration-API von 64 MB auf 512 MB ändern. 

Die Snapshot-Verwaltung läuft ab und die Tabellen-Snapshots werden gemäß der Snapshot-Aufbewahrungskonfiguration entfernt. Die Snapshot-Verwaltung bestimmt die Anzahl der aktiven Snapshots für Ihre Tabellen auf der Grundlage von MinimumSnapshots (standardmäßig 1) und MaximumSnapshotage (standardmäßig 120 Stunden). Wenn ein Snapshot abläuft, erstellt Amazon S3 Löschmarkierungen für die Daten- und Metadatendateien, auf die dieser Snapshot eindeutig verweist, und markiert diese Dateien als nicht aktuell. Diese nicht aktuellen Dateien werden nach Ablauf der Anzahl von Tagen gelöscht, die in der Eigenschaft NoncurrentDays in Ihrer Richtlinie zum Entfernen unreferenzierter Dateien angegeben ist. Sie können die Standardwerte für Snapshots mithilfe der PutTableMaintenanceConfiguration-API ändern. Die Snapshot-Verwaltung unterstützt keine Aufbewahrungswerte, die Sie in der Iceberg-metadata.json-Datei konfigurieren, einschließlich der branch- oder tagbasierten Aufbewahrung. Die Snapshot-Verwaltung für S3 Tables ist deaktiviert, wenn Sie eine Branch- oder Tag-basierte Aufbewahrungsrichtlinie konfigurieren oder eine Aufbewahrungsrichtlinie für die Datei metadata.json konfigurieren, die länger ist als die über die PutTableMaintenanceConfiguration-API konfigurierten Werte. 

Beim Entfernen unreferenzierter Dateien werden alle Objekte identifiziert und gelöscht, auf die in keinen Tabellen-Snapshots verwiesen wird. Im Rahmen Ihrer Richtlinie zum Entfernen unreferenzierter Dateien können Sie zwei Eigenschaften konfigurieren: ExpireDays (standardmäßig 3 Tage) und NoncurrentDays (standardmäßig 10 Tage). Für jedes Objekt, auf das in Ihrer Tabelle nicht verwiesen wird und das älter als die Eigenschaft ExpireDays ist, löscht S3 die Objekte dauerhaft nach der in der NoncurrentDays-Eigenschaft angegebenen Anzahl von Tagen. Sie können das Entfernen unreferenzierter Dateien auf Tabellen-Bucket-Ebene konfigurieren. Sie können die Standardwerte für die Snapshot-Aufbewahrung mithilfe der PutTableBucketMaintenanceConfiguration-API ändern.

S3 Vectors

Alles öffnen

Sie können in vier einfachen Schritten mit S3 Vectors beginnen, ohne eine Infrastruktur außerhalb von Amazon S3 einrichten zu müssen. Erstellen Sie zunächst einen Vektor-Bucket in einer bestimmten AWS-Region über die CreateVectorBucket-API oder in der S3-Konsole. Zweitens erstellen Sie einen Vektorindex mit der CreateIndex-API oder in der S3-Konsole, um Ihre Vektordaten in einem Vektor-Bucket zu organisieren. Wenn Sie einen Vektorindex erstellen, geben Sie die Entfernungsmetrik (Kosinus oder Euklidisch) und die Anzahl der Dimensionen an, die ein Vektor haben sollte (bis zu 4 092). Wählen Sie für die genauesten Ergebnisse die von Ihrem Einbettungsmodell empfohlene Entfernungsmetrik aus. Drittens fügen Sie einem Vektorindex mit der PutVectors API Vektordaten hinzu. Sie können optional Metadaten als Schlüsselwertpaare an jeden Vektor anhängen, um Abfragen zu filtern. Viertens führen Sie mithilfe der QueryVectors-API eine Ähnlichkeitsabfrage durch und geben Sie den zu suchenden Vektor und die Anzahl der ähnlichsten Ergebnisse an, die zurückgegeben werden sollen.

Sie können einen Vektorindex mit der S3-Konsole oder der CreateIndex-API erstellen. Bei der Indexerstellung geben Sie den Vektor-Bucket, den Index, die Entfernungsmetrik, die Dimensionen und optional eine Liste von Metadatenfeldern an, die Sie bei Ähnlichkeitsabfragen von der Filterung ausschließen möchten. Wenn Sie beispielsweise Daten, die mit Vektoren verknüpft sind, nur zu Referenzzwecken speichern möchten, können Sie diese als nicht filterbare Metadatenfelder angeben. Bei der Erstellung wird jedem Index ein eindeutiger Amazon-Ressourcenname (ARN) zugewiesen. Wenn Sie anschließend eine Schreib- oder Abfrageanforderung stellen, leiten Sie diese an einen Vektorindex innerhalb eines Vektor-Buckets weiter.

Mit der PutVectors API können Sie Vektoren zu einem Vektorindex hinzufügen. Jeder Vektor besteht aus einem Schlüssel, der jeden Vektor in einem Vektorindex eindeutig identifiziert (z. B. können Sie programmgesteuert eine UUID generieren). Um den Schreibdurchsatz zu maximieren, wird empfohlen, Vektoren in großen Batches bis zur maximalen Anforderungsgröße einzufügen. Darüber hinaus können Sie Metadaten (wie Jahr, Autor, Genre und Ort) als Schlüsselwertpaare an jeden Vektor anhängen. Bei der Einbindung von Metadaten können standardmäßig alle Felder als Filter in einer Ähnlichkeitsabfrage verwendet werden, sofern sie nicht zum Zeitpunkt der Erstellung des Vektorindexes als nicht filterbare Metadaten gekennzeichnet wurden. Um neue Vektoreinbettungen Ihrer unstrukturierten Daten zu generieren, können Sie die InvokeModel-API von Amazon Bedrock verwenden und dabei die Modell-ID des Einbettungsmodells angeben, das Sie verwenden möchten.

Sie können die GetVectors-API verwenden, um Vektoren und zugehörige Metadaten anhand des Vektorschlüssels nachzuschlagen und zurückzugeben.

Sie können eine Ähnlichkeitsabfrage mit der QueryVectors API ausführen und dabei den Abfragevektor, die Anzahl der relevanten Ergebnisse, die zurückgegeben werden sollen (die besten .000 nächsten Nachbarn) und den Index-ARN angeben. Beim Generieren des Abfrage-Vektors sollten Sie dasselbe Einbettungsmodell verwenden, das zum Generieren der im Vektorindex gespeicherten Anfangsvektoren verwendet wurde. Wenn Sie beispielsweise Amazon Titan Text Embeddings v2 in Amazon Bedrock verwenden, um Einbettungen Ihrer Dokumente zu generieren, wird empfohlen, dasselbe Modell zu verwenden, um eine Frage in einen Vektor umzuwandeln. Darüber hinaus können Sie Metadatenfilter in einer Abfrage verwenden, um nach Vektoren zu suchen, die dem Filter entsprechen. Wenn Sie die Ähnlichkeitsabfrage ausführen, werden standardmäßig die Vektorschlüssel zurückgegeben. Sie können optional die Entfernung und die Metadaten in die Antwort aufnehmen.

S3 Vectors bietet einen äußerst langlebigen und verfügbaren Vektorspeicher. In S3 Vectors geschriebene Daten werden auf S3 gespeichert, das für eine Datenbeständigkeit von 11 9s ausgelegt ist. S3 Vectors wurde für eine Verfügbarkeit von 99,99 % mit einer Verfügbarkeits-SLA von 99.9 % entwickelt.

S3 Vectors bietet Abfragelatenzzeiten von unter einer Sekunde. Es nutzt den elastischen Durchsatz von Amazon S3, um Suchanfragen über Millionen von Vektoren abzuwickeln, und ist ideal für seltene Abfrage-Workloads.

Bei der Durchführung von Ähnlichkeitsabfragen für Ihre Vektoreinbettungen können mehrere Faktoren den durchschnittlichen Erinnerungswert beeinflussen, darunter das Einbettungsmodell, die Größe des Vektor-Datensatzes (Anzahl der Vektoren und Dimensionen) und die Verteilung der Abfragen. S3 Vectors bietet für die meisten Datensätze eine durchschnittliche Erinnerungsrate von über 90 %. Average Recall misst die Qualität der Abfrageergebnisse – 90 % bedeuten, dass die Antwort 90 % der Ground-Truth-Vektoren enthält, die im Index gespeichert sind und dem Abfragefektor am nächsten sind. Da die tatsächliche Leistung jedoch je nach Ihrem speziellen Anwendungsfall variieren kann, empfehlen wir, Ihre eigenen Tests mit repräsentativen Daten und Abfragen durchzuführen, um zu überprüfen, ob S3-Vektorindizes Ihre Anforderungen erfüllen.

Sie können eine Liste von Vektoren in einem Vektorindex mit der ListVectors-API sehen, die bis zu 1 000 Vektoren gleichzeitig mit einem Indikator zurückgibt, wenn die Antwort gekürzt wird. Die Antwort enthält das Datum der letzten Änderung, den Vektorschlüssel, die Vektordaten und die Metadaten. Sie können auch die ListVectors API verwenden, um Vektordaten einfach aus einem bestimmten Vektorindex zu exportieren. Der ListVectors-Vorgang ist sehr konsistent. Nach einem Schreibvorgang können Sie also sofort Vektoren mit allen Änderungen auflisten.

Mit S3 Vectors zahlen Sie für Speicherplatz und alle anfallenden Schreib- und Leseanforderungen (z. B. das Einfügen von Vektoren und das Ausführen von Abfrageoperationen an Vektoren in einem Vektorindex). Preisdetails finden Sie auf der S3-Preisseite.

Ja. Während Sie eine Bedrock Knowledge Base über die Bedrock-Konsole oder -API erstellen, können Sie einen vorhandenen S3-Vektorindex als Ihren Vektorspeicher konfigurieren, um Vektorspeicherkosten für RAG-Anwendungsfälle zu sparen. Wenn Sie es vorziehen, Bedrock den Vektorindex für Sie erstellen und verwalten zu lassen, verwenden Sie den Quick-Create-Workflow in der Bedrock-Konsole. Darüber hinaus können Sie einen neuen S3-Vektorindex als Ihren Vektorspeicher für RAG-Workflows in Amazon SageMaker Unified Studio konfigurieren.

Ja. Es gibt zwei Möglichkeiten, S3 Vectors mit Amazon OpenSearch Service zu verwenden. Erstens können S3-Kunden alle Vektoren aus einem S3-Vektorindex als neue Serverless-Sammlung mithilfe der S3- oder OpenSearch-Konsole nach OpenSearch Serverless exportieren. Wenn Sie nativ auf S3 Vectors aufbauen, profitieren Sie von der Möglichkeit, OpenSearch Serverless selektiv für Workloads mit Echtzeitabfrageanforderungen zu verwenden. Zweitens: Wenn Sie ein verwalteter OpenSearch-Kunde sind, können Sie nun S3 Vectors als Ihre Engine für Vektordaten auswählen, die mit einer Latenz von weniger als einer Sekunde abgefragt werden können. OpenSearch verwendet dann automatisch S3 Vectors als zugrunde liegende Engine für Vektoren und Sie können Ihre Vektordaten mithilfe der OpenSearch-APIs aktualisieren und durchsuchen. Sie profitieren von den Kostenvorteilen von S3 Vectors, ohne Änderungen an Ihren Anwendungen vornehmen zu müssen.

Amazon S3 und IPv6

Alles öffnen

Alle Server und Geräte, die mit dem Internet verbunden sind, müssen eine eindeutige Adresse haben. Internet Protocol Version 4 (IPv4) war das Originalschema für 32-Bit-Adressen. Das anhaltende Wachstum des Internets würde jedoch dazu führen, dass alle verfügbaren IPv4-Adressen nach einiger Zeit in Gebrauch sind. Internet Protocol Version 6 (IPv6) ist ein Adressierungsmechanismus, der dazu konzipiert wurde, die globalen Adresseinschränkungen von IPv4 zu überwinden.

Mit der IPv6-Unterstützung für Amazon S3 können Anwendungen eine Verbindung zu Amazon S3 herstellen, ohne Software oder Systeme für die Übersetzung von IPv6 in IPv4 zu benötigen. Sie können Compliance-Anforderungen erfüllen, eine Integration mit bestehenden Vor-Ort-Anwendungen auf IPv6-Basis einfacher durchführen und die Notwendigkeit teurer Netzwerkausrüstung zum Verarbeiten der Adressenübersetzung eliminieren. Sie können jetzt außerdem die vorhandenen Features zum Filtern von Quelladressen in IAM-Richtlinien und Bucket-Richtlinien mit IPv6-Adressen nutzen, um Ihre Optionen zum Schützen von Anwendungen bei der Zusammenarbeit mit Amazon S3 zu erweitern.

Sie können damit beginnen, Ihre Anwendung auf den „Dual Stack“-Endpunkt von Amazon S3 zu verweisen, der Zugriff sowohl über IPv4 als auch über IPv6 unterstützt. In den meisten Fällen wird für den Zugriff über IPv6 keine weitere Konfiguration benötigt, da die meisten Netzwerk-Clients standardmäßig IPv6-Adressen bevorzugen. Anwendungen, die durch die Verwendung von IPv6 beeinträchtigt werden, können jederzeit auf die standardmäßigen nur IPv4-fähigen Endpunkte zurückgeschaltet werden. IPv6 für Amazon S3 wird in allen kommerziellen AWS-Regionen unterstützt, einschließlich der Regionen AWS GovCloud (USA) und der Amazon-Web-Services-Regionen China (Peking), die von Sinnet betrieben wird, und China (Ningxia), die von NWCD betrieben wird. 

Nein, die Leistung von Amazon S3 ist mit IPv4 und IPv6 gleich.

S3-Ereignisbenachrichtigungen

Alles öffnen

Sie können das Feature Amazon-S3-Ereignisbenachrichtigungen verwenden, um Benachrichtigungen zu erhalten, wenn bestimmte Ereignisse in Ihrem S3-Bucket auftreten, z.B. PUT-, POST-, COPY- und DELETE-Ereignisse. Sie können diese Benachrichtigungen in Amazon EventBridgeAmazon SNS, Amazon SQS oder direkt in AWS Lambda veröffentlichen.

Amazon-S3-Ereignisbenachrichtigungen ermöglichen Ihnen das Auslösen von Workflows, das Versenden von Warnungen und andere Aktionen als Reaktion auf Änderungen Ihrer Objekte, die in S3 gespeichert sind. Mit S3-Ereignisbenachrichtigungen können Sie Auslöser für die Ausführung von Aktionen einrichten, zum Beispiel für die Transkodierung von Mediendateien beim Hochladen, die Verarbeitung von Datendateien, wenn diese verfügbar werden, und die Synchronisierung von S3-Objekten mit anderen Datenspeichern. Sie können außerdem Ereignisbenachrichtigungen anhand von Objektnamenpräfixen und -suffixen einrichten. Zum Beispiel können Sie wahlweise Benachrichtigungen über Objektnamen erhalten, die mit „images/“ beginnen.

Eine detaillierte Beschreibung der Informationen, die in den Amazon-S3-Ereignisbenachrichtigungen enthalten sind, finden Sie in der Dokumentation zur Konfiguration von Amazon-S3-Ereignisbenachrichtigungen

Eine detaillierte Beschreibung der Konfiguration von Ereignisbenachrichtigungen finden Sie in der Dokumentation Konfiguration von Amazon-S3-Ereignisbenachrichtigungen. Weitere Informationen über AWS-Messaging-Services finden Sie in der Amazon-SNS-Dokumentation und der Amazon-SQS-Dokumentation.

Für die Nutzung von Amazon-S3-Ereignisbenachrichtigungen werden keine zusätzlichen Gebühren berechnet. Sie zahlen lediglich für die Nutzung von Amazon SNS oder Amazon SQS für die Lieferung von Ereignisbenachrichtigungen oder für die Ausführung einer AWS Lambda-Funktion. Besuchen Sie die Seiten mit den Preisen für Amazon SNS, Amazon SQS oder AWS Lambda, um Einzelheiten zu den Preisen für diese Services zu finden.

Amazon S3 Transfer Acceleration

Alles öffnen

Amazon S3 Transfer Acceleration ermöglicht die schnelle, einfache und sichere Übertragung von Dateien über große Entfernungen zwischen Ihrem Client und Ihrem Amazon-S3-Bucket. S3 Transfer Acceleration nutzt die weltweit verteilten AWS-Edge-Standorte von Amazon CloudFront. Wenn Daten an einem AWS-Edge-Standort eintreffen, werden sie über einen optimierten Netzwerkpfad an Ihren Amazon-S3-Bucket weitergeleitet.

Um mit der Nutzung von S3 Transfer Acceleration zu beginnen, aktivieren Sie S3 Transfer Acceleration in einem S3-Bucket mithilfe der Amazon-S3-Konsole, der Amazon-S3-API oder der AWS CLI. Nachdem S3 Transfer Acceleration aktiviert wurde, können Sie mit Ihren Amazon S3-PUT- und -GET-Anforderungen auf den Endpunkt-Domain-Namen „s3-accelerate“ verweisen. Ihre Anwendung für die Datenübertragung muss einen der beiden folgenden Endpunkttypen verwenden, um auf den Bucket für schnellere Datenübertragung zuzugreifen: .s3-accelerate.amazonaws.com oder .s3-accelerate.dualstack.amazonaws.com für den „Dual Stack“-Endpunkt. Wenn Sie die Standard-Datenübertragung verwenden möchten, können Sie weiterhin die regulären Endpunkte verwenden. Es gibt bestimmte Einschränkungen dazu, welche Buckets S3 Transfer Acceleration unterstützen. Einzelheiten finden Sie in der Dokumentation zu Amazon S3.

Mit S3 Transfer Acceleration können Sie Ihre Bandbreite voll nutzen, die Auswirkungen der Entfernung auf den Durchsatz minimieren und die gleichbleibend schnelle Datenübertragung zu Amazon S3 unabhängig vom Standort des Clienten sicherstellen. Die Beschleunigung hängt dabei vor allem von der verfügbaren Bandbreite, der Entfernung zwischen Quelle und Ziel und den Paketverlustraten im Netzwerkpfad ab. Allgemein ist die Beschleunigung höher, wenn die Quelle weiter vom Ziel entfernt ist, wenn es mehr verfügbare Bandbreite gibt und/oder wenn das Objekt größer ist. Ein Kunde hat eine Reduzierung der Durchschnittszeit von 50 % für die Aufnahme von 300 MB an Dateien von einer globalen Benutzerbasis, die in den USA, in Europa und in Teilen Asiens verteilt ist, zu einem Bucket in der Region Asien Pazifik (Sydney) gemessen. Ein anderer Kunde hat Fälle beobachtet, in denen die Leistung für Benutzer in Südostasien und Australien beim Hochladen von 250 MB an Dateien (zu jeweils 50 MB) in einen S3-Bucket in der Region USA Ost (Nord-Virginia) um 500 % erhöht wurde. Greifen Sie auf das Geschwindigkeitsvergleichstool von S3 Transfer Acceleration zu, um eine Vorschau auf den Leistungsvorteil an Ihrem Standort zu erhalten.

S3 Transfer Acceleration wurde entwickelt, um die Übertragungsgeschwindigkeiten aus aller Welt in S3-Buckets zu optimieren. Wenn Sie Daten in einen zentralisierten Bucket von geografisch verteilten Standorten aus hochladen oder wenn Sie regelmäßig mehrere GB oder TB an Daten über Kontinente hinweg übertragen, können Sie mit S3 Transfer Acceleration Stunden oder Tage an Datenübertragungszeit sparen.

S3 Transfer Acceleration bietet die gleiche Sicherheit wie reguläre Übertragungen zu Amazon S3. Alle Amazon S3-Sicherheitsfeatures, zum Beispiel Zugriffsbeschränkungen basierend auf der IP-Adresse eines Clients, werden ebenfalls unterstützt. S3 Transfer Acceleration kommuniziert mit Clients über Standard-TCP und erfordert keine Firewall-Änderungen. An AWS-Edge-Standorten werden keine Daten gespeichert.

Jedes Mal, wenn Sie S3 Transfer Acceleration zum Hochladen eines Objekts verwenden, überprüfen wir, ob S3 Transfer Acceleration wahrscheinlich schneller als eine reguläre Amazon-S3-Übertragung sein wird. Wenn wir ermitteln, dass S3 Transfer Acceleration wahrscheinlich nicht schneller als eine reguläre Amazon-S3-Übertragung des gleichen Objekts in die gleiche AWS-Zielregion sein wird, erheben wir für die Verwendung von S3 Transfer Acceleration für diese Übertragung keine Gebühr und umgehen möglicherweise das S3 Transfer Acceleration-System für diesen Upload.

Ja, S3 Transfer Acceleration unterstützt alle Features auf Bucket-Ebene, einschließlich mehrteiliger Uploads.

S3 Transfer Acceleration optimiert das TCP-Protokoll und fügt zusätzliche Informationen zwischen dem Client und dem S3-Bucket hinzu, sodass S3 Transfer Acceleration die bessere Wahl ist, wenn ein höherer Durchsatz gewünscht wird. Wenn Sie Objekte haben, die kleiner als 1 GB sind, oder wenn der gesamte Datensatz kleiner als 1 GB ist, sollten Sie für eine optimale Leistung die PUT-/POST-Befehle von Amazon CloudFront verwenden.

AWS Direct Connect ist eine gute Wahl für Kunden, die ein privates Netzwerk benötigen oder Zugriff auf den AWS-Direct-Connect-Datenaustausch haben. S3 Transfer Acceleration eignet sich vor allem für das Versenden von Daten von verteilten Client-Standorten über das öffentliche Internet oder in Fällen, in denen der Durchsatz aufgrund variabler Netzwerkbedingungen schlecht ist. Einige AWS-Direct-Connect-Kunden verwenden S3 Transfer Acceleration für Übertragungen an Filialen, die möglicherweise unter einer schlechten Internetleistung leiden.

Wenn Sie das Bucket-Ziel im Gateway Ihres Drittanbieters mit dem Domainnamen eines S3-Transfer-Acceleration-Endpunkts konfigurieren können, können Sie diesen Vorteil nutzen.
Weitere Informationen zur AWS-Implementierung erhalten Sie unter Dateiabschnitt: Storage Gateway – Häufig gestellte Fragen.

Ja. Softwarepakete, die eine direkte Verbindung mit Amazon S3 herstellen, können S3 Transfer Acceleration nutzen, wenn sie ihre Aufträge an Amazon S3 senden. Weitere Informationen über Storage Partner Solutions »

Ja, AWS hat sein HIPAA-Compliance-Programm auf S3 Transfer Acceleration als HIPAA-fähigen Service ausgeweitet. Wenn Sie ein aktives Business Associate Agreement (BAA) mit AWS haben, können Sie S3 Transfer Acceleration verwenden, um die schnelle, einfache und sichere Übertragung von Dateien, darunter auch geschützte Gesundheitsinformationen (Protected Health Information, PHI), über weite Entfernungen zwischen Ihrem Client und Ihrem Amazon-S3-Bucket zu ermöglichen.

Sicherheit

Alles öffnen

     Amazon S3 ist standardmäßig sicher. Nach der Erstellung haben nur Sie Zugriff auf die von Ihnen erstellten Amazon S3-Buckets, und Sie haben die vollständige Kontrolle darüber, wer Zugriff auf Ihre Daten hat. Amazon S3 unterstützt Funktionen zur Benutzerauthentifizierung, um den Zugriff auf die Daten zu kontrollieren. Sie haben Zugriff auf die Kontrollmechanismen wie die Bucket-Richtlinien, um bestimmten Benutzern und Benutzergruppen selektiv Zugriffsrechte zu erteilen. Die Amazon S3-Konsole hebt Ihre öffentlich zugänglichen Buckets hervor, zeigt die Quelle des öffentlichen Zugangs an und warnt Sie außerdem, wenn durch Änderungen an Bucket-Richtlinien oder Bucket-Zugriffssteuerungslisten Ihr Bucket öffentlich zugänglich wird. Sie sollten Amazon S3 Block Public Access für alle Konten und Buckets aktivieren, von denen Sie nicht möchten, dass sie öffentlich zugänglich sind. Bei allen neuen Buckets ist Block Public Access standardmäßig aktiviert. Über SSL-Endpunkte, die das HTTPS-Protokoll verwenden, können Sie sicher Ihre Daten in Amazon S3 hoch- bzw. herunterladen. Amazon S3 verschlüsselt automatisch alle Objekt-Uploads in Ihren Bucket (ab dem 5. Januar 2023). Alternativ können Sie mit Ihren eigenen Verschlüsselungsbibliotheken Daten vor dem Speichern in Amazon S3 verschlüsseln.
Weitere Informationen zur Sicherheit in AWS finden Sie auf der Seite AWS Security. Sicherheitsinformationen zu S3 finden Sie auf der Seite S3 Security und dem Leitfaden zu bewährten S3-Sicherheitsmethoden.

Kunden können eine Reihe von Mechanismen zur Kontrolle des Zugriffs auf Amazon-S3-Ressourcen verwenden, einschließlich AWS-IAM (Identity and Access Management)-Richtlinien, Bucket-Richtlinien, Zugangspunktrichtlinien, Zugriffssteuerungslisten (ACLs), Abfrage-String-Authentifizierung, Amazon-VPC (Virtual Private Cloud)-Endpunktrichtlinien, Service-Kontrollrichtlinien (SCPs) in AWS Organizations und Amazon S3 Block Public Access.

Ja, Kunden können optional Amazon-S3-Buckets konfigurieren, um Zugriffsprotokolle für sämtliche Zugriffe zu erstellen. Alternativ können Kunden, die IAM-Informationen/Informationen über die Identität von Benutzern in ihren Protokollen erfassen müssen, AWS CloudTrail-Datenereignisse konfigurieren. Diese Zugriffsprotokolle können für die Durchführung von Audits verwendet werden und enthalten Details zu den jeweiligen Datenabrufen, wie beispielsweise die Art des Abrufs, die bei dem Abruf verwendeten Dateien oder die das Datum und die Uhrzeit des Abrufs.

Amazon S3 verschlüsselt alle neuen Daten-Uploads in einen beliebigen Bucket. Amazon S3 wendet die von S3 verwaltete serverseitige Verschlüsselung (SSE-S3) als Basisverschlüsselung für alle Objekt-Uploads an (ab dem 5. Januar 2023). SSE-S3 bietet eine vollständig verwaltete Lösung, wobei Amazon wichtige Aspekte von Management und Schutz übernimmt und mehrere Sicherheitsebenen verwendet. Wenn Sie möchten, dass sich Amazon um die Verwaltung Ihrer Schlüssel kümmert, sollten Sie SSE-S3 weiterhin verwenden. Darüber hinaus können Sie Daten mit SSE-C, SSE-KMS, DSSE-KMS oder einer Client-Bibliothek wie dem Amazon S3 Encryption Client verschlüsseln. Mit jeder Option können Sie vertrauliche Daten während der Speicherung auf Amazon S3 verschlüsseln. Mit SSE-C kann Amazon S3 die Ver- und Entschlüsselung von Objekten durchführen, während Sie die Kontrolle über die Verschlüsselungsschlüssel behalten. Mit SSE-C brauchen Sie keine clientseitige Bibliothek zu implementieren oder zu verwenden, um die Verschlüsselung und Entschlüsselung von Objekten durchzuführen, die Sie auf Amazon S3 speichern. Sie müssen aber die Schlüssel verwalten, die Sie an Amazon S3 senden, um Objekte zu ver- und entschlüsseln. Verwenden Sie SSE-C, wenn Sie Ihre eigenen Verschlüsselungscodes verwalten möchten, aber keine clientseitige Verschlüsselungsbibliothek implementieren oder nutzen möchten. SSE-KMS lässt AWS Key Management Service (AWS KMS) Ihre Verschlüsselungscodes verwalten. Die Verwendung von AWS KMS zum Verwalten Ihrer Schlüssel bietet mehrere zusätzliche Vorteile. Mit AWS KMS gibt es separate Berechtigungen für die Verwendung des KMS-Schlüssels. Dies bietet eine zusätzliche Kontrollebene und Schutz gegen nicht autorisierten Zugriff auf die in Amazon S3 gespeicherten Objekte. AWS KMS bietet einen Audit-Trail, sodass Sie sehen können, wer Ihren Schlüssel wann benutzt hat, um auf welches Objekt zuzugreifen, und welche fehlgeschlagenen Versuche es von Benutzern ohne Berechtigung gab, die Daten zu entschlüsseln. Außerdem bietet AWS KMS zusätzliche Sicherheitskontrollen zur Unterstützung der Kunden beim Einhalten der Branchenanforderungen PCI-DSS, HIPAA/HITECH und FedRAMP. DSSE-KMS vereinfacht den Prozess der Anwendung zweier Verschlüsselungsebenen auf Ihre Daten, ohne dass Sie in die für die clientseitige Verschlüsselung erforderliche Infrastruktur investieren müssen. Jede Verschlüsselungsebene verwendet eine andere Implementierung des 256-Bit-Algorithmus „Advanced Encryption Standard with Galois Counter Mode“ (AES-GCM) und wird für die Verwendung bei streng geheimen Workloads überprüft und akzeptiert. DSSE-KMS verwendet AWS KMS zum Generieren von Datenschlüsseln und lässt AWS KMS Ihre Verschlüsselungsschlüssel verwalten. Mit AWS KMS gibt es separate Berechtigungen für die Verwendung des KMS-Schlüssels. Dies bietet eine zusätzliche Kontrollebene und Schutz gegen nicht autorisierten Zugriff auf die in Amazon S3 gespeicherten Objekte. AWS KMS bietet einen Audit-Trail, sodass Sie sehen können, wer Ihren Schlüssel wann benutzt hat, um auf welches Objekt zuzugreifen, und welche fehlgeschlagenen Versuche es von Benutzern ohne Berechtigung gab, die Daten zu entschlüsseln. Außerdem bietet AWS KMS zusätzliche Sicherheitskontrollen zur Unterstützung der Kunden beim Einhalten der Branchenanforderungen PCI-DSS, HIPAA/HITECH und FedRAMP. Bei Verwendung einer Client-Verschlüsselungsbibliothek behalten Sie die Kontrolle über die Schlüssel und vervollständigen Sie die Ver- und Entschlüsselung von Objekten auf der Client-Seite mit einer Verschlüsselungsbibliothek Ihrer Wahl. Manche Kunden möchten die vollständige Kontrolle über die Verschlüsselung und Entschlüsselung von Objekten behalten. In diesem Fall werden nur verschlüsselte Objekte über das Internet zu Amazon S3 gesendet. Verwenden Sie eine clientseitige Bibliothek, wenn Sie die Kontrolle über Ihre Verschlüsselungscodes behalten wollen, eine clientseitige Verschlüsselungsbibliothek implementieren oder verwenden können und Ihre Objekte verschlüsseln müssen, bevor sie zur Speicherung zu Amazon S3 gesendet werden. Weitere Informationen zur Verwendung von Amazon S3 SSE-S3, SSE-C oder SSE-KMS finden Sie in der Dokumentation: Schutz von Daten durch Verschlüsselung.

Kunden können alle Daten in Europa speichern, indem Sie die Region Europa (Frankfurt), Europa (Irland), Europa (Paris), Europa (Stockholm), Europa (Mailand), Europa (Spanien), Europa (London) oder Europa (Zürich) wählen. Sie können auch Amazon S3 auf Outposts verwenden, um alle Ihre Daten On-Premises auf dem AWS Outpost zu halten, und Sie können wählen, ob Sie Daten zwischen AWS Outposts oder in eine AWS-Region übertragen möchten. Dennoch liegt es in Ihrer Verantwortung sicherzustellen, dass Sie die europäischen Datenschutzbestimmungen einhalten. Weitere Informationen finden Sie im AWS-Datenschutz-Grundverordnungs (DSGVO)-Zentrum und AWS-Datenschutz-Zentrum. Wenn Sie spezifischere Standortanforderungen oder andere Datenschutzbestimmungen haben, die Sie dazu verpflichten, Daten an einem Ort aufzubewahren, an dem es keine AWS Region gibt, können Sie S3-Speicherklassen für dedizierte AWS Local Zones oder S3 auf Outposts verwenden.


Standardmäßig bleiben Ihre Objektdaten und Objektmetadaten in der einzigen dedizierten Local Zone, in der Sie das Objekt platziert haben. Bucket-Verwaltungs- und Telemetriedaten, einschließlich Bucket-Namen, Kapazitätsmetriken, CloudTrail-Protokolle, CloudWatch-Metriken, vom Kunden verwaltete Schlüssel von AWS Key Management Service (KMS) und IAM-Richtlinien (Identity and Access Management), werden wieder in der übergeordneten AWS-Region gespeichert. Optional speichern andere Bucket-Verwaltungsfunktionen, wie S3 Batch Operations, Verwaltungsmetadaten mit Bucket-Namen und Objektnamen in der übergeordneten AWS-Region.

Ein Amazon-VPC-Endpunkt für Amazon S3 ist eine logische Entität innerhalb einer VPC, die die Verbindung zu S3 über das globale AWS-Netzwerk ermöglicht. Es gibt zwei Arten von VPC-Endpunkten für S3: Gateway-VPC-Endpunkte und Schnittstellen-VPC-Endpunkte. Gateway-Endpunkte sind ein Gateway, das Sie in Ihrer Routentabelle angeben, um von Ihrer VPC über das AWS-Netzwerk auf S3 zuzugreifen. Schnittstellenendpunkte erweitern die Funktionalität von Gateway-Endpunkten, indem sie private IP-Adressen verwenden, um Anforderungen aus Ihrer VPC, lokal oder aus einer anderen AWS-Region an S3 weiterzuleiten. Weitere Informationen finden Sie in der Dokumentation zu AWS PrivateLink für Amazon S3.

Sie können den Zugriff auf Ihren Bucket von einem bestimmten Amazon-VPC-Endpunkt oder einer Gruppe von Endpunkten aus mithilfe von Amazon-S3-Bucket-Richtlinien begrenzen. S3-Bucket-Richtlinien unterstützen nun die Bedingung aws:sourceVpce, mit der Sie den Zugriff beschränken können. Weitere Details und Beispielrichtlinien finden Sie in der Dokumentation zu Gateway-Endpunkten für S3


Sie können einen Schnittstellen-VPC-Endpunkt mithilfe der AWS-VPC-Managementkonsole, der AWS Command Line Interface (AWS CLI), des AWS SDK oder der API erstellen. Weitere Informationen finden Sie in der Dokumentation.

Ja. Wenn Sie über einen vorhandenen Gateway-VPC-Endpunkt verfügen, erstellen Sie einen Schnittstellen-VPC-Endpunkt in Ihrer VPC und aktualisieren Sie Ihre Clientanwendungen mit den spezifischen VPC-Endpunktnamen. Wenn Ihre VPC-Endpunkt-ID des Schnittstellenendpunkts beispielsweise vpce-0fe5b17a0707d6abc-29p5708s in der Region us-east-1 lautet, lautet Ihr Endpunkt-spezifischer DNS-Name vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce. amazonaws.com. In diesem Fall werden nur die Anforderungen an die spezifischen Namen des VPC-Endpunkts über die Schnittstellen-VPC-Endpunkte an S3 weitergeleitet, während alle anderen Anforderungen weiterhin über den Gateway-VPC-Endpunkt weitergeleitet werden. Weitere Informationen finden Sie in der Dokumentation.

Amazon Macie ist ein KI-gesteuerter Sicherheitsservice, der Ihnen dabei hilft, Datenverlust zu vermeiden, indem er vertrauliche, in Amazon S3 gespeicherte Daten automatisch erkennt, klassifiziert und schützt. Amazon Macie verwendet Machine Learning für die Neuorganisation vertraulicher Daten wie persönliche identifizierbare Informationen (Personally Identifiable Information, PII) oder geistiges Eigentum, weist einen Geschäftswert zu und stellt Transparenz bezüglich des Speicherorts dieser Daten sowie des Verwendens dieser Daten in Ihrer Organisation bereit. Amazon Macie überwacht fortlaufend Datenzugriffsaktivitäten für Anomalien und stellt Warnungen bereit, wenn ein Risiko durch einen nicht autorisierten Zugriff oder unbeabsichtigte Datenlecks erkannt wird. Sie können Amazon Macie zum Schutz vor Sicherheitsbedrohungen verwenden, indem Sie Ihre Daten und Kontoanmeldeinformationen fortlaufend überwachen. Amazon Macie bietet Ihnen eine automatische und einfache Methode zum Erkennen und Klassifizieren Ihrer Geschäftsdaten. Es stellt Kontrollen mithilfe vorlagenbasierter Lambda-Funktionen bereit, um den Zugriff zu widerrufen oder Passwort-Zurücksetzungsrichtlinien beim Erkennen eines verdächtigen Verhaltens oder nicht autorisierten Datenzugriffs auf Entitäten oder Drittanbieter-Anwendungen auszulösen. Wenn Warnungen generiert werden, können Sie Amazon Macie für die Vorfallreaktion verwenden und dabei Amazon CloudWatch Events nutzen, um schnell Maßnahmen zum Schutz Ihrer Daten zu ergreifen. Weitere Informationen finden Sie in der Dokumentation von Amazon Macie.

Access Analyzer for S3 ist ein Feature, mit der Sie die Berechtigungsverwaltung vereinfachen können, indem Sie Richtlinien für Ihre S3-Buckets und Zugangspunkte verifizieren und optimieren. Access Analyzer for S3 überwacht Ihre bestehenden Bucket-Zugriffsrichtlinien, um zu bestätigen, dass sie Ihren S3-Ressourcen nur den notwendigen Zugriff erteilen. Access Analyzer for S3 wertet Ihre Bucket-Zugriffsrichtlinien aus und hilft Ihnen, Änderungen an Buckets, auf die kein Zugriff erforderlich ist, schnell zu erkennen und vorzunehmen. Access Analyzer for S3 warnt, wenn ein Bucket vorhanden ist, der so konfiguriert ist, dass er den Zugriff auf Personen im Internet ermöglicht oder der mit anderen AWS-Konten geteilt wird. Sie erhalten Einblicke oder „Kenntnisse“ über die Quelle und die Ebene des öffentlichen oder geteilten Zugangs. Access Analyzer for S3 informiert Sie beispielsweise pro-aktiv, wenn Lese- oder Schreibzugriffe unbeabsichtigt über eine Zugriffskontrollliste oder eine Bucket-Richtlinie bereitgestellt wurden. Mit diesen Informationen können Sie die beabsichtigte Zugriffsrichtlinie sofort festlegen oder wiederherstellen. Wenn Sie Ergebnisse überprüfen, die einen potenziell gemeinsamen Zugriff auf einen Bereich anzeigen, können Sie den öffentlichen Zugriff auf den Bucket mit einem einzigen Klick in der S3-Konsole blockieren. Sie können auch einen Drilldown in die Berechtigungseinstellungen auf Bucket-Ebene ausführen, um detaillierte Zugriffsebenen zu konfigurieren. Zu Prüfungszwecken können die Ergebnisse von Access Analyzer für S3 als CSV-Bericht heruntergeladen werden.  Die Amazon-S3-Konsole meldet jetzt Sicherheitswarnungen, Fehler und Vorschläge von IAM Access Analyzer, während Sie Ihre S3-Richtlinien erstellen. Die Konsole führt automatisch mehr als 100 Richtlinienprüfungen durch, um Ihre Richtlinien zu validieren. Diese Prüfungen sparen Ihnen Zeit, helfen Ihnen bei der Fehlerbehebung und unterstützen Sie bei der Anwendung bewährter Sicherheitsverfahren.
Weitere Informationen finden Sie in der Dokumentation zu IAM Access Analyzer.

S3 Access Grants

Alles öffnen

Amazon S3 Access Grants ordnen Identitäten in Verzeichnissen wie Active Directory oder Prinzipale von AWS Identity and Access Management (IAM) Datensätzen in S3 zu. Auf diese Weise können Sie Datenberechtigungen in großem Umfang verwalten, indem Endbenutzern automatisch auf der Grundlage ihrer Unternehmensidentität S3-Zugriff gewährt wird. Darüber hinaus protokolliert S3 Access Grants die Identität des Endbenutzers und die Anwendung, die für den Zugriff auf S3-Daten in AWS CloudTrail verwendet wird. Dies hilft dabei, für den gesamten Zugriff auf die Daten in Ihren S3-Buckets einen detaillierten Prüfungsverlauf bis hin zur Endbenutzeridentität bereitzustellen.

Sie sollten S3 Access Grants verwenden, wenn Ihre S3-Daten von vielen Benutzern und Anwendungen gemeinsam genutzt und abgerufen werden, wenn sich einige ihrer Identitäten in Ihrem Unternehmensverzeichnis befinden, wie Okta oder Entra ID, und Sie eine skalierbare, einfache und überprüfbare Methode benötigen, um den Zugriff auf diese S3-Datensätze in großem Umfang zu gewähren.

Sie können in vier Schritten mit S3 Access Grants beginnen. Konfigurieren Sie zunächst eine S3-Access-Grants-Instance. Wenn Sie in diesem Schritt S3 Access Grants mit Benutzern und Gruppen in Ihrem Unternehmensverzeichnis verwenden möchten, aktivieren Sie AWS Identity Center und verbinden Sie S3 Access Grants mit Ihrer Identity-Center-Instance. Zweitens registrieren Sie einen Standort bei S3 Access Grants. Während dieses Vorgangs weisen Sie S3 Access Grants eine IAM-Rolle zu, die verwendet wird, um temporäre S3-Anmeldeinformationen zu erstellen, die Benutzer und Anwendungen für den Zugriff auf S3 verwenden können. Drittens definieren Sie Genehmigungen, die spezifizieren, wer auf was zugreifen kann. Lassen Sie Ihre Anwendung schließlich zum Zeitpunkt des Zugriffs temporäre Anmeldeinformationen von S3 Access Grants anfordern und verwenden Sie die von Access Grants bereitgestellten Anmeldeinformationen, um auf S3 zuzugreifen.

S3 Access Grants unterstützt zwei Arten von Identitäten: Unternehmensbenutzer- oder Gruppenidentitäten aus AWS Identity Center und AWS-IAM-Prinzipale, einschließlich IAM-Benutzer und -Rollen. Wenn Sie S3 Access Grants mit AWS Identity Center verwenden, können Sie Datenberechtigungen auf der Grundlage von Verzeichnisgruppenmitgliedschaften definieren. AWS Identity Center ist ein AWS-Service, der eine Verbindung zu häufig verwendeten Identitätsanbietern wie Entra ID, Okta, Ping und anderen herstellt. S3 Access Grants unterstützt nicht nur Verzeichnisidentitäten über AWS Identity Center, sondern auch Berechtigungsregeln für AWS-IAM-Prinzipal, einschließlich IAM-Benutzer und -Rollen. Dies gilt für Anwendungsfälle, in denen Sie entweder einen benutzerdefinierten Identitätsverbund nicht über AWS Identity Center, sondern über IAM- und SAML-Assertion verwalten (Beispielimplementierung) oder Anwendungsidentitäten auf der Grundlage von IAM-Prinzipalen verwalten und trotzdem S3 Access Grants aufgrund seiner Skalierbarkeit und Überprüfbarkeit verwenden möchten.

S3 Access Grants bietet drei Zugriffsebenen: READ, WRITE und READWRITE. Mit READ können Sie Objekte aus S3 anzeigen und abrufen. WRITE ermöglicht es Ihnen, in S3 zu schreiben und aus S3 zu löschen. Mit READWRITE können Sie sowohl LESEN als auch SCHREIBEN.

Nein. Sie können nur die drei vordefinierten Zugriffsebenen (READ/WRITE/READWRITE) verwenden, die S3 Access Grants bietet.

Ja. Sie können bis zu 100 000 Zuschüsse pro S3-Access-Grants-Instance und bis zu 1 000 Standorte pro S3-Access-Grants-Instance erstellen.

Nein. Die Latenz beim Abrufen temporärer Anmeldeinformationen von S3 Access Grants ist vergleichbar mit dem Abrufen temporärer Anmeldeinformationen von AWS STS heute. Sobald Sie die Anmeldeinformationen von S3 Access Grants erhalten haben, können Sie nicht abgelaufene Anmeldeinformationen für nachfolgende Anfragen wiederverwenden. Für diese nachfolgenden Anfragen gibt es keine zusätzliche Latenz für Anfragen, die über S3-Access-Grants-Anmeldeinformationen authentifiziert wurden, im Vergleich zu anderen Methoden.

Wenn Sie S3 Access Grants für Verzeichnisidentitäten verwenden möchten, müssen Sie zuerst das AWS IAM Identity Center einrichten. AWS IAM Identity Center hilft Ihnen dabei, Ihre Belegschaftsidentitäten zu erstellen oder zu verbinden, unabhängig davon, ob die Identitäten im Identity Center oder in einem externen Identitätsanbieter erstellt und gespeichert werden. Informationen zum Einrichtungsvorgang finden Sie in der Identity-Center-Dokumentation. Sobald Sie die Identity-Center-Instance eingerichtet haben, können Sie die Instanz mit S3 Access Grants verbinden. Danach nutzt S3 Access Grants Identity Center, um Benutzerattribute wie die Gruppenmitgliedschaft abzurufen, um Anfragen auszuwerten und Autorisierungsentscheidungen zu treffen.

Ja. Während Sie heute Ihren S3-Client mit IAM-Anmeldeinformationen initialisieren, die Ihrer Anwendung zugeordnet sind (z. B. Anmeldeinformationen der IAM-Rolle für EC2 oder IAM Roles Anywhere; oder mithilfe langfristiger IAM-Benutzeranmeldeinformationen), muss Ihre Anwendung stattdessen zuerst die Anmeldeinformationen für S3 Access Grants abrufen, bevor sie den S3-Client initialisiert. Diese Anmeldeinformationen für S3 Access Grants sind spezifisch für den authentifizierten Benutzer in Ihrer Anwendung. Sobald der S3-Client mit diesen S3-Access-Grants-Anmeldeinformationen initialisiert wurde, kann er mithilfe der Anmeldeinformationen wie gewohnt Anfragen für S3-Daten stellen.

S3 Access Grants lässt sich heute bereits über den S3A-Connector in EMR und Open-Source-Spark integrieren. Darüber hinaus lässt sich S3 Access Grants in Software von Drittanbietern wie Immuta und Informatica integrieren, sodass Sie die Rechteverwaltung zentralisieren können. Und schließlich unterstützt S3 Access Grants Terraform und CloudFormation, sodass Sie S3 Access Grants programmgesteuert bereitstellen können.

Nein. S3 Access Grants ersetzt IAM nicht und funktioniert sogar gut mit Ihren bestehenden IAM-basierten Datenschutzstrategien (Verschlüsselung, Netzwerk, Datenperimeterregeln). S3 Access Grants basiert auf IAM-Primitiven und ermöglicht es Ihnen, detailliertere S3-Berechtigungen in großem Umfang auszudrücken.

Ja. Um S3 Access Grants für mit KMS verschlüsselte Objekte zu verwenden, fügen Bucket-Besitzer die erforderlichen KMS-Berechtigungen in die IAM-Rolle ein, die sie S3 Access Grants im Rahmen der Standortregistrierung gewähren. S3 Access Grants kann diese IAM-Rolle anschließend verwenden, um auf die KMS-verschlüsselten Objekte in den Buckets zuzugreifen.

Sie können entweder die S3-Access-Grants-Konsolenerfahrung in der AWS-Managementkonsole oder SDK- und CLI-APIs verwenden, um Ihre Berechtigungen für S3 Access Grants einzusehen und zu verwalten.

Nein, mit S3 Access Grants können Sie keinen öffentlichen Zugriff auf Daten gewähren.

Die Anfrage der Anwendung, eine Datenzugriffssitzung mit S3 Access Grants zu initiieren, wird in CloudTrail aufgezeichnet. CloudTrail unterscheidet zwischen der Identität des Benutzers, der die Anfrage stellt, und der Anwendungsidentität, die im Namen des Benutzers auf die Daten zugreift. Auf diese Weise können Sie die Identität des Endbenutzers überprüfen, wer zu welchem Zeitpunkt auf welche Daten zugegriffen hat.

S3 Access Grants wird auf der Grundlage der Anzahl der Anfragen an S3 Access Grants berechnet. Weitere Informationen finden Sie auf der Preisseite.

AWS Lake Formation eignet sich für Anwendungsfälle, in denen Sie den Zugriff auf tabellarische Daten (z. B. Glue-Tabellen) verwalten müssen, in denen Sie möglicherweise den Zugriff auf Zeilen- und Spaltenebene erzwingen möchten. S3 Access Grants dient zur Verwaltung des Zugriffs auf direkte S3-Berechtigungen wie unstrukturierte Daten wie Videos, Bilder, Protokolle usw.

Nein. S3 Access Grants ist derzeit nicht in IAM Access Analyzer integriert. Sie können IAM Access Analyzer noch nicht verwenden, um S3-Access-Grants-Berechtigungszuweisungen zu analysieren. Kunden können S3 Access Grants direkt überprüfen, indem sie die Seite S3 Access Grants in der S3-Konsole aufrufen oder programmgesteuert die ListAccessGrants-API verwenden.

S3 Access Points

Alles öffnen

Amazon S3 Access Points sind Endpunkte, welche die Verwaltung des Datenzugriffs für alle Anwendungen oder AWS-Services, die mit S3 arbeiten vereinfachen. S3 Access Points funktionieren mit S3-Buckets und Amazon FSX für OpenZFS-Dateisysteme. Sie können steuern und vereinfachen, wie verschiedene Anwendungen oder Benutzer auf Daten zugreifen können, indem Sie Zugangspunkte mit Namen und Berechtigungen erstellen, die auf jede Anwendung oder jeden Benutzer zugeschnitten sind.

Durch die Verwendung von S3 Access Points mit S3-Buckets müssen Sie nicht mehr eine einzige, komplexe Bucket-Richtlinie mit Hunderten von verschiedenen Berechtigungsregeln verwalten, die geschrieben, gelesen, nachverfolgt und geprüft werden müssen. Stattdessen können Sie Hunderte von Zugangspunkten pro Bucket erstellen, die jeweils einen benutzerdefinierten Pfad in einen Bucket bieten, mit einem eindeutigen Hostnamen und einer Zugriffsrichtlinie, die die spezifischen Berechtigungen und Netzwerkkontrollen für jede über den Zugangspunkt gestellte Anfrage durchsetzt.

Wenn Sie S3 Access Points mit FSx für OpenZFS verwenden, können Sie mithilfe der S3-API auf Ihre FSx-Daten zugreifen, als ob die Daten in S3 wären. Mit dieser Funktion sind Ihre Dateidaten in FSx für OpenZFS für die Verwendung mit einer Vielzahl von Diensten und Anwendungen für künstliche Intelligenz, Machine Learning und Analytik zugänglich, die mit S3 funktionieren, während Ihre Dateidaten weiterhin auf dem FSx für OpenZFS-Dateisystem gespeichert sind.

S3 Access Points vereinfachen die Verwaltung des Zugriffs auf freigegebene Datensätze in S3. Sie müssen keine allgemeingültige, komplexe Bucket-Richtlinie mehr verwalten, die Hunderte verschiedener Berechtigungsregeln enthält, die geschrieben, gelesen, nachverfolgt und geprüft werden müssen. Mit S3 Access Points können Sie Zugriffspunkte erstellen oder Berechtigungen an vertrauenswürdige Konten delegieren, um kontenübergreifende Zugriffspunkte in Ihrem Bucket zu erstellen. Dadurch kann man auf freigegebene Datensätze mit Richtlinien zugreifen, die auf die bestimmte Anwendung zugeschnitten sind. Mit Access Points können Sie eine große Bucket-Richtlinie in separate diskrete Access Point-Richtlinien für jede Anwendung zerlegen, die auf den gemeinsam genutzten Datensatz zugreifen muss. Dadurch können Sie sich darauf konzentrieren, die richtige Zugriffsrichtlinie für eine Anwendung zu entwickeln, und müssen sich keine Gedanken darüber machen, ob der Zugriff anderer Anwendungen auf den freigegebenen Datensatz möglicherweise unterbrochen wird. Sie können auch eine Service-Kontrollrichtlinie (SCP) erstellen und angeben, dass alle Zugangspunkte auf eine Virtual Private Cloud (VPC) beschränkt sein sollen. Dadurch werden Ihre Daten wie durch eine Firewall innerhalb Ihrer privaten Netzwerke geschützt. 

Mit S3 Access Points können Sie mithilfe von S3-APIs auf Dateidaten in Amazon FSX für OpenZFS zugreifen, ohne Daten nach S3 zu verschieben. An FSX angehängte S3 Access Points für OpenZFS-Dateisysteme funktionieren ähnlich wie S3 Access Points, die an S3-Buckets angeschlossen sind. Sie ermöglichen den Datenzugriff über S3, wobei der Zugriff durch Zugriffsrichtlinien gesteuert wird, während Daten weiterhin entweder in FSX für OpenZFS-Dateisysteme oder in S3-Buckets gespeichert werden. Sobald beispielsweise ein S3 Access Point an ein FSX-für-OpenZFS-Dateisystem angeschlossen ist, können Kunden den Access Point mit generativen KI-, Machine Learning- und Analysediensten und -anwendungen, die mit S3 funktionieren, verwenden, um auf ihre FSx-für-OpenZFS-Daten zuzugreifen.

Für jeden S3 Access Point ist eine Zugriffsrichtlinie konfiguriert, die auf einen Anwendungsfall oder eine Anwendung ausgerichtet ist. Sie können beispielsweise einen Zugriffspunkt für Ihr S3-Bucket erstellen, der Gruppen von Benutzern oder Anwendungen Zugriff auf Ihren Data Lake gewährt. Ein Zugriffspunkt kann einen einzelnen Benutzer oder eine einzelne Anwendung oder Gruppen von Benutzern oder Anwendungen unterstützen, wodurch die Verwaltung der einzelnen Zugriffspunkte getrennt erfolgen kann.  Außerdem können Sie Zugriffspunkte erstellen oder Berechtigungen an vertrauenswürdige Konten delegieren, um kontoübergreifende Zugriffspunkte in Ihrem Bucket zu erstellen. Die kontoübergreifende Zugriffspunkte gewähren keinen Zugriff auf Daten, bis Sie die Berechtigungen vom Bucket-Eigentümer.  Der Bucket-Eigentümer behält letztendlich die Kontrolle über die Daten und muss die Bucket-Richtlinie aktualisieren, um Anforderungen vom kontoübergreifenden Zugriffspunkt zu autorisieren. Lesen Sie das Benutzerhandbuch, um ein Beispiel der Bucket-Richtlinie einzusehen. Jeder Zugriffspunkt ist einem einzelnen Bucket zugeordnet und enthält eine Netzwerkursprungskontrolle sowie eine Kontrolle zum Blockieren öffentlicher Zugriffe. Sie können einen Zugriffspunkt mit einer Netzwerkursprungskontrolle erstellen, die den Speicherzugriff nur über Ihre Virtual Private Cloud zulässt, einem logisch isolierten Bereich in der AWS Cloud. Sie können auch einen Zugriffspunkt mit einer Zugriffspunktrichtlinie erstellen, die so konfiguriert ist, dass nur der Zugriff auf Objekte mit bestimmten Präfixen oder auf Objekte mit bestimmten Tags erlaubt ist. Der Zugriff auf Daten in gemeinsam genutzten Bereichen kann über einen Zugangspunkt auf zwei Arten erfolgen. Für S3-Objektoperationen können Sie den ARN des Zugangspunkts anstelle eines Bucket-Namens verwenden. Für Anfragen, die einen Bucket-Namen im Standard-S3-Bucket-Namensformat erfordern, können Sie stattdessen einen Zugangspunkt-Alias verwenden. Aliase für S3 Zugriffspunkte werden automatisch generiert und sind überall dort, wo Sie einen Bucket-Namen für den Datenzugriff verwenden, mit S3 Bucket-Namen austauschbar. Jedes Mal, wenn Sie einen Zugangspunkt für einen Bucket erstellen, generiert S3 einen neuen Zugangspunkt-Alias. Eine vollständige Liste der kompatiblen Vorgänge und AWS-Services finden Sie in der S3-Dokumentation.

Standardmäßig können Sie 10 000 S3-Zugangspunkte pro Region und Konto für Buckets in Ihrem Konto und kontoübergreifend erstellen. Es gibt keine feste Begrenzung für die Anzahl der S3-Zugriffspunkte pro AWS-Konto. Navigieren Sie zum Erhöhen dieses Kontingents zu Service Quotas.

S3-Zugangspunkte haben ihre eigene IAM-Zugangspunktrichtlinie. Sie schreiben Zugangspunktrichtlinie wie eine Bucket-Richtlinie, wobei Sie die Zugangspunk-ARN als Ressource verwenden. Zugangspunktrichtlinie können den Zugriff auf die vom Access Point angeforderten S3-Daten gewähren oder einschränken. Amazon S3 wertet alle relevanten Richtlinien aus, einschließlich der Richtlinien für Benutzer, Bucket, Zugangspunkt, VPC-Endpunkt und Service-Kontrollrichtlinien sowie der Zugriffssteuerungslisten, um zu entscheiden, ob die Anforderung autorisiert werden soll.

Sie können eine Access-Point-Richtlinie genau wie eine Bucket-Richtlinie schreiben und IAM-Regeln verwenden, um die Berechtigungen und die Access-Point-ARN im Richtliniendokument zu steuern.

Sie können weiterhin Bucket-Richtlinien verwenden, um den Bucket-Zugriff auf bestimmte VPCs zu beschränken. Zugriffspunkte bieten eine einfachere und überprüfbare Möglichkeit, alle oder einen Teil der Daten in einem gemeinsam genutzten Datensatz mithilfe von API-Steuerelementen für alle Anwendungen in Ihrer Organisation auf Nur-VPC-Datenverkehr zu sperren. Mithilfe einer AWS Organizations Service Control-Richtlinie (Service Control Policy, SCP) können Sie festlegen, dass jeder in Ihrer Organisation erstellte Zugriffspunkt den API-Parameterwert für die Netzwerkursprungskontrolle auf "vpc" setzt. Jeder neu erstellte Zugangspunkt beschränkt dann automatisch den Datenzugriff auf den reinen VPC-Verkehr. Es ist keine zusätzliche Zugriffsrichtlinie erforderlich, um sicherzustellen, dass Datenanforderungen nur von bestimmten VPCs verarbeitet werden.

Ja. Um eine Richtlinie "Kein Internetzugriff auf Daten" für Zugriffspunkte in Ihrer Organisation zu erzwingen, sollten Sie sicherstellen, dass alle Zugriffspunkte nur den VPC-Zugriff erzwingen. Dazu schreiben Sie einen AWS-SCP, der nur den Wert "vpc" für den Parameter "Network Origin Control" in der API create_access_point() unterstützt. Wenn Sie zuvor mit dem Internet verbundene Zugangspunkte erstellt haben, können diese entfernt werden. Sie müssen auch die Bucket-Richtlinie in jedem Ihrer Buckets ändern, um den Internetzugang über den Bucket-Hostnamen direkt auf Ihren Bucket weiter einzuschränken. Da andere AWS-Services möglicherweise direkt auf Ihren Bucket zugreifen, stellen Sie sicher, dass Sie den Zugriff so einrichten, dass die gewünschten AWS-Services zugelassen werden, indem Sie die Richtlinie so ändern, dass diese AWS-Services zugelassen werden. Beispiele hierzu finden Sie in der S3-Dokumentation.

Derzeit nicht, aber Sie können eine Bucket-Richtlinie anhängen, die Anforderungen ablehnt, die nicht über einen Zugriffspunkt gestellt wurden. Weitere Informationen finden Sie in der S3-Dokumentation.

Ja. Wenn Sie einen Zugangspunkt entfernen, wird der Zugriff auf den zugeordneten Bucket über andere Zugangspunkte und über den Bucket-Hostnamen nicht unterbrochen.

Für Zugangspunkte oder Buckets, die Zugangspunkte verwenden, fallen keine zusätzlichen Gebühren an. Es gelten die üblichen Amazon-S3-Anfragetarife.

Über die AWS-Managementkonsole, die AWS-Befehlszeilenschnittstelle (CLI), die Anwendungsprogrammierschnittstelle (API) und den SDK-Client (AWS Software Development Kit) können Sie S3 Access Points für neue Buckets sowie für vorhandene Buckets erstellen. Weitere Informationen zu S3 Access Points finden Sie im Benutzerhandbuch.

Zuverlässigkeit und Datenschutz

Alles öffnen

Amazon S3 bietet den beständigsten Speicher in der Cloud. Basierend auf seiner einzigartigen Architektur ist S3 so konzipiert, dass es eine Datenbeständigkeit von 99,999999999 % (11 Neunen) bietet. Darüber hinaus speichert S3 Daten standardmäßig redundant in mindestens 3 Availability Zones (AZ) und bietet so eine integrierte Widerstandsfähigkeit gegen weit verbreitete Katastrophen. Kunden können Daten in einer einzigen AZ speichern, um die Speicherkosten oder die Latenz zu minimieren, in mehreren AZs, um die Widerstandsfähigkeit gegen den dauerhaften Verlust eines gesamten Rechenzentrums zu gewährleisten, oder in mehreren AWS-Regionen, um die Anforderungen an die geografische Belastbarkeit zu erfüllen.

Die auf Beständigkeit ausgelegte Amazon S3 ist eine Funktion der Ausfallraten von Speichergeräten und der Geschwindigkeit, mit der S3 Ausfälle erkennen und dann Daten auf diesen Geräten erneut replizieren kann. S3 führt bei jedem Objektupload eine durchgängige Integritätsprüfung durch und überprüft, ob alle Daten korrekt und redundant auf mehreren Speichergeräten gespeichert sind, bevor Ihr Upload als erfolgreich eingestuft wird. Sobald Ihre Daten in S3 gespeichert sind, überwacht S3 kontinuierlich die Datenbeständigkeit im Laufe der Zeit mit regelmäßigen Integritätsprüfungen aller Daten im Ruhezustand. S3 überwacht auch aktiv die Redundanz Ihrer Daten, um sicherzustellen, dass Ihre Objekte den gleichzeitigen Ausfall mehrerer Speichergeräte tolerieren können.

In dem unwahrscheinlichen Fall, dass eine AWS Availability Zone ganz oder teilweise verloren geht oder beschädigt wird, können Daten in einer One-Zone-Speicherklasse verloren gehen. Beispielsweise können Ereignisse wie Feuer und Wasserschäden zu Datenverlust führen. Abgesehen von diesen Ereignistypen verwenden One-Zone-Speicherklassen ähnliche technische Designs wie regionale Speicherklassen, um Objekte vor unabhängigen Festplatten-, Host- und Rack-Ausfällen zu schützen, und jede ist so konzipiert, dass sie eine Datenbeständigkeit von 99,999999999 % bietet.

Amazon S3 hat eine ausgeprägte Nachhaltigkeitskultur, und Best Practices für Nachhaltigkeit wurden von Grund auf in unsere Systeme und Software integriert. AWS hat mehr Erfahrung mit dem Betrieb von langlebigen Speichern als jeder andere Cloud-Anbieter, und wir nutzen diese Erfahrung, um das Risiko der Beständigkeit zu mindern und bei allem, was wir tun, Sicherheitsvorkehrungen für die Beständigkeit zu integrieren.

Ja. Das Beständigkeitssystem von Amazon S3 schützt nicht vor versehentlichem oder böswilligem Löschen. S3 verlässt sich darauf, dass die Kunden entscheiden, welche Daten sie behalten möchten, welche Daten sie löschen möchten und welche optionalen Kontrollen sie benötigen, um sich vor fehlerhaften Löschungen zu schützen, sei es aufgrund von Unfällen oder böswilliger Absicht. Wenn Sie Amazon S3 anweisen, Daten zu löschen, werden diese Daten sofort gelöscht und können von AWS nicht wiederhergestellt werden. Das Beantworten einer Löschanfrage auf diese Weise ist ein wichtiges Merkmal des Dienstes.

S3 Object Versioning, S3 Replication und S3 Object Lock sind allesamt optionale Features, mit denen Sie zusätzlichen Datenschutz hinzufügen können, der über die Beständigkeit hinausgeht, die S3 automatisch bietet. Darüber hinaus können Sie eine Backup-Anwendung verwenden, um alle oder einen Teil der Daten in Ihren S3-Buckets zu sichern.


Amazon S3 verwendet eine Kombination aus Content-MD5-Prüfsummen, Secure Hash Algorithms (SHAs) und zyklischen Redundanzprüfungen (CRCs), um die Datenintegrität zu verifizieren. Amazon S3 führt diese Prüfsummen auf Daten im Ruhemodus aus und behebt alle Verfälschungen mit redundanten Daten. Darüber hinaus berechnen die neuesten AWS-SDKs automatisch effiziente CRC-basierte Prüfsummen für alle Uploads. S3 überprüft diese Prüfsummen unabhängig und akzeptiert Objekte nur nachdem bestätigt wurde, dass die Datenintegrität bei der Übertragung über das öffentliche Internet gewahrt wurde. Wenn eine Version des SDK, die keine vorberechneten Prüfsummen bereitstellt, verwendet wird, um ein Objekt hochzuladen, berechnet S3 eine CRC-basierte Prüfsumme des gesamten Objekts, auch für mehrteilige Uploads. Prüfsummen werden in Objektmetadaten gespeichert und sind daher jederzeit verfügbar, um die Datenintegrität zu überprüfen. Für die Überprüfung der Datenintegrität bei Upload- und Download-Anforderungen können Sie aus fünf unterstützten Prüfsummenalgorithmen wählen. Je nach Anwendungsanforderungen können Sie einen SHA-1-, SHA-256-, CRC32-, CRC32C- oder CRC64NVME-Prüfsummenalgorithmus auswählen. Sie können Prüfsummen automatisch berechnen und überprüfen, wenn Sie Daten in S3 speichern oder abrufen, und Sie können die Prüfsummeninformationen jederzeit über die HeadObject S3 API, die GetObjectAttributes S3 API oder einen S3-Inventarbericht abrufen. Die Berechnung einer Prüfsumme beim Streaming von Daten in S3 spart Zeit, da Sie Ihre Daten in einem einzigen Durchgang verifizieren und übertragen können, anstatt zwei aufeinanderfolgende Vorgänge durchzuführen. Die Verwendung von Prüfsummen für die Datenvalidierung ist eine bewährte Praxis für die Datenbeständigkeit. Diese Funktionen erhöhen die Leistung und reduzieren die dabei anfallenden Kosten.

Versioning ermöglicht Ihnen, sämtliche Versionen aller in einem Amazon S3 Bucket gespeicherten Objekte zu speichern, abzurufen oder wiederherzustellen. Nachdem Versioning für einen Bucket aktiviert wurde, speichert Amazon S3 existierende Objekte jedes Mal, wenn Sie einen PUT-, POST-, COPY- oder DELETE-Vorgang an Ihnen durchführen. Standardmäßig rufen GET-Anforderungen die zuletzt geschriebene Version ab. Ältere Versionen eines überschriebenen oder gelöschten Objekts können wiederhergestellt werden, wenn die gewünschte Version in der Anforderung spezifiziert wird.

Amazon S3 bietet dem Kunden eine Speicherinfrastruktur mit hoher Beständigkeit. Versioning stellt eine zusätzliche Sicherheitsstufe bereit, da der Kunde versehentlich überschriebene oder gelöschte Objekte wiederherstellen kann. Auf diese Weise ist die Wiederherstellung nach unbeabsichtigten Nutzeraktionen oder Anwendungsausfällen problemlos möglich. Sie können Versioning auch zur Datenaufbewahrung und -Archivierung verwenden.

Als ersten Schritt zur Verwendung der Versionsverwaltung können Sie eine Einstellung an Ihrem Amazon-S3-Bucket ändern. Weitere Informationen zum Aktivieren der Versionsverwaltung finden Sie in der Amazon-S3-Dokumentation.

Wenn ein Benutzer einen DELETE-Vorgang für ein Objekt ausführt, können darauffolgende Standardanforderungen (ohne Versioning) das Objekt nicht mehr abrufen. Alle Versionen dieses Objekts sind jedoch weiter in Ihrem Amazon S3-Bucket gespeichert und können abgerufen oder wiederhergestellt werden. Nur der Eigentümer eines Amazon S3-Buckets kann eine Version permanent löschen. Sie können Lebenszyklusregeln festlegen, um die Lebensdauer und Kosten der Speicherung mehrerer Versionen Ihrer Objekte im Griff zu behalten.

Mithilfe von Amazon-S3-Lifecycle-Regeln und S3 Versioning können Sie ein Rollback-Zeitfenster für Ihre S3-Objekte implementieren. Für Ihren Bucket mit aktiviertem Versioning können Sie beispielsweise eine Regel festlegen, gemäß der alle vorherigen Versionen im kostengünstigeren S3 Glacier Flexible Retrieval-Speicher archiviert und alle 100 Tage gelöscht werden. Dadurch erhalten Sie bei günstigeren Speicherkosten ein Zeitfenster von 100 Tagen, um Änderungen an Ihren Daten rückgängig zu machen. Zusätzlich können Sie auch Kosten einsparen, indem Sie alte (langfristige) Versionen eines Objekts nach fünf Tagen löschen und wenn es mindestens zwei neuere Versionen davon gibt. Sie können die Anzahl der Tage oder die Anzahl der neueren Versionen je nach Ihren Anforderungen an die Kostenoptimierung ändern. So können Sie nach Bedarf weitere Versionen Ihrer Objekte aufrechterhalten, jedoch die Kosten senken, indem Sie sie nach einer bestimmten Zeit übertragen oder entfernen.

Die Löschfunktion der Versionsverwaltung mit Multi-Faktor-Authentifizierung (MFA) kann eine zusätzliche Sicherheitsebene schaffen. Standardmäßig benötigen Sie für alle Anforderungen an Ihren Amazon S3 Bucket Ihre Zugangsdaten für das AWS-Konto. Wenn Sie die Versionsverwaltung mit MFA Delete für Ihren Amazon S3 Bucket aktivieren, benötigen Sie zwei Formen der Authentifizierung, um eine Version eines Objekts dauerhaft zu löschen: Ihre AWS-Zugangsdaten und einen gültigen sechsstelligen Code sowie eine Seriennummer von einem Authentifizierungsgerät, das sich in Ihrem physischen Besitz befindet. Nähere Informationen zur Versionsverwaltung mit MFA Delete, beispielsweise wie ein Authentifizierungsgerät erworben und aktiviert wird, finden Sie in der Amazon-S3-Dokumentation.

Normale Amazon-S3-Tarife fallen für jede Version eines gespeicherten oder angeforderten Objekts an. Betrachten wir beispielsweise das folgende Szenario, um die Speicherkosten bei der Nutzung von Versioning zu veranschaulichen (unter der Annahme, dass der aktuelle Monat 31 Tage hat). 1) Tag 1 des Monats: Sie führen eine PUT-Anforderung von 4 GB (4 294 967 296 Bytes) für Ihren Bucket aus.
2) Tag 16 des Monats: Sie führen eine PUT-Anfrage von 5 GB (5 368 709 120 Bytes) innerhalb desselben Buckets aus und verwenden denselben Schlüssel wie bei der ursprünglichen PUT-Anfrage an Tag 1.

Bei der Analyse der Speicherkosten der obigen Vorgänge beachten Sie, dass das 4-GB-Objekt von Tag 1 nicht aus dem Bucket gelöscht wird, wenn das 5-GB-Objekt am Tag 15 geschrieben wird. Das 4-GB-Objekt wird hingegen als ältere Version gespeichert und das 5-GB-Objekt wird zur zuletzt geschriebenen Version des Objekts in Ihrem Bucket. Am Ende des Monats: Byte-Hour-Nutzung insgesamt
[4 294 967 296 Bytes x 31 Tage x (24 Stunden/Tag)] + [5 368 709 120 Bytes x 16 Tage x (24 Stunden/Tag)] = 5 257 039 970 304 Byte-Stunden. Umrechnung in Gesamtzahl GB-Monate
5 257 039 970 304 Byte-Stunden x (1 GB / 1 073 741 824 Bytes) x (1 Monat / 744 Stunden) = 6,581 GB-Monat Die Kosten errechnen sich aus den aktuellen Tarifen für Ihre Region, die Sie auf der Preisseite zu Amazon S3 finden.

Amazon S3 Object Lock ist ein Amazon-S3-Feature, die das Löschen oder Überschreiben von Objektversionen für einen bestimmten oder unbegrenzten Zeitraum verhindert. So können Sie Aufbewahrungsrichtlinien als zusätzliche Datenschutzmaßnahme oder zur Compliance gesetzlicher Bestimmungen durchsetzen. Sie können Workloads aus bestehenden WORM-Systemen (Write Once Read Many) in Amazon S3 migrieren und S3 Object Lock auf der Objekt- und Bucket-Ebene konfigurieren, sodass Objektversionslöschungen vor den festgelegten Aufbewahrungsdaten oder vor Ablauf einer gesetzlichen Aufbewahrungspflicht verhindert werden. Der Schutz durch S3 Object Lock bleibt erhalten, unabhängig davon, in welcher Speicherklasse sich die Objektversion befindet. Sie bleibt auch während S3 Lifecycle-Übertragungen zwischen Speicherklassen erhalten.  Verwenden Sie die S3-Objektsperre, wenn gesetzliche Vorgaben festlegen, dass Daten WORM-geschützt sein müssen, oder wenn Sie eine zusätzliche Sicherheitsebene für Daten in Amazon S3 erstellen möchten. S3 Object Lock unterstützt Sie bei der Einhaltung gesetzlicher Vorgaben, die festlegen, dass Daten in einem unveränderlichen Format gespeichert werden müssen, und schützt Sie außerdem vor versehentlichem oder böswilligen Löschen von Daten in Amazon S3.
Weitere Informationen finden Sie im Benutzerhandbuch für S3 Object Lock.

Amazon S3 Object Lock verhindert das Löschen einer Objektversion für die Dauer eines festgelegten Aufbewahrungszeitraums oder unbegrenzt, bis eine gesetzliche Aufbewahrungsfrist entfernt wurde. Mit S3 Object Lock stellen Sie sicher, dass eine Objektversion unveränderlich bleibt, solange der WORM-Schutz auf sie angewandt wird. Sie können den WORM-Schutz anwenden, indem Sie einer Objektversion entweder ein maximales Aufbewahrungsdatum oder eine gesetzliche Aufbewahrungsfrist über das AWS SDK, die CLI, die REST API oder die S3-Managementkonsole zuweisen. Sie können Aufbewahrungseinstellungen innerhalb einer PUT-Anfrage oder auf ein bestehendes Objekt anwenden, nachdem es erstellt wurde. Das maximale Aufbewahrungsdatum definiert den Zeitraum, in dem eine Objektversion unveränderlich bleiben muss. Sobald einem Objekt ein maximales Aufbewahrungsdatum zugeordnet wurde, kann diese Objektversion erst nach Ablauf des Aufbewahrungsdatums geändert oder gelöscht werden. Wenn ein Benutzer versucht, ein Objekt vor dem Aufbewahrungsdatum zu löschen, wird die Operation verweigert. Alternativ können Sie ein Objekt unveränderlich machen, indem Sie eine gesetzliche Aufbewahrungsfrist anwenden. Eine gesetzliche Aufbewahrungsfrist verhindert auf unbestimmte Zeit, dass eine Objektversion verändert oder gelöscht wird, bis sie explizit entfernt wird. Zum Einrichten oder Entfernen gesetzlicher Aufbewahrungsfristen muss Ihr AWS-Konto über eine Schreibberechtigung für die Aktion PutObjectLegalHold verfügen. Die gesetzliche Aufbewahrungsfrist kann auf jedes Objekt in einem Bucket mit aktivierter S3-Objektsperre angewendet werden, unabhängig davon, ob dieses Objekt derzeit durch eine Aufbewahrungsfrist mit WORM geschützt ist.
Die S3-Objektsperre kann in einem Modus oder in zwei Modi konfiguriert werden. Wenn die Bereitstellung im Governance-Modus erfolgt, können AWS-Konten mit bestimmten IAM-Berechtigungen den WORM-Schutz von einer Objektversion entfernen. Wenn aufgrund von Richtlinien eine stärkere Unveränderlichkeit gewünscht wird, können Sie den Compliance-Modus verwenden. Im Compliance-Modus kann der WORM-Schutz von keinem Benutzer entfernt werden. Das gilt auch für das Root-Konto.



Nein, Sie können S3 Object Lock oder die S3-Versionsverwaltung für Buckets nicht deaktivieren, sobald S3 Object Lock aktiviert ist.


Um mit der Replikation von Objekten mit S3 Replication aus Buckets zu beginnen, für die S3 Object Lock aktiviert ist, können Sie Ihrem Quell-Bucket eine Replikationskonfiguration hinzufügen, indem Sie einen Ziel-Bucket in derselben oder einer anderen AWS-Region und in demselben oder einem anderen AWS-Konto angeben. Sie können wählen, ob Sie alle Objekte auf S3-Bucket-Ebene replizieren oder Objekte auf einer gemeinsamen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags filtern möchten. Sie müssen auch eine AWS Identity and Access Management (IAM)-Rolle mit den erforderlichen Berechtigungen angeben, um den Replikationsvorgang durchzuführen. Sie können die S3-Konsole, die AWS-API, die AWS-CLI, die AWS-SDKs oder AWS CloudFormation verwenden, um die Replikation zu aktivieren, und Sie müssen S3 Versioning sowohl für den Quell- als auch für den Ziel-Bucket aktiviert haben. Um Objekte aus Buckets mit aktiviertem S3 Object Lock zu replizieren, muss in Ihrem Ziel-Bucket außerdem S3 Object Lock aktiviert sein. Weitere Informationen finden Sie in der Dokumentation zur Einrichtung der S3-Replikation und zur Verwendung von S3 Object Lock mit S3 Replication


Ja, um Objekte aus Buckets mit aktiviertem S3 Object Lock zu replizieren, müssen Sie zwei neue Berechtigungen, s3:getObjectRetention und s3:getObjectLegalHold, für den Quell-Bucket in der IAM-Rolle gewähren, die Sie zum Einrichten der Replikation verwenden. Wenn die IAM-Rolle alternativ über eine s3:Get*-Berechtigung verfügt, erfüllt sie die Anforderung. Weitere Informationen finden Sie in der Dokumentation zur Verwendung von S3 Object Lock mit S3 Replication.


Nein, alle Features von S3 Replication, wie regionsinterne S3-Replikation (S3 SRR), regionsübergreifende S3-Replikation (S3 CRR), S3-Replikationsmetriken zur Verfolgung des Fortschritts, Begrenzung der S3-Replikationszeit (S3 RTC) und S3 Batch Replication, werden bei der Replikation aus S3-Object-Lock-Buckets unterstützt.


Sie können die S3 Batch Replication verwenden, um vorhandene Objekte aus Buckets mit aktiviertem S3 Object Lock zu replizieren. Weitere Informationen zur Replikation vorhandener Objekte finden Sie in der Dokumentation zur S3 Batch Replication.


Speicherklassen

Alles öffnen

Amazon S3 bietet eine Reihe von Speicherklassen, aus denen Sie je nach Datenzugriff, Ausfallsicherheit und Kostenanforderungen Ihrer Workloads auswählen können. S3-Speicherklassen wurden speziell entwickelt, um den kostengünstigsten Speicher für verschiedene Zugriffsmuster bereitzustellen. S3-Speicherklassen sind ideal für praktisch jeden Anwendungsfall, einschließlich solcher mit anspruchsvollen Leistungsanforderungen, Anforderungen an die Datenresidenz, unbekannten oder sich ändernden Zugriffsmustern oder Archivspeicher. Bei allen S3-Speicherklassen fallen Gebühren für die Speicherung sowie für den Zugriff auf Daten an. Bei der Entscheidung, welche S3-Speicherklasse am besten für Ihren Workload geeignet ist, sollten Sie die Zugriffsmuster und die Aufbewahrungszeit Ihrer Daten berücksichtigen, um die niedrigsten Gesamtkosten über die Lebensdauer Ihrer Daten zu erhalten.


Bei der Entscheidung, welche S3-Speicherklasse am besten für Ihre Workload geeignet ist, sollten Sie die Zugriffsmuster und die Aufbewahrungszeit Ihrer Daten berücksichtigen, um die niedrigsten Gesamtkosten über die Lebensdauer Ihrer Daten zu erhalten. Viele Workloads haben wechselnde (nutzergenerierte Inhalte), unvorhersehbare (Analysen, Data Lakes) oder unbekannte (neue Anwendungen) Zugriffsmuster. Deshalb sollte S3 Intelligent-Tiering die Standard-Speicherklasse sein, um automatisch Speicherkosten zu sparen. Wenn Sie die Zugriffsmuster Ihrer Daten kennen, können Sie die folgenden Hinweise befolgen. Die Speicherklasse S3 Standard ist ideal für Daten, auf die häufig zugegriffen wird. Sie ist die beste Wahl, wenn Sie mehr als einmal pro Monat auf Daten zugreifen. S3 Standard-Infrequent Access ist ideal für Daten, die mindestens einen Monat lang aufbewahrt werden und auf die alle ein bis zwei Monate zugegriffen wird. Die Amazon-S3-Glacier-Speicherklassen wurden speziell für die Datenarchivierung entwickelt und bieten Ihnen die höchste Leistung, die größte Abrufflexibilität und den kostengünstigsten Archivspeicher in der Cloud. Sie können jetzt aus drei Archivspeicherklassen wählen, die für unterschiedliche Zugriffsmuster und Speicherdauer optimiert wurden. Für Archivdaten, auf die sofortiger Zugriff erforderlich ist, wie z. B. medizinische Bilder, Nachrichtenmedien-Komponenten oder Genomik-Daten, ist die Speicherklasse S3 Glacier Instant Retrieval die erste Wahl und bietet die kostengünstigste Speicherung mit Abrufen in Millisekunden. Für Archivdaten, auf die kein sofortiger Zugriff erforderlich ist, die aber die Flexibilität benötigen, große Datenmengen kostenlos abzurufen, wie z. B. Backup- oder Notfallwiederherstellungs-Anwendungsfälle, wählen Sie S3 Glacier Flexible Retrieval, mit Abrufen innerhalb von Minuten oder kostenlosen Massenabrufen innerhalb von 5–12 Stunden. Um bei Langzeit-Archivspeichern, wie z. B. Compliance-Archiven und der Aufbewahrung digitaler Medien, noch mehr sparen zu können, wählen Sie S3 Glacier Deep Archive, den kostengünstigsten Speicher in der Cloud mit Datenabruf innerhalb von 12 Stunden. Alle diese Speicherklassen bieten Ausfallsicherheit für mehrere Availability Zones (AZ), indem sie Daten redundant auf mehreren Geräten und physisch getrennten AWS Availability Zones in einer AWS-Region speichern.

Für Daten mit geringeren Anforderungen an die Ausfallsicherheit können Sie die Kosten senken, indem Sie eine Speicherklasse mit einer einzelnen AZ auswählen, wie S3 One Zone-Infrequent Access. Wenn Sie Datenresidenz- oder Isolierungsanforderungen haben, die von einer bestehenden AWS-Region nicht erfüllt werden können, können Sie S3-Speicherklassen für dedizierte AWS Local Zones oder S3 on Outposts-Racks verwenden, um Ihre Daten in einem bestimmten Perimeter zu speichern.

S3 Intelligent-Tiering

Alles öffnen

S3 Intelligent-Tiering ist der erste Cloud-Speicher, der Ihre Speicherkosten auf detaillierter Objektebene automatisch senkt, indem er Daten basierend auf der Zugriffsfrequenz automatisch auf die kostengünstigste Zugriffsebene verschiebt – ohne Leistungseinbußen, Abrufgebühren oder betriebliche Fixkosten. S3 Intelligent-Tiering bietet eine Latenz im Millisekundenbereich und hohe Durchsatzleistung für Daten, auf die häufig, selten und auch sehr selten zugegriffen wird, in der Frequent-Access-, der Infrequent-Access- und der Archive-Instant-Access-Ebene. Gegen eine geringe monatliche Gebühr für Objektüberwachung und Automatisierung überwacht S3 Intelligent-Tiering die Zugriffsmuster und bewegt die Objekte automatisch von einer Ebene zur anderen. Es gibt keine Abrufgebühren in S3 Intelligent-Tiering, daher werden Sie keine unerwarteten Erhöhungen der Speicherkosten feststellen, wenn sich die Zugriffsmuster ändern. Sie können S3 Intelligent-Tiering als Standardspeicherklasse für praktisch jeden Workload verwenden, insbesondere für Data Lakes, Datenanalytik, Machine Learning, neue Anwendungen und nutzergenerierte Inhalte.

Die Speicherklasse Amazon S3 Intelligent-Tiering wurde entwickelt, um Speicherkosten zu optimieren, indem Daten automatisch auf die kostengünstigste Zugriffsebene verschoben werden, wenn sich die Zugriffsmuster ändern. Für eine geringe monatliche Überwachungs- und Automatisierungsgebühr pro Objekt werden Zugriffsmuster von S3 Intelligent-Tiering überwacht und Objekte, auf die seit 30 aufeinanderfolgenden Tagen kein Zugriff erfolgte, auf die Infrequent-Access-Ebene verschoben, um bis zu 40 % der Speicherkosten einzusparen. Nach 90 aufeinanderfolgenden Tagen ohne Zugriff werden die Objekte in die Archive Instant Access-Ebene verschoben, um bis zu 68 % der Speicherkosten einzusparen. S3 Intelligent-Tiering hat keine Auswirkungen auf die Leistung und es fallen keine Abrufgebühren an. Wenn später auf ein Objekt in der Infrequent Access-Ebene oder in der Archiv Instant Access-Ebene zugegriffen wird, wird es automatisch zurück in die Frequent Access-Ebene verschoben. Um die geringsten Speicherkosten für Daten zu erhalten, auf die asynchron zugegriffen werden kann, können Sie zusätzliche Archivierungsfunktionen aktivieren. Sobald Sie eine oder beide asynchronen Archive-Access-Ebenen aktivieren, verschiebt S3 Intelligent-Tiering Objekte, auf die mindestens 90 Tage lang nicht zugegriffen wurde, in die Archive-Access-Ebene, um bis zu 71 % einzusparen, und nach 180 Tagen ohne Zugriff in die Deep-Archive-Access-Ebene, um bis zu 95 % bei Objekten einzusparen, auf die sehr selten zugegriffen wird. Wenn ein Objekt in der optionalen Archive- oder Deep-Access-Ebene später wiederhergestellt wird, wird es zurück in die Frequent-Access-Ebene verschoben. Bevor Sie das Objekt abrufen können, müssen Sie es zunächst mit RestoreObject wiederherstellen. Weitere Informationen zum Wiederherstellen von archivierten Objekten finden Sie unter Wiederherstellen von archivierten Objekten. Bei S3 Intelligent-Tiering werden keine Abrufgebühren erhoben. Es werden keine zusätzlichen Ebenen- oder Lebenszyklusgebühren erhoben, wenn Objekte innerhalb der S3 Intelligent-Tiering-Speicherklasse zwischen Zugriffsebenen verschoben werden.

Es gibt keine Mindestobjektgröße in S3 Intelligent-Tiering, aber Objekte, die kleiner als 128 KB sind, kommen nicht für das automatische Tiering in Frage. Diese kleineren Objekte können auch in S3 Intelligent-Tiering gespeichert werden, werden jedoch immer zu den Tarifen für die Frequent-Access-Ebene berechnet. Es fallen keine Überwachungs- und Automatisierungsgebühren an. Wenn Sie S3 Intelligent-Tiering als Standardspeicherklasse für neu erstellte Daten verwenden möchten, können Sie Ihre Anwendungen ändern, indem Sie INTELLIGENT-TIERING im Header Ihrer S3-PUT-API-Anforderung angeben. S3 Intelligent-Tiering ist auf eine Verfügbarkeit von 99,9 % und eine Haltbarkeit der Daten von 99,999999999 % ausgelegt. Es bietet automatisch die gleiche niedrige Latenz und hohe Durchsatzleistung wie S3 Standard. Verwenden Sie den AWS-Cost-Explorer, um die zusätzlichen Einsparungen durch die Archive-Instant-Access-Ebene zu messen.

Sie können S3 Intelligent-Tiering als Standardspeicherklasse für praktisch jeden Workload verwenden, insbesondere für Data Lakes, Datenanalytik, Machine Learning, neue Anwendungen und nutzergenerierte Inhalte. S3 Intelligent-Tiering ist der erste Cloud-Speicher, der Ihre Speicherkosten auf detaillierter Objektebene automatisch senkt, indem er Daten basierend auf der Zugriffsfrequenz automatisch auf die kostengünstigste Zugriffsebene verschiebt – ohne Leistungseinbußen, Abrufgebühren oder betriebliche Fixkosten. Wenn Sie Daten mit unbekannten oder sich ändernden Zugriffsmustern haben, einschließlich Data Lakes, Datenanalysen und neuen Anwendungen, empfehlen wir S3 Intelligent-Tiering. Wenn Sie Daten haben, die nicht sofort abgerufen werden müssen, empfehlen wir die Aktivierung der Deep-Archive-Access-Ebene, bei der Sie nur 1 USD pro TB pro Monat für Daten zahlen, auf die langfristig nur selten zugegriffen wird. S3 Intelligent-Tiering ist für Daten mit unbekannten oder sich ändernden Zugriffsmustern. Bei Verwendung der Speicherklasse S3 Intelligent-Tiering fallen keine Abrufgebühren an.

S3 Intelligent-Tiering optimiert automatisch die Speicherkosten, ohne die Leistung zu beeinträchtigen. Die S3 Intelligent-Tiering-Ebenen „Frequent“, „Infrequent“ und „Archive Instant Access“ bieten Latenzzeiten im Millisekundenbereich und hohe eine Durchsatzleistung.

Für Daten, auf die asynchron zugegriffen werden kann, bietet die optionale Archive-Access-Ebene die gleiche Leistung wie S3 Glacier Flexible Retrieval. Die Deep-Archive-Access-Ebene bietet die gleiche Leistung wie die Speicherklasse „S3 Glacier Deep Archive“. Sie sollten die asynchronen Archivierungsfunktionen nur aktivieren, wenn Ihre Anwendung mehrere Minuten bis Stunden warten kann. Wenn das Objekt, das Sie abrufen wollen, in den Archive- oder Deep-Archive-Access-Ebenen gespeichert ist, müssen Sie, bevor Sie das Objekt abrufen können, zunächst ein Exemplar mit RestoreObject wiederherstellen. Weitere Informationen zum Wiederherstellen von archivierten Objekten finden Sie unter Wiederherstellen von archivierten Objekten. Objekte in der Archive-Access-Ebene werden innerhalb von 3 bis 5 Stunden in die Ebene Frequent Access verschoben und innerhalb von 12 Stunden, falls sie sich in der Ebene Deep Archive Access befinden. Wenn Sie einen schnelleren Zugriff auf ein Objekt der Archive-Access-Ebene benötigen, können Sie für einen schnelleren Abruf bezahlen, indem Sie über die Konsole die Geschwindigkeit des beschleunigten Abrufs auswählen.

S3 Intelligent-Tiering ist für die gleiche Haltbarkeit von 99,999999999 % wie die Speicherklasse S3 Standard ausgelegt. S3 Intelligent-Tiering wurde für eine Verfügbarkeit von 99,9 % entwickelt und umfasst ein Service Level Agreement mit Service-Gutschriften, sollte die Verfügbarkeit in einem beliebigen Abrechnungszeitraum geringer ausfallen, als von uns zugesagt.

Es gibt zwei Möglichkeiten, Daten in S3 Intelligent-Tiering zu importieren. Sie können einen direkten PUT-Import in S3 Intelligent-Tiering durchführen, indem Sie INTELLIGENT_TIERING im x-amz-storage-Header angeben, oder Sie können Lebenszyklusrichtlinien festlegen, um Objekte von S3 Standard oder S3 Standard – IA nach S3 INTELLIGENT_TIERING zu übertragen.

S3 Intelligent-Tiering stellt Ihnen monatlich Speicherplatz, Anforderungen und Datentransfer in Rechnung und erhebt eine geringe monatliche Gebühr für die Überwachung und Automatisierung pro Objekt. Die Speicherklasse S3 Intelligent-Tiering speichert Objekte automatisch in drei Zugriffsebenen: in der Frequent-Access-Ebene zu den S3-Standardspeichertarifen, in der Infrequent-Access-Ebene zu den S3-Standard-Infrequent-Access-Speichertarifen und in der Archive-Instant-Access-Ebene zu den S3-Glacier-Instant-Retrieval-Speichertarifen. S3 Intelligent-Tiering hat außerdem zwei optionale Archivebenen für den asynchronen Zugriff: eine Archive-Access-Ebene zu den S3-Glacier-Flexible-Retrieval-Speichertarifen und eine Deep-Archive-Access-Ebene zu den S3-Glacier-Deep-Archive-Speichertarifen.

Gegen eine geringe Überwachungs- und Automatisierungsgebühr überwacht S3 Intelligent-Tiering die Zugriffsmuster und verschiebt Objekte automatisch in drei Zugriffsebenen mit niedriger Latenz und hohem Durchsatz sowie in zwei optionale asynchrone Archivzugriffsebenen, die Kunden die niedrigsten Cloud-Speicherkosten für Daten bieten, auf die asynchron zugegriffen werden kann.

Es gibt keine Mindestgröße für abrechenbare Objekte in S3 Intelligent-Tiering, aber Objekte, die kleiner als 128 KB sind, kommen nicht für das automatische Tiering in Frage. Diese kleinen Objekte werden nicht überwacht und werden immer zu den Tarifen der Frequent-Access-Ebene abgerechnet, ohne Überwachungs- und Automatisierungsgebühren. Für jedes Objekt, das auf der Archivzugriffsebene oder der tiefen Archivzugriffsebene in S3 Intelligent-Tiering archiviert wird, benutzt Amazon S3 8 KB Speicherplatz für den Namen des Objekts und andere Metadaten (abgerechnet zu S3 Standard-Speichertarifen) und 32 KB Speicherplatz für Index- und zugehörige Metadaten (abgerechnet zu Speichertarifen von S3 Glacier und S3 Glacier Deep Archive).

Nein. Bei S3 Intelligent-Tiering werden keine Abrufgebühren erhoben. S3 Intelligent-Tiering überwacht die Zugriffsmuster Ihrer Daten. Wenn Sie auf ein Objekt in den Ebenen „Infrequent Access“, „Archive Instant Access“ oder „Asynchronous Archive“ zugreifen, verschiebt S3 Intelligent-Tiering dieses Objekt automatisch in die Ebene „Frequent Access“.


Um auf ein Objekt in den Ebenen Archiv oder Deep Archive Access zuzugreifen, müssen Sie eine Wiederherstellungsanforderung ausgeben, und das Objekt wird wieder in die Ebene Frequent Access verschoben, und zwar innerhalb der Speicherklasse S3 Intelligent-Tiering. Objekte in der Archivzugriffsebene werden innerhalb von 3-5 Stunden in die Frequent Access-ebene verschoben, Objekte in der tiefen Archivzugriffsebene werden innerhalb von 12 Stunden in die Frequent Access-ebene verschoben. Sobald sich das Objekt in der Frequent-Access-Ebene befindet, können Sie eine GET-Anforderung zum Abrufen des Objekts stellen.

Sie können Amazon S3 Inventory verwenden, um die Zugriffsebene von Objekten zu melden, die in der S3 Intelligent-Tiering-Speicherklasse gespeichert sind. Amazon S3 Inventory bietet CSV-, ORC- oder Parkett-Ausgabedateien, die Ihre Objekte und die entsprechenden Metadaten täglich oder wöchentlich für einen S3-Bucket oder ein gemeinsames Präfix auflisten. Sie können auch eine HEAD-Anfrage zu Ihren Objekten stellen, um die S3 Intelligent-Tiering-Archivzugriffsebenen zu melden.

Ja. Sie können Objekte von den S3 Intelligent-Tiering-Ebenen „Frequent Access“, „Infrequent“ und „Archive Instant Access“ auf die Ebenen „S3 One-Zone Infrequent Access“, „S3 Glacier Flexible Retrieval“ und „S3 Glacier Deep Archive“ verschieben. Darüber hinaus können Sie Objekte von den optionalen Archive-Access-Ebenen von S3 Intelligent-Tiering zu S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive bzw. von der Deep-Archive-Zugriffsebene von S3 Intelligent-Tiering zu S3 Glacier Deep Archive verschieben.

Nein. Die S3-Intelligent-Tiering-Speicherklasse hat keine Mindestspeicherdauer.

Nein. Die S3 Intelligent-Tiering-Speicherklasse hat keine Mindestgröße für abrechenbare Objekte, aber Objekte, die kleiner als 128 KB sind, kommen nicht für die automatische Ausrichtung in Frage. Diese kleineren Objekte werden immer zu den Tarifen der Frequent-Access-Ebene abgerechnet, ohne Überwachungs- und Automatisierungsgebühren. Für jedes Objekt, das auf der optionalen Archive-Access-Ebene oder der Deep-Archive-Access-Ebene in S3 Intelligent-Tiering archiviert wird, belegt Amazon S3 8 KB Speicherplatz für den Namen des Objekts und andere Metadaten (abgerechnet zu S3-Standard-Speichertarifen) und 32 KB Speicherplatz für Index- und zugehörige Metadaten (abgerechnet zu S3-Glacier-Flexible-Retrieval- und S3-Glacier-Deep-Archive-Speichertarifen). Weitere Einzelheiten finden Sie auf der Preisseite zu Amazon S3

S3 Standard

Alles öffnen

Amazon S3 Standard eignet sich für die dauerhafte Speicherung mit Zugriffslatenzzeiten im Millisekundenbereich und hoher Durchsatzleistung von Daten, auf die häufig zugegriffen wird, in der Regel mehr als einmal pro Monat. S3 Standard wurde für leistungssensible Anwendungsfälle entwickelt, wie z. B. Data Lakes, cloudnative Anwendungen, dynamische Websites, Content Distribution, Mobile- und Gaming-Anwendungen, Analysen und Machine-Learning-Modelle. S3 Standard ist für eine Datenverfügbarkeit von 99,99 % und eine Haltbarkeit von 99,999999999 % der über mehrere Availability Zones gespeicherten Objekte in einem bestimmten Jahr ausgelegt. Über S3-Lifecycle-Richtlinien können Sie genau steuern, wann Daten ohne Anwendungsänderungen zwischen S3-Standard- und kostengünstigeren Speicherklassen verschoben werden.

S3 Standard ist ideal für Daten, die sehr häufig abgerufen oder verändert werden, und die einen Zugriff im Millisekundenbereich und eine hohe Durchsatzleistung erfordern. S3 Standard ist ideal für Daten, die sehr häufig gelesen oder geschrieben werden, da keine Abrufkosten anfallen. Damit ist S3 Standard für eine Vielzahl von Anwendungsfällen optimiert, darunter Data Lakes, cloudnative Anwendungen, dynamische Websites, Content Distribution, Mobile- und Gaming-Anwendungen sowie Analytik.

S3 Express One Zone

Alles öffnen

Amazon S3 Express One Zone ist eine leistungsstarke Amazon-S3-Speicherklasse mit einer einzigen Verfügbarkeitszone, die speziell dafür entwickelt wurde, konsistenten einstelligen Millisekunden-Datenzugriff für die latenzempfindlichsten Anwendungen der Kunden zu ermöglichen. Amazon S3 Express One Zone ist die Cloud-Objektspeicherklasse mit der niedrigsten Latenz, die derzeit verfügbar ist. Die Datenzugriffsgeschwindigkeit ist bis zu zehnmal schneller und die Anforderungskosten liegen um 80 % unter denen von Amazon S3 Standard. Mit S3 Express One Zone können Sie eine bestimmte AWS-Verfügbarkeitszone innerhalb einer AWS-Region auswählen, um Ihre Daten zu speichern. Sie können sich dafür entscheiden, Ihren Speicher und Rechenressourcen in derselben Availability Zone zu platzieren, um die Leistung weiter zu optimieren.

S3 Express One Zone ist die ideale Speicherklasse für Anwendungen, die die schnellste Datenzugriffsgeschwindigkeit und höchste Leistung für latenzempfindliche Anwendungen benötigen. S3 Express One Zone ist die beste Speicherklasse für anforderungsintensive Operationen wie Machine Learning (ML), Training und Inferenz, interaktive Analysen und die Erstellung von Medieninhalten.

Sie können beginnen, indem Sie einen S3-Directory-Bucket in einer AWS Availability Zone (AZ) Ihrer Wahl erstellen. Sie können sich dafür entscheiden, Ihren Speicher und Rechenressourcen in derselben AZ zu platzieren, um die Leistung weiter zu optimieren. In Directory-Buckets ist S3 Block Public Access standardmäßig aktiviert. Nachdem Sie den Directory-Bucket erstellt haben, können Sie Objekte direkt in die S3-Speicherklasse Express One Zone hochladen oder Objekte aus vorhandenen S3-Speicherklassen in die S3 Express One Zone kopieren. Sie können Daten auch mit einem einzigen Klick in der AWS-Managementkonsole in S3 Express One Zone importieren oder S3 Batch Operations verwenden, um einen ganzen Bucket, ein Präfix oder Teilmengen von Daten aus einer vorhandenen S3-Speicherklasse in die S3 Express One Zone zu kopieren.

Sie können Daten aus derselben AWS-Region über die S3-Konsole in die S3-Speicherklasse Express One Zone importieren, indem Sie die Import-Option verwenden, nachdem Sie einen Verzeichnis-Bucket erstellt haben. Import vereinfacht das Kopieren von Daten in S3-Verzeichnis-Buckets, indem Sie ein Präfix oder einen Bucket auswählen können, aus dem Daten importiert werden sollen, ohne alle zu kopierenden Objekte einzeln angeben zu müssen. S3 Batch Operations kopiert die Objekte in das ausgewählte Präfix oder den Allzweck-Bucket, und Sie können den Fortschritt des Importkopierauftrags auf der Seite mit den Auftragsdetails von S3 Batch Operations überwachen.

S3-Express-One-Zone-Objekte werden in einer einzelnen AWS Availability Zone (AZ) gespeichert, die Sie auswählen. Wenn Sie Objekte in einer Zone speichern, können Sie Ihre Daten lokal auf Ihrem Computer speichern, um die Latenz zu minimieren. Sie können aus verschiedenen Availability Zones auf Daten zugreifen, obwohl die Latenz steigen wird.

S3 Express One Zone bietet eine ähnliche Leistungselastizität wie andere S3-Speicherklassen, jedoch mit konsistenten Latenzlatenzen für Lese- und Schreiblatenzanfragen im einstelligen Millisekundenbereich – bis zu zehnmal schneller als bestehende S3-Speicherklassen. Mit S3 Express One Zone müssen Kunden Kapazitäts- oder Durchsatzanforderungen nicht im Voraus planen oder bereitstellen und profitieren sofort von Anfragen, die um eine Größenordnung schneller bearbeitet werden. S3 Express One Zone ist ideal für Analyseaufträge, bei denen die Speicherlatenz die Auftragsabschlusszeiten beschleunigt und die Gesamtbetriebskosten senkt. Es ist auch ideal für interaktive Workloads wie Videobearbeitung, bei denen Kreativprofis einen möglichst reaktionsschnellen Zugriff auf ihre S3-Daten benötigen.

S3 Express One Zone verwendet eine einzigartige Architektur, um die Leistung zu optimieren und eine konstant niedrige Anforderungslatenz zu gewährleisten. S3 Express One Zone speichert Daten auf Hochleistungshardware, und das Objektprotokoll wurde verbessert, um den Authentifizierungs- und Metadatenaufwand zu optimieren. Um die Zugriffsgeschwindigkeit weiter zu erhöhen und bis zu 2 Millionen von Anfragen pro Sekunde zu unterstützen, werden Daten außerdem in einem neuen Bucket-Typ gespeichert – einem Amazon-S3-Verzeichnis-Bucket. Mit S3 Express One Zone können Sie eine bestimmte AWS-Verfügbarkeitszone innerhalb einer AWS-Region auswählen, um Ihre Daten zu speichern. Sie können sich dafür entscheiden, Ihren Speicher und Rechenressourcen in derselben Availability Zone zu platzieren, um die Leistung weiter zu optimieren.

Jeder S3-Verzeichnis-Bucket kann bis zu 2 Millionen Lesevorgänge und bis zu 200 000 Schreibvorgänge pro Sekunde pro S3-Verzeichnis-Bucket unterstützen, unabhängig von der Anzahl der Verzeichnisse innerhalb des Buckets. Standardmäßig unterstützt jeder S3-Verzeichnis-Bucket bis zu 200.000 Lesevorgänge und bis zu 100.000 Schreibvorgänge pro Sekunde. Wenn für Ihre Workload mehr als die standardmäßigen TPS-Grenzwerte erforderlich sind, können Sie über den AWS Support eine Erhöhung beantragen.

S3-Verzeichnis-Buckets, die über einen Zeitraum von mindestens 3 Monaten keine Anforderungsaktivität aufweisen, werden in einen inaktiven Zustand versetzt. In einem inaktiven Zustand ist ein Verzeichnis-Bucket vorübergehend für Lese- und Schreibvorgänge nicht zugänglich. Inaktive Buckets behalten alle Speicher-, Objekt- und Bucket-Metadaten bei. Bestehende Speichergebühren fallen für inaktive Buckets an. Bei einer Zugriffsanforderung auf einen inaktiven Bucket wechselt der Bucket in einen aktiven Zustand, in der Regel innerhalb weniger Minuten. Während dieser Übergangsphase geben Lese- und Schreibvorgänge einen „503 SlowDown“-Fehlercode zurück.

S3 Express One Zone bietet einen ähnlich hohen, elastischen Durchsatz wie andere Amazon-S3-Speicherklassen. S3 Express One Zone wurde von Grund auf so konzipiert, dass einzelne Kunden den Durchsatz auf ein sehr hohes Gesamtniveau steigern können. Beispielsweise können Modelltrainingsanwendungen für Machine Learning anhand von Millionen von Objekten und Petabyte an Daten trainiert werden. Sie können die höchste Leistung erzielen, indem Sie diese Anfragen auf separate Verbindungen verteilen, um die verfügbare Bandbreite zu maximieren.

Mit S3 Express One Zone authentifizieren und autorisieren Sie Anfragen über einen neuen sitzungsbasierten Mechanismus, S3 CreateSession, der so optimiert ist, dass er die niedrigste Latenz bietet. Sie können CreateSession verwenden, um temporäre Anmeldeinformationen anzufordern, die den Zugriff auf Ihren Bucket mit geringer Latenz ermöglichen. Diese temporären Anmeldeinformationen sind auf einen bestimmten S3-Verzeichnis-Bucket beschränkt. Weitere Informationen zu diesem sitzungsbasierten Modell finden Sie unter S3 CreateSession im Entwicklerhandbuch.

S3 Express One Zone wurde für eine Verfügbarkeit von 99,95 % innerhalb einer einzigen Availability Zone mit einer Verfügbarkeits-SLA von 99,9 % konzipiert.

Mit S3 Express One Zone werden Ihre Daten redundant auf mehreren Geräten innerhalb einer einzigen AZ gespeichert. S3 Express One Zone ist konzipiert, um gleichzeitige Geräteausfälle durch schnelles Erfassen und Instandsetzen verlorener Redundanz zu überstehen. Das bedeutet, dass S3 Express One Zone Anfragen automatisch an neue Geräte innerhalb einer AZ weiterleitet, wenn das vorhandene Gerät ausfällt. Diese Redundanz bietet einen unterbrechungsfreien Zugriff auf Ihre Daten innerhalb einer AZ.

Sie können mit der Verwendung von S3 Express One Zone beginnen, ohne dass Ihnen Einrichtungsgebühren oder sonstige Verpflichtungen entstehen. S3 Express One Zone berechnet Ihnen Gebühren für Speicher und Anfragen. Das in einem Monat in Rechnung gestellte Speichervolumen wird auf der Grundlage des gesamten Speicherverbrauchs pro Stunde berechnet, gemessen in Gigabyte pro Monat (GB-Monat). Außerdem wird Ihnen eine Gebühr pro Anfrage für den Zugriff berechnet, die vom Anfragetyp abhängt, z. B. PUTs und GETs. Sie zahlen eine zusätzliche Gebühr pro GB für das Hochladen und Abrufen von Daten. Beispiel 1:
Nehmen wir an, Sie speichern 10 GB an Daten 30 Tage lang in S3 Express One Zone, führen insgesamt 1 000 000 Schreibvorgänge und 9 000.000 Lesevorgänge durch und greifen mit Athena mit einer Anforderungsgröße von 10 KB zu. Anschließend löschen Sie innerhalb von 30 Tagen 1 000 000 Dateien. Die Gebühren für Speicherung und Anforderungen sind im Folgenden aufgeführt. Dabei wird davon ausgegangen, dass sich Ihr Bucket in der Region USA Ost (Nord-Virginia) befindet: Speichergebühren
Gesamtzahl verwendeter Byte-Stunden = 10 GB-Monat
Gesamtspeicherkosten = 10 GB pro Monat x 0,11 USD = 1,10 USD Anforderungsgebühren
1 000 000 PUT-Anforderungen: 1 000 000 Anforderungen x 0,00113 USD/1 000 = 1,13 USD
9 000 000 GET-Anforderungen: 9 000 000 Anforderungen x 0,00003 USD/1 000 = 0,27 USD
1 000 000 DELETE-Anforderungen = 1 000 000 Anforderungen x 0,00 USD (keine Gebühr) = 0 USD Gebühr für das Hochladen von Daten: 10 KB/1 048 576 x 0,0032 USD = 0,03 USD
Gebühr für den Datenabruf: 10 KB/1 048 576 x 9 000 000 x 0,0006 USD = 0,05 USD
Gesamtgebühren = 1,10 USD + 1,13 USD + 0,27 USD + 0,03 USD + 0,05 USD = 2,58 USD Beispiel 2:
Nehmen wir an, Sie speichern täglich 10 TB an Daten für Machine Learning für einen 8-stündigen Workload und löschen diese dann. Während des 8-stündigen Workloads führen Sie 5 242 880 Schreibvorgänge und 10 485 760 Lesevorgänge für eine Anforderungsgröße von 2 MB aus. Nehmen wir an, Sie tun dies 30 Tage lang (einen Monat). Speichergebühren
Gesamtnutzung in Byte-Stunden = [10 995 116 277 760 Byte x 30 Tage x (8 Stunden pro Tag)] = 2 638 827 906 662 400 Byte-Stunden = 3 303,77 GB-Monat
Gesamtspeicherkosten = 3303,77 GB x 0,11 USD = 363,41 USD Anforderungsgebühren
5 242 880 PUT-Anfragen/Tag: 5 242 880 Anfragen x 30 x 0,00113 USD/1 000 = 177,73 USD
10 485 760 GET-Anfragen/Tag: 10 485 760 Anfragen x 30 x 0,00003 USD/1 000 = 9,44 USD
5 242 880 DELETE-Anforderungen/Tag = 5 242 880 Anforderungen x 0,00 USD (keine Gebühr) = 0 USD Gebühr für das Hochladen von Daten: 2 MB/1 024 x 5 242 880 x 30 x 0,0032 USD = 983,04 USD
Gebühr für den Datenabruf: 2 MB/1 024 x 10 485 760 x 30 x 0,0006 USD = 368,64 USD
Gesamtgebühren = 363,41 USD + 177,73 USD + 9,44 USD + 983,04 USD + 368,64 USD = 1 902,26 USD

Die Anforderungsgebühren für den Zugriff auf Daten in S3 Express One Zone beinhalten die Kosten für die Übertragung von Daten innerhalb des AWS-Netzwerks in einer Region, und es fallen keine zusätzlichen Datenübertragungsgebühren für Daten an, die zwischen Amazon EC2 (oder einem beliebigen AWS-Service) und der S3 Express One Zone innerhalb derselben Region übertragen werden, beispielsweise für Daten, die innerhalb der Region USA Ost (Nord-Virginia) übertragen werden.

Die Anforderungsgebühren für den Zugriff auf Daten in S3 Express One Zone beinhalten die Kosten für die Nutzung von Gateway-VPC-Endpunkten, und es fallen keine zusätzlichen Gebühren für die Verwendung von Gateway-Endpunkten mit S3 Express One Zone an.

S3 Standard – Infrequent Access (S3 Standard-IA)

Alles öffnen

Amazon S3 Standard-Infrequent Access (S3 Standard-IA) ist eine Amazon-S3-Speicherklasse für Daten, auf die seltener zugegriffen wird, die bei Bedarf jedoch schnell abrufbar sein müssen. S3 Standard-IA bietet die hohe Lebensdauer, den hohen Durchsatz und die geringen Latenzzeiten der Speicherklasse Amazon S3 Standard zu einem günstigen Speicher- und Abrufpreis pro GB. Diese Kombination aus niedrigen Kosten und hoher Leistung machen S3 Standard – IA zur idealen Lösung für langfristige Speicherung, Sicherung und als Datenspeicher für Notfallwiederherstellungen. Die Speicherklasse S3 Standard – IA wird auf der Objektebene eingestellt und kann im selben Bucket wie die Speicherklassen S3 Standard- oder S3 One Zone-IA verbleiben, sodass Sie S3-Lebenszyklusrichtlinien für die automatische Objektübertragung zwischen Speicherklassen verwenden können, ohne die Anwendung zu ändern.

S3 Standard – IA ist die ideale Speicherlösung für Daten, auf die seltener zugegriffen wird, die bei Bedarf jedoch schnell abrufbar sein müssen. S3 Standard – IA eignet sich optimal für die langfristige Speicherung von Dateien, ältere synchronisierte und freigegebene Daten und andere ältere Daten.

S3 Standard – IA bietet dieselbe Latenz im Millisekundenbereich und Durchsatzleistung wie die Speicherklasse S3 Standard. 

Es gibt zwei Möglichkeiten, Daten in S3 Standard – IA zu importieren. Sie können einen direkten PUT-Import in S3 Standard – IA durch Eingabe von STANDARD_IA in die x-amz-storage-class-Kopfzeile durchführen. Außerdem können Sie Lebenszyklusrichtlinien festlegen, um Objekte aus der Speicherklasse S3 Standard in die Speicherklasse S3 Standard – IA zu verschieben.

Es fallen Gebühren für eine S3 Standard (Zielspeicherklasse) COPY-Anfrage und einen S3-Standard –IA (Quellspeicherklasse)-Datenabruf an. Weitere Informationen zu den Preisen finden Sie auf der Amazon S3-Preisseite.

S3 Standard – IA wurde für Langzeitdaten mit selteneren Zugriffen konzipiert, die für Monate oder auch Jahre gespeichert werden. Für Daten, die innerhalb von 30 Tagen aus S3-Standard-IA gelöscht werden, werden 30 volle Tage berechnet. Informationen zu den Preisen von S3-Standard – IA finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

S3 Standard – IA ist für größere Objekte ausgelegt und sieht eine Mindestgebühr für 128 KB Objektspeicher vor. Objekte, die kleiner als 128 KB sind, werden mit einer Größe von 128 KB berechnet. Beispiel: Für ein Objekt mit einer Größe von 6 KB werden in S3-Standard-IA 6 KB berechnet plus einer Gebühr für die Mindestobjektgröße, die 122 KB des Speicherpreises in S3-Standard-IA entspricht. Informationen zu den Preisen von S3-Standard – IA finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

Ja. Neben der Verwendung von Lebenszyklusrichtlinien für die Migration von Objekten von S3 Standard zu S3 Standard-IA können Sie auch Lebenszyklusrichtlinien für die Migration von Objekten von S3 Standard-IA zu S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und der Speicherklasse S3 Glacier Deep Archive einrichten.

S3 One Zone-Infrequent Access (S3 One Zone-IA)

Alles öffnen

Die Speicherklasse S3 One Zone – IA ist eine Amazon-S3-Speicherklasse, in der Kunden Objekte auf Wunsch in einer einzigen Availability Zone speichern können. S3 One Zone – IA-Speicher speichert Daten redundant in dieser einzigen Availability Zone. So fallen um 20 % niedrigere Speicherkosten an als bei der geografisch redundanten S3 Standard – IA-Speicherung, bei der Daten redundant in mehreren, geografisch voneinander getrennten Availability Zones gespeichert werden. S3 One Zone-IA sichert in seinem SLA eine Verfügbarkeit von 99 % zu und ist auf eine Zuverlässigkeit von 11 x die Zahl 9 innerhalb der Availability Zone ausgelegt. Die Daten in der Speicherklasse S3 One Zone-IA sind jedoch nicht resistent gegen den physischen Verlust einer gesamten Availability Zone. Die Speicherklasse S3 One Zone-IA bietet dieselben Amazon S3-Features wie S3 Standard und S3 Standard-IA und wird über die Amazon S3-API, die CLI und die Konsole genutzt. Die Speicherklasse S3 One Zone – IA wird auf der Objektebene eingestellt und kann im selben Bucket verbleiben wie die Speicherklassen S3 Standard und S3 Standard – IA. Sie können S3-Lebenszyklusrichtlinien verwenden, um Objekte automatisch zwischen den Speicherklassen zu verschieben, ohne die Anwendung zu ändern.

Kunden können S3 One Zone-IA als Speicher für Daten nutzen, auf die nur selten zugegriffen wird, z. B. Sicherungskopien, Notfallwiederherstellungskopien oder andere leicht wiederherstellbare Daten.

Die Speicherklasse „S3 One Zone-IA“ bietet die gleichen Latenz- und Durchsatzleistungen wie die Speicherklassen „S3 Standard“ und „S3 Standard – Infrequent Access“.

Die Speicherklasse S3 One Zone – IA ist auf eine Zuverlässigkeit von 99,999999999 % innerhalb einer Availability Zone ausgelegt. Die Daten in der Speicherklasse S3 One Zone-IA sind jedoch nicht resistent gegen den Verlust der Verfügbarkeit oder den physischen Verlust einer gesamten Availability Zone. Im Gegensatz dazu sind die Speicherklassen S3 Standard, S3 Intelligent-Tiering, S3 Standard-Infrequent Access und S3 Glacier so konzipiert, dass sie den Verlust der Verfügbarkeit oder die Zerstörung einer Availability Zone auffangen können. S3 One Zone – IA bietet eine mindestens ebenso hohe Zuverlässigkeit und Verfügbarkeit wie die meisten modernen physischen Rechenzentren. Darüber hinaus bietet sie den Vorteil der Speicherelastizität sowie die Features von Amazon S3.

Ja. Jede AWS-Region ist ein separater geografischer Bereich. Jede Region verfügt über mehrere isolierte Standorte, die als Availability Zones bezeichnet werden. Die Speicherklasse Amazon S3 One Zone – IA nutzt eine einzelne AWS Availability Zone innerhalb der Region.

Jede Availability Zone verwendet eine redundante Energieversorgung und ein redundantes Netzwerk. Die Availability Zones innerhalb einer AWS-Region befinden sich in Zonen mit unterschiedlichem Überschwemmungs- und Erdbebenrisiko und sind aus Brandschutzgründen geografisch voneinander getrennt. Die Speicherklassen S3 Standard und S3 Standard-IA speichern Ihre Daten redundant in mehreren Availability Zones und schützen sie so vor solchen Katastrophen. S3 One Zone-IA bietet Schutz vor Geräteausfällen innerhalb einer Availability Zone. Die Daten sind jedoch nicht resistent gegen den physischen Verlust der Availability Zone infolge von Katastrophen wie Erdbeben und Überschwemmungen. Mit den Optionen S3 One Zone-IA, S3 Standard- und S3 Standard-IA können Sie die Speicherklasse auswählen, die Ihren Anforderungen an den Speicher im Hinblick auf Zuverlässigkeit und Verfügbarkeit am besten entspricht.

Speicherklasse für Amazon S3 Glacier Instant Retrieval

Alles öffnen

S3 Glacier Instant Retrieval ist die kostengünstigste Speicherklasse für langlebige Daten, auf die nur selten zugegriffen wird und die einen Abruf in Millisekunden erfordern. S3 Glacier Instant Retrieval bietet den schnellsten Zugriff auf Archivspeicher mit demselben Durchsatz und derselben Zugriffszeit in Millisekunden wie die Speicherklassen S3 Standard und S3 Standard-IA. S3 Glacier Instant Retrieval wurde für eine Datenhaltbarkeit von 99,999999999 % (11x9) und eine Verfügbarkeit von 99,9 % konzipiert, indem Daten redundant über mindestens drei physisch getrennte AWS Availability Zones gespeichert werden.

S3 Glacier Instant Retrieval ist ideal, wenn Sie Daten haben, auf die nur selten (einmal pro Quartal) zugegriffen wird, und die Abrufzeiten im Millisekundenbereich liegen müssen. Wählen Sie diese Speicherklasse, wenn Sie die gleiche niedrige Latenz und hohe Durchsatzleistung wie S3 Standard – IA benötigen, aber Daten speichern möchten, auf die weniger häufig zugegriffen wird als bei S3 Standard – IA. Der Speicherpreis ist niedriger, der Datenzugriff etwas teurer.

S3 Glacier Instant Retrieval ist für eine Haltbarkeit von 99,999999999 % (11 9en) und eine Verfügbarkeit von 99,9 % ausgelegt, genau wie S3 Standard-IA, und beinhaltet eine Service-Level-Vereinbarung, die Servicegutschriften vorsieht, wenn die Verfügbarkeit in einem Abrechnungszyklus weniger als 99 % beträgt.

S3 Glacier Instant Retrieval bietet dieselbe Latenzzeit im Millisekundenbereich und Durchsatzleistung wie die Speicherklassen S3 Standard und S3 Standard-IA. Anders als bei den Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive, die für den asynchronen Zugriff konzipiert sind, müssen Sie vor dem Zugriff auf ein in S3 Glacier Instant Retrieval gespeichertes Objekt keine Wiederherstellungsanfrage stellen.

Es gibt zwei Möglichkeiten, Daten in S3 Glacier Instant Retrieval zu importieren. Sie können einen direkten PUT-Import in S3 Glacier Instant Retrieval durchführen, indem Sie GLACIER_IR im x-amz-storage-class-Header angeben, oder Sie können S3-Lifecycle-Richtlinien festlegen, um Objekte von S3 Standard oder S3 Standard – IA nach S3 Glacier Instant Retrieval zu übertragen.

S3 Glacier Instant Retrieval ist für langlebige Daten gedacht, auf die nur selten zugegriffen wird und die über Monate oder Jahre gespeichert werden. Objekte, die in S3 Glacier Instant Retrieval archiviert werden, müssen mindestens 90 Tage lang gespeichert werden. Für Objekte, die vor 90 Tagen gelöscht, überschrieben oder übertragen werden, wird eine anteilige Gebühr in Höhe der Speichergebühr für die verbleibenden Tage erhoben. Informationen zu den Preisen von Amazon S3 Glacier Instant Retrieval finden Sie auf der Amazon-S3-Preisseite.

S3 Glacier Instant Retrieval ist für größere Objekte ausgelegt und sieht eine Mindestgebühr für 128 KB Objektspeicher vor. Objekte, die kleiner als 128 KB sind, werden mit einer Größe von 128 KB berechnet. Beispiel: Für ein Objekt mit einer Größe von 6 KB werden in S3 Glacier Instant Retrieval 6 KB berechnet plus einer Gebühr für die Mindestobjektgröße, die 122 KB des Speicherpreises in S3 Glacier Instant Retrieval entspricht. Informationen zu den Preisen von Amazon S3 Glacier Instant Retrieval finden Sie auf der Amazon-S3-Preisseite.

Bei S3 Glacier Instant Retrieval fallen Gebühren für den monatlichen Speicherplatz, für anfragenabhängige Anfragen und für Datenabrufe an. Der für einen Monat in Rechnung gestellte Speicherplatz basiert auf der durchschnittlichen, im Laufe des Monats genutzten Speicherkapazität, die in sog. Gigabyte-Monaten (GB-Monaten) gemessen wird. Die Gebühren für Anfragen richten sich nach dem Anfragetyp, z. B. PUTs, COPYs und GETs. Außerdem zahlen Sie eine Gebühr pro GB für jedes Gigabyte an Daten, das Sie abrufen. 

Speicherklasse für Amazon S3 Glacier Flexible Retrieval

Alles öffnen

Die Speicherklasse S3 Glacier Flexible Retrieval bietet kostengünstigen Speicher mit bis zu 10 % niedrigeren Kosten (als S3 Glacier Instant Retrieval) für Archivdaten, auf die 1–2 Mal pro Jahr zugegriffen wird und die asynchron abgerufen werden. Massenabrufe sind kostenlos. Für Archivdaten, auf die kein sofortiger Zugriff erforderlich ist, die aber die Flexibilität benötigen, große Datenmengen ohne Kosten abzurufen, wie z. B. Backup- oder Notfallwiederherstellungs-Anwendungsfälle, ist S3 Glacier Flexible Retrieval die ideale Speicherklasse. S3 Glacier Flexible Retrieval bietet die meisten Abrufoptionen und ein gutes Gleichgewicht aus Kosten und Zugriffszeiten, die von Minuten bis Stunden reichen können. Massenabrufe sind kostenlos. Die Speicherklasse eignet sich ideal für Backup, Notfallwiederherstellung, externe Datenspeicherung und für den Fall, dass gelegentlich Daten innerhalb von Minuten abgerufen werden müssen und Sie sich dabei keine Sorgen um den Preis machen wollen. S3 Glacier Instant Retrieval wurde für eine Datenbeständigkeit von 99,999999999 % (11x9) und eine Verfügbarkeit von 99,99 % konzipiert, indem Daten redundant über mehrere physisch getrennte AWS Availability Zones gespeichert werden.

Für Archivdaten, auf die kein sofortiger Zugriff erforderlich ist, die aber die Flexibilität benötigen, große Datenmengen ohne Kosten abzurufen, wie z. B. Backup- oder Notfallwiederherstellungs-Anwendungsfälle, ist S3 Glacier Flexible Retrieval die ideale Speicherklasse. S3 Glacier Flexible Retrieval bietet die meisten Abrufoptionen und ein gutes Gleichgewicht aus Kosten und Zugriffszeiten, die von Minuten bis Stunden reichen können. Massenabrufe sind kostenlos. Die Speicherklasse eignet sich ideal für Backup, Notfallwiederherstellung, externe Datenspeicherung und für den Fall, dass gelegentlich Daten innerhalb von Minuten abgerufen werden müssen und Sie sich dabei keine Sorgen um den Preis machen wollen.

Es gibt zwei Möglichkeiten, Daten in S3 Glacier Flexible Retrieval zu importieren. Sie können einen direkten PUT-Import in S3 Glacier Flexible Retrieval durch die Angabe von GLACIER im x-amz-storage-class-Header durchführen. Sie können auch S3-Lifecycle-Regeln benutzen, um Objekte von einer der Amazon S3-Speicherklassen für aktive Daten (S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA und S3 Glacier Instant Retrieval) basierend auf dem Objektalter in Amazon S3 Glacier Flexible Retrieval zu überführen. Verwenden Sie die Amazon-S3-Managementkonsole, die AWS-SDKs oder die Amazon-S3-APIs, um direkt in Amazon S3 Glacier zu PUT-Daten zu gelangen oder Regeln für die Archivierung zu definieren.

Hinweis: S3 Glacier Flexible Retrieval ist auch über die ursprünglichen direkten Glacier-APIs und über die Amazon-S3-Glacier-Managementkonsole verfügbar. Für ein verbessertes Erlebnis mit Zugriff auf den gesamten Featureumfang von S3, einschließlich Lebenszyklusmanagement, S3 Replication, S3 Storage Lens und mehr, empfehlen wir, S3-APIs und die S3-Managementkonsole zu benutzen, um die Features von S3 Glacier zu nutzen.

Auf Objekte, die in S3 Glacier Flexible Retrieval archiviert werden, wird asynchron zugegriffen. Um Daten abzurufen, die in der Speicherklasse S3 Glacier Flexible Retrieval gespeichert sind, starten Sie eine Abrufanforderung über die Amazon-S3-APIs oder die Amazon-S3-Konsole. Mit der Abrufanforderung wird eine temporäre Kopie Ihrer Daten in der Speicherklasse S3 Standard erstellt, während die archivierten Daten in S3 Glacier Flexible Retrieval unverändert bleiben. Sie können angeben, wie viele Tage die temporäre Kopie in Amazon S3 gespeichert bleibt. Über das Anwenden einer Amazon-S3-GET-Anforderung auf das archivierte Objekt können Sie anschließend auf Ihre temporäre Kopie in S3 zugreifen. In AWS-Regionen, in denen Speicher mit reduzierter Redundanz günstiger ist als S3 Standard, werden vorübergehend verfügbare Daten als Speicher mit reduzierter Redundanz abgerechnet. Die Abrechnungsspeicherklasse mit reduzierter Redundanz spiegelt jedoch nicht wider, wie die Daten gespeichert werden. Mit Wiederherstellungsbenachrichtigungen können Sie jetzt per S3-Ereignisbenachrichtigung benachrichtigt werden, wenn ein Objekt erfolgreich aus S3 Glacier Flexible Retrieval wiederhergestellt wurde und Ihnen die temporäre Kopie zur Verfügung gestellt wird. Der Bucket-Besitzer (oder andere, wie durch eine IAM-Richtlinie erlaubt) kann die Ausgabe von Benachrichtigungen an Amazon Simple Queue Service (SQS) oder Amazon Simple Notification Service (SNS) veranlassen. Benachrichtigungen können auch an AWS Lambda zur Verarbeitung durch eine Lambda-Funktion übermittelt werden.

Bei der Verarbeitung eines Abrufauftrags ruft Amazon S3 zunächst die angeforderten Daten aus S3 Glacier Flexible Retrieval ab und erstellt dann eine temporäre Kopie der angeforderten Daten in Amazon S3. Dies dauert in der Regel ein paar Minuten. Die Zugriffszeit für Ihre Anfrage hängt von der von Ihnen gewählten Abrufoption ab: Expedited, Standard oder Massenabrufe. Für alle außer den größten Objekten (ab 250 MB) stehen die Daten, auf die Sie über „Expedited“-Abrufe zugreifen, normalerweise innerhalb von 1 bis 5 Minuten zur Verfügung. Standard-Objektabrufe werden normalerweise innerhalb von 3 bis 5 Stunden abgeschlossen. Standardabrufe beginnen in der Regel innerhalb von Minuten, wenn sie mithilfe von S3-Batch-Operationen initiiert werden. Massenabrufe werden in der Regel innerhalb von 5 bis 12 Stunden kostenlos ausgeführt. Weitere Informationen zu den Abrufoptionen von S3 Glacier Flexible Retrieval finden Sie unter Wiederherstellung eines archivierten Objekts im S3-Benutzerhandbuch.
Bei mit der Speicherklasse S3 Glacier bereitgestellten Kapazitätseinheiten können Sie eine feste Vorausgebühr für einen bestimmten Monat zahlen, um die Verfügbarkeit von Abrufkapazitäten für beschleunigte Abrufe aus S3 Glacier Flexible Retrieval zu gewährleisten. Sie können zwei bereitgestellte Kapazitätseinheiten pro Monat erwerben, um die Datenmenge, die Sie abrufen können, zu erhöhen. Jede Kapazitätseinheit gewährleistet, dass alle fünf Minuten mindestens drei Schnellabrufe durchgeführt werden können und bietet einen Abrufdurchsatz von bis zu 150 MB/s. Wenn Ihre Arbeitslast einen äußerst zuverlässigen und vorhersehbaren Zugriff auf eine Teilmenge Ihrer Daten innerhalb von Minuten erfordert, sollten Sie bereitgestellte Abrufkapazität erwerben. Ohne bereitgestellte Kapazität werden in Zeiten hoher Nachfrage möglicherweise keine beschleunigten Abrufe akzeptiert. Wenn Sie unter irgendwelchen Umständen Zugang zu beschleunigten Abrufen benötigen, empfehlen wir Ihnen den Kauf von bereitgestellter Abrufkapazität.
Sie können bereitgestellte Kapazität über die Amazon S3-Konsole, die REST-API für den Kauf bereitgestellter Kapazität, die AWS SDKs oder die AWS CLI erwerben. Eine bereitgestellte Kapazitätseinheit hat eine Laufzeit von einem Monat, als dessen Startdatums das Datum und die Uhrzeit des Kaufs zu verstehen ist. Die Einheit läuft am Verfallsdatum ab, das auf die Sekunde genau einen Monat nach dem Startdatum liegt. Informationen zu den Preisen für bereitgestellte Kapazität finden Sie unter Amazon-S3-Preise.

Der für einen Monat in Rechnung gestellte Speicherplatz basiert auf der durchschnittlichen, im Laufe des Monats genutzten Speicherkapazität, die in sog. Gigabyte-Monaten (GB-Monaten) gemessen wird. Amazon S3 berechnet die Objektgröße als die Menge der von Ihnen gespeicherten Daten plus zusätzliche 32 KB S3 Glacier-Daten plus zusätzliche 8 KB Amazon-S3-Standard-Speicherklassen-Daten. S3 Glacier Flexible Retrieval benötigt zusätzlich 32 KB Daten pro Objekt für den Index und die Metadaten von S3 Glacier, damit Sie Ihre Daten identifizieren und abrufen können. Amazon S3 benötigt 8 KB zum Speichern und Verwalten des benutzerdefinierten Namens und der Metadaten für Objekte, die in S3 Glacier Flexible Retrieval archiviert werden. Damit können Sie eine Echtzeitliste aller Ihrer Amazon-S3-Objekte abrufen, einschließlich derjenigen, die unter Verwendung von S3 Glacier Flexible Retrieval, der Amazon S3 LIST API oder des S3-Inventory-Berichts gespeichert sind. Wenn Sie beispielsweise 100 000 Objekte mit einer Größe von jeweils 1 GB archiviert haben, würde Ihr abrechenbarer Speicherplatz folgendermaßen aussehen:
1,000032 GB für jedes Objekt x 100 000 Objekte = 100 003,2 GB S3-Glacier-Speicher.
0,000008 GB für jedes Objekt x 100 000 Objekte = 0,8 GB S3-Standardspeicher.
Die Gebühren errechnen sich aus den aktuellen Tarifen für Ihre AWS-Region, die Sie auf der Seite mit der Preisübersicht für Amazon S3 finden. Weitere Beispiele für die Preisgestaltung von Amazon S3 finden Sie in den FAQs zur S3-Abrechnung oder Sie können den AWS-Preisrechner benutzen.

Objekte, die in S3 Glacier Flexible Retrieval archiviert werden, können mindestens 90 Tage lang gespeichert werden. Wenn ein Objekt vor Ablauf von 90 Tagen gelöscht, überschrieben oder überführt wird, fällt eine anteilige Gebühr in Höhe der Speichergebühr für die verbleibenden Tage an.

S3 Glacier Flexible Retrieval benötigt außerdem 40 KB zusätzliche Metadaten für jedes archivierte Objekt. Darin enthalten sind 32 KB Metadaten, die zum S3-Glacier-Flexible-Retrieval-Tarif berechnet werden, der für die Identifizierung und den Abruf Ihrer Daten erforderlich ist. Und zusätzliche 8 KB Daten zum S3-Standardtarif, die erforderlich sind, um den benutzerdefinierten Namen und die Metadaten für Objekte zu erhalten, die in S3 Glacier Flexible Retrieval archiviert werden. Damit können Sie jedoch eine Echtzeitliste all Ihrer S3-Objekte mit der S3 LIST-API oder dem S3 Inventory-Bericht abrufen. Informationen zu den Preisen von Amazon S3 Glacier Flexible Retrieval finden Sie auf der Amazon-S3-Preisseite.

Es gibt drei Möglichkeiten Daten von S3 Glacier Flexible Retrieval abzurufen: Schnell-, Standard- und Massenabrufe. Schnell- und Standardabrufe haben eine Abrufgebühr pro GB und eine jeweilige Anforderungsgebühr (d. h. Sie zahlen für Anforderungen, die für Ihr Amazon S3 Objekt gestellt wurden). Massenabrufe aus S3 Glacier Flexible Retrieval sind kostenlos. Detaillierte Preise für S3 Glacier nach AWS-Region finden Sie auf der Amazon-S3-Preisseite.

Die Speicherklassen von Amazon S3 Glacier wurden speziell für die Datenarchivierung entwickelt und bieten Ihnen die höchste Leistung, die größte Abrufflexibilität und die kostengünstigste Archivspeicherung in der Cloud. Sie können jetzt aus drei Archivspeicherklassen wählen, die für unterschiedliche Zugriffsmuster und Speicherdauer optimiert wurden. Für Archivdaten, auf die sofortiger Zugriff erforderlich ist, wie z. B. medizinische Bilder, Nachrichtenmedien-Komponenten oder Genomik-Daten, ist die Speicherklasse S3 Glacier Instant Retrieval die erste Wahl und bietet die kostengünstigste Speicherung mit Abrufen in Millisekunden. Für Archivdaten, auf die kein sofortiger Zugriff erforderlich ist, die aber die Flexibilität benötigen, große Datenmengen kostenlos abzurufen, wie z. B. Backup- oder Notfallwiederherstellungs-Anwendungsfälle, wählen Sie S3 Glacier Flexible Retrieval, mit Abrufen innerhalb von Minuten oder kostenlosen Massenabrufen innerhalb von 5–12 Stunden. Um bei Langzeit-Archivspeichern, wie z. B. Compliance-Archiven und der Aufbewahrung digitaler Medien, noch mehr sparen zu können, wählen Sie S3 Glacier Deep Archive, den kostengünstigsten Speicher in der Cloud mit Datenabruf innerhalb von 12 Stunden.

Wir konzentrieren uns darauf, unseren Kunden Leistung, Beständigkeit, Verfügbarkeit und Sicherheit zu bieten. Diese Frage wird jedoch häufig von unseren Kunden gestellt. Wir verwenden eine Reihe von verschiedenen Technologien, die es uns ermöglichen, unseren Kunden diese Preise anzubieten. Unsere Services nutzen gängige Datenspeichertechnologien, die mithilfe von AWS entwickelter Software zu spezialisierten, kostenoptimierten Systemen zusammengefügt werden. Die S3-Glacier-Speicherklassen profitieren von unserer Fähigkeit, die Abfolge von Ein- und Ausgaben zu optimieren, um maximale Effizienz beim Zugriff auf den zugrunde liegenden Speicher zu erreichen.

Amazon S3 Glacier Deep Archive

Alles öffnen

S3 Glacier Deep Archive ist eine Amazon-S3-Speicherklasse, die einen sicheren, beständigen Objektspeicher zur langfristigen Aufbewahrung von Daten bietet, auf die nur ein- oder zweimal im Jahr zugegriffen wird. Bereits ab 0,00099 USD pro GB und Monat (das ist weniger als ein Zehntelcent bzw. ca. 1 USD pro TB und Monat) bietet S3 Glacier Deep Archive den preiswertesten Speicherplatz in der Cloud. Dies ist wesentlich kostengünstiger, als Daten in On-Premises-Magnetbandbibliotheken oder ausgelagert zu archivieren.

S3 Glacier Deep Archive ist die ideale Speicherklasse, um die wichtigsten Datensätze Ihres Unternehmens offline zu schützen und um Daten langfristig aufzubewahren, wenn dies etwa in den Unternehmensrichtlinien oder Verträgen festgeschrieben oder gesetzlich erforderlich ist. Kunden sind von den Leistungen von S3 Glacier Deep Archive überzeugt. Der Service hat sich bewährt beim Schutz wichtigen geistigen Eigentums, von Finanz- und ärztlichen Unterlagen, Forschungsergebnissen, Rechtsunterlagen und Studien zur seismischen Erschließung sowie bei der langfristigen Datenspeicherung, darunter vor allem in stark regulierten Branchen wie den Finanzdienstleistungen, dem Gesundheitswesen, dem Öl- und Gassektor sowie dem öffentlichen Sektor. Außerdem wird diese Speicherklasse von anderen Branchen, etwa der Medien- und Unterhaltungsbranche geschätzt, die wichtiges geistiges Eigentum sicher aufbewahren möchten. Kunden, die S3 Glacier Deep Archive verwenden, brauchen lokal verwendete Magnetbänder und die ausgelagerte Archivierung dieser Bandarchive häufig gar nicht mehr oder zumindest in wesentlich geringerem Umfang.

S3 Glacier Deep Archive erweitert unser Datenarchivierungsangebot und ermöglicht es Ihnen, die optimale Speicherklasse basierend auf den Speicher- und Abrufkosten und Abrufzeiten auszuwählen. Wählen Sie die Speicherklasse S3 Glacier Instant Retrieval, wenn Sie innerhalb von Millisekunden Zugriff auf kostengünstige Archivdaten benötigen. Für Archivdaten, auf die kein sofortiger Zugriff erforderlich ist, die aber die Flexibilität benötigen, große Datenmengen kostenlos abzurufen, wie z. B. Backup- oder Notfallwiederherstellungs-Anwendungsfälle, wählen Sie S3 Glacier Flexible Retrieval, mit Abrufen innerhalb von Minuten oder kostenlosen Massenabrufen innerhalb von 5–12 Stunden. S3 Glacier Deep Archive hingegen eignet sich für Daten, auf die Sie wahrscheinlich nicht zugreifen müssen, die aber trotzdem langfristig und sicher aufbewahrt werden müssen. S3 Glacier Deep Archive ist bis zu 75 % günstiger als S3 Glacier Flexible Retrieval und bietet mit der Standard-Abrufstufe einen Abruf innerhalb von 12 Stunden. Standardabrufe beginnen normalerweise innerhalb von 9 Stunden, wenn sie mit S3-Batch-Operationen initiiert werden. Mit der Option Massenabruf, bei der die Daten innerhalb von 48 Stunden verfügbar sind, können Sie die Abrufkosten noch weiter senken.

Die einfachste Methode, Daten in S3 Glacier Deep Archive zu speichern, ist, Daten direkt über die S3 API hochzuladen. Als Speicherklasse geben Sie einfach „S3 Glacier Deep Archive“ an. Dazu verwenden Sie die AWS-Managementkonsole, die S3 REST API, die AWS SDKs oder die AWS-Befehlszeilenschnittstelle. Sie können als ersten Schritt mit S3 Glacier Deep Archive auch Richtlinien zur Datenmigration über S3 Lifecycle erstellen. Auf diese Weise legen Sie den Lebenszyklus des Objekts fest und reduzieren so die Speicherkosten. Diese Richtlinien können so festgelegt werden, dass Objekte basierend auf ihrem Alter nach S3 Glacier Deep Archive migriert werden. Sie können die Richtlinien für ein S3-Bucket oder für bestimmte Präfixe bestimmen. Lebenszyklusübergänge werden nach dem Upload-Preis von S3 Glacier Deep Archive abgerechnet. S3 Glacier Deep Archive lässt sich jetzt in Tape Gateway integrieren, eine cloudbasierte virtuelle Bandbibliothek und ein Feature von AWS Storage Gateway. So können Sie Ihre virtuellen, bandgestützen, langfristigen Backups und Archive in S3 Glacier Deep Archive speichern und erhalten die günstigste Cloud-Speicheroption für diese Daten. Erstellen Sie zunächst mit AWS Storage Gateway Console oder der API ein virtuelles Band und legen Sie als Speicherziel für das Archiv entweder S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive fest. Wenn Ihre Backupanwendung das Band auswirft, wird es am ausgewählten Speicherziel archiviert.

Es gibt verschiedene Möglichkeiten zur Migration von Daten aus bestehenden Bandarchiven nach S3 Glacier Deep Archive. Sie können beispielsweise die bestehenden Sicherungsanwendungen über AWS Tape Gateway und eine VTL-Schnittstelle (Virtual Tape Library) integrieren. Diese Schnittstelle präsentiert der Backupanwendung die virtuellen Bänder. Sie können dann direkt zur Datenspeicherung in Amazon S3, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive verwendet werden.
Sie können AWS Snowball auch verwenden, um Daten zu migrieren. Snowball beschleunigt das Verschieben von Datenmengen im Terabyte- oder Petabyte-Bereich in und aus AWS. Für den physischen Transport kommen sichere Speichergeräte zum Einsatz. Die Verwendung von Snowball hilft bei der Bewältigung von Herausforderungen, die beim Übertragen von großen Datenmengen auftreten können, darunter hohe Netzwerkkosten, lange Übertragungszeiten und Sicherheitsbedenken. Außerdem können Sie auch mit AWS Direct Connect dedizierte Netzwerkverbindungen zwischen Ihrem Standort und AWS herstellen. Häufig können Sie mit Direct Connect Ihre Netzwerkkosten senken, den Bandbreitendurchsatz erhöhen und eine konsistentere Netzwerkverbindung bereitstellen, als dies bei einer internetbasierten Verbindung möglich wäre.

Sie können zum Abrufen von in S3 Glacier Deep Archive gespeicherten Daten über die Amazon S3 APIs oder die Amazon-S3-Managementkonsole eine Wiederherstellungsanforderung auslösen. Bei der Wiederherstellung wird eine temporäre Kopie Ihrer Daten in der S3-Standardspeicherklasse erstellt. Die in S3 Glacier Deep Archive archivierten Daten bleiben dabei unverändert. Sie können die Anzahl der Tage angeben, für die die temporäre Kopie in S3 gespeichert werden soll. Über das Anwenden einer Amazon-S3-GET-Anforderung auf das archivierte Objekt können Sie anschließend auf Ihre temporäre Kopie in S3 zugreifen. Beim Wiederherstellen eines archivierten Objekts können Sie im Kontingent-Element des Anforderungstexts eine der folgenden Optionen angeben: Standard ist die Standardstufe und ermöglicht Ihnen den Zugriff auf alle Ihre archivierten Objekte innerhalb von 12 Stunden, wobei Abrufe in der Regel innerhalb von 9 Stunden nach der Initiierung mithilfe von S3-Batch-Operationen beginnen. Mit der Massenabfrage können Sie große Datenmengen, sogar Petabytes an Daten, kostengünstig abrufen und in der Regel innerhalb von 48 Stunden abschließen.

Die Speicherkosten für S3 Glacier Deep Archive hängen von der Menge der gespeicherten Daten (in GB), der Anzahl der PUT-/Lebenszyklusübergangsanforderungen, den Abrufen in GB und der Anzahl der Wiederherstellungsanforderungen ab. Das Preismodell ist ähnlich dem von S3 Glacier Flexible Retrieval. Informationen zu den Preisen von S3 Glacier Deep Archive finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

Die Nutzung von S3 Glacier Deep Archive und die damit verbundenen Kosten werden auf Ihrer monatlichen AWS-Rechnung als Einzelposten und getrennt von Ihrer Nutzung und den Kosten von Amazon S3 angezeigt. Falls Sie jedoch das Tool AWS-Kostenmanagement verwenden, sind die Nutzung und die Kosten für S3 Glacier Deep Archive in den ausführlichen monatlichen Ausgabeberichten in der Nutzung und den Kosten für Amazon S3 enthalten und werden nicht als getrennter Einzelposten aufgeführt.

Objekte, die in S3 Glacier Deep Archive archiviert werden, verfügen über einen Speicherplatz von mindestens 180 Tagen. Wenn ein Objekt vor Ablauf von 180 Tagen gelöscht, überschrieben oder überführt wird, fällt eine anteilige Gebühr in Höhe der Speichergebühr für die verbleibenden Tage an. S3 Glacier Deep Archive benötigt außerdem 40 KB zusätzliche Metadaten für jedes archivierte Objekt. Darin enthalten sind 32 KB Metadaten, die zum S3-Glacier-Deep-Archive-Tarif berechnet werden, der für die Identifizierung und den Abruf Ihrer Daten erforderlich ist. Und zusätzliche 8 KB Daten zum S3-Standardtarif, die erforderlich sind, um den benutzerdefinierten Namen und die Metadaten für Objekte zu erhalten, die in S3 Glacier Deep Archive archiviert werden. Damit können Sie jedoch eine Echtzeitliste all Ihrer S3-Objekte mit der S3-LIST-API oder dem S3-Inventory-Bericht abrufen. Informationen zu den Preisen von S3 Glacier Deep Archive finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

S3 Glacier Deep Archive ist in Features von Amazon S3 integriert, einschließlich S3 Object Tagging, S3-Lifecycle-Richtlinien, S3 Object Lock und S3 Replication. Mit den S3-Features zur Speicherverwaltung können Sie mit einem einzigen Amazon S3-Bucket einen Mix aus Daten in S3 Glacier Deep Archive, S3 Standard, S3 Standard-IA, S3 One Zone-IA und S3 Glacier Flexible Retrieval speichern. Speicheradministratoren können Entscheidungen so basierend auf der Art der Daten und den Datenzugriffsmustern treffen. Kunden können mit den Lifecycle-Richtlinien von Amazon S3 Daten mit zunehmendem Alter automatisch in günstigere Speicherklassen migrieren oder sie mit den regionsübergreifenden oder regioninternen Replikationsrichtlinien von S3 in der gleichen oder einer anderen Region replizieren. Der Service AWS Storage Gateway integriert Tape Gateway mit der Speicherklasse Amazon S3 Glacier Deep Archive und ermöglicht es Ihnen, virtuelle Bänder in der kostengünstigsten Speicherklasse von Amazon S3 zu speichern, wodurch die monatlichen Kosten für die Speicherung Ihrer Langzeitdaten in der Cloud um bis zu 75 % reduziert werden. Mit diesem Feature unterstützt Tape Gateway die Archivierung Ihrer neuen virtuellen Bänder direkt in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive und hilft Ihnen bei der Erfüllung Ihrer Backup-, Archivierungs- und Wiederherstellungsanforderungen. Mit Tape Gateway können Sie bandgestützte Backups in AWS verschieben, ohne Änderungen an Ihren bestehenden Backup-Workflows vorzunehmen. Tape Gateway unterstützt die meisten gängigen Backup-Anwendungen wie Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (unter Windows OS) und Microsoft Data Protection Manager.

S3 auf Outposts

Alles öffnen

Amazon S3 on Outposts bietet Objekt-Speicherplatz in Ihrer On-Premises-Umgebung, wobei die S3-APIs und Funktionen verwendet werden, die Sie heute in AWS verwenden. AWS Outposts ist ein vollständig verwalteter Service, der die AWS-Infrastruktur, AWS-Services, APIs und Tools in praktisch jedem Rechenzentrum, jedem Co-Location-Bereich oder jeder On-Premises-Einrichtung erweitert. Mit S3 auf Outposts können Sie Kundendaten, die On-Premises generiert wurden, sicher verarbeiten und speichern, bevor sie in eine AWS Region verschoben werden, lokal auf Daten für Anwendungen zugreifen, die On-Premises ausgeführt werden, oder Daten auf Ihrem Outpost für Unternehmen an Standorten mit Anforderungen an die Datenresidenz oder in regulierten Branchen speichern. Um mehr über S3 on Outposts zu erfahren, besuchen Sie die Übersichtsseite.
 

Speicherverwaltung

Alles öffnen

Bei S3-Objekt-Tags handelt es sich um Schlüssel-Wert-Paare für S3-Objekte, die jederzeit während der Lebensdauer des Objekts erstellt, aktualisiert oder gelöscht werden können. Damit können Sie Richtlinien von AWS Identity and Access Management (IAM) erstellen, Amazon-S3-Lifecycle-Richtlinien einrichten und Speichermetriken anpassen. Mit diesen Tags auf Objektebene können dann die Übergänge zwischen Speicherklassen verwaltet und Objekte im Hintergrund als abgelaufen markiert werden. Sie können Tags neuen Objekten hinzufügen, wenn Sie diese hochladen, oder sie bereits vorhandenen Objekten hinzufügen. Jedem S3-Objekt können bis zu zehn Tags hinzugefügt werden. Für das Hinzufügen von Objekt-Tags können Sie entweder die AWS-Managementkonsole, die REST-API, die AWS CLI oder die AWS SDKs verwenden.
Weitere Informationen finden Sie im Benutzerhandbuch für S3-Objekt-Tags.

Bei Objekt-Tags handelt es sich um ein Tool, mit dem Sie die Verwaltung Ihres S3-Speichers vereinfachen können. Da Sie die Möglichkeit haben, Tags jederzeit während der Lebensdauer Ihres Objekts erstellen, aktualisieren und löschen zu können, ist Ihr Speicher flexibel an die Anforderungen Ihres Unternehmens anpassbar. Mithilfe dieser Tags können Sie den Zugriff auf Objekte kontrollieren, die mit bestimmten Schlüssel-Wert-Paaren getaggt wurden, damit vertrauliche Daten tatsächlich nur für eine ausgewählten Gruppe oder einen bestimmten Benutzer zugänglich sind. Objekt-Tags können außerdem verwendet werden, um Objekte zu kennzeichnen, die zu einem bestimmten Projekt oder einem bestimmten Geschäftsbereich gehören. Diese lassen sich sowohl in Verbindung mit S3-Lifecycle-Richtlinien verwenden, um Verschiebungen zu anderen Speicherklassen (S3 Standard-IA, S3 One Zone-IA, Amazon S3 Glacier Instant Retrieval, Amazon S3 Glacier Flexible Retrieval und Amazon S3 Glacier Deep Archive) zu verwalten, als auch mit S3 Replication für die selektive Replikation von Daten zwischen AWS-Regionen.

Objekt-Tags können während der Lebensdauer Ihres S3-Objekts jederzeit über die AWS-Managementkonsole, die REST-API, AWS CLI oder AWS SDKs geändert werden. Beachten Sie bitte, dass alle Änderungen an Tags, die außerhalb der AWS-Managementkonsole vorgenommen werden, für die gesamte Tag-Gruppe erfolgen. Wenn Sie einem bestimmten Objekt fünf Tags zugeordnet haben und ein sechstes Tag hinzufügen möchten, müssen Sie die ursprünglichen fünf Tags in diese Anforderung einschließen.

Die Preise für Objekt-Tags richten sich nach der Menge der Tags und den Anfragekosten für das Hinzufügen von Tags. Die Anforderungen, die mit dem Hinzufügen und Aktualisieren von Objekt-Tags verbunden sind, entsprechen den Preisen für vorhandene Anfragepreise. Weitere Informationen finden Sie auf der Seite mit der Preisübersicht für Amazon S3.

Sie können über die AWS-Managementkonsole oder die PUT-Bucket-Analytics-API von S3 eine Storage-Class-Analysis-Richtlinie konfigurieren, um selten genutzten Speicher zu ermitteln, der in die S3-Standard-IA-Speicherklasse oder Speicherklasse von S3 One Zone – IA übertragen oder in der S3-Glacier-Speicherklasse archiviert werden kann. Auf der Registerkarte „Management“ in der S3-Konsole können Sie Metriken von Storage Class Analysis, S3 Inventory und CloudWatch verwalten.

Sie sollten Amazon S3 Metadata verwenden, wenn Sie SQL verwenden möchten, um Informationen über Ihre S3-Objekte abzufragen, um schnell bestimmte Datensätze für Ihre Anwendungsfälle von generativer KI, Analytik und sonstigem zu identifizieren. S3 Metadata hält Metadaten nahezu in Echtzeit auf dem neuesten Stand, sodass Sie jeden Iceberg-kompatiblen Client verwenden können, um SQL-Abfragen auszuführen, um Objekte anhand der Objektmetadaten zu finden. Sie können beispielsweise eine SQL-Abfrage verwenden, um eine Liste von Objekten zurückzugeben, die bestimmten Filtern entsprechen, z. B. Objekte, die in den letzten 30 Tagen in einem beliebigen Bucket hinzugefügt wurden.

S3 Metadata wurde entwickelt, um automatisch Metadaten zu generieren, die zusätzliche Informationen zu Objekten liefern, die in einen Bucket hochgeladen werden, und um diese Metadaten in einer schreibgeschützten Tabelle abfragbar zu machen. Diese Metadatentabellen werden in Amazon S3 Tables gespeichert, die auf Apache Iceberg basieren und eine verwaltete Möglichkeit zum Speichern und Abfragen von Tabellendaten innerhalb von S3 bieten. S3 Metadata erstellt und verwaltet Metadaten auf Systemebene wie Objektgröße, benutzerdefinierte Metadaten wie Tags und benutzerdefinierte Metadaten beim Hochladen von Objekten sowie Ereignismetadaten wie die IP-Adresse, von der die Anfrage gesendet wurde. Wenn sich die Daten in Ihrem Bucket ändern, werden die S3-Metadaten nahezu in Echtzeit aktualisiert, um die neuesten Änderungen widerzuspiegeln. Anschließend können Sie Ihre Metadatentabellen mithilfe verschiedener AWS-Analytik-Services und Open-Source-Tools, die mit Iceberg kompatibel sind, wie Amazon Athena, Amazon QuickSight und Apache Spark abfragen.

Sie können mit nur wenigen Klicks in der S3-Konsole mit S3 Metadata beginnen. Wählen Sie einfach den Allzweck-S3-Bucket aus, für den Sie S3-Metadaten aktivieren möchten, und S3 analysiert die Daten in Ihrem Bucket und erstellt eine vollständig verwaltete Apache-Iceberg-Tabelle, die Metadaten für alle Ihre Objekte enthält. Innerhalb weniger Minuten können Sie beginnen, Ihre Metadaten mit jeder Abfrage-Engine oder jedem Tool abzufragen, das Apache Iceberg unterstützt.

Ihre S3-Metadatentabellen werden in einem von AWS verwalteten Tabellen-Bucket namens aws-s3 in Ihrem AWS-Konto gespeichert. Ihre Tabellen sind schreibgeschützt und nur S3 hat die Berechtigung, Metadaten zu schreiben, zu aktualisieren oder zu löschen. 

S3 Metadata speichert Metadaten in zwei verwalteten Tabellen in Ihrem Konto: Journal-Tabellen und Live-Inventartabellen. 

Die S3-Metadaten-Journal-Tabelle bietet einen Überblick über die Änderungen, die in Ihrem Bucket vorgenommen wurden. Wenn Objekte zu Ihren allgemeinen S3-Buckets hinzugefügt, aktualisiert und daraus entfernt werden, werden die entsprechenden Änderungen nahezu in Echtzeit in den Journal-Tabellen widergespiegelt. Journal-Tabellen sind hilfreich, um das Verhalten Ihrer Anwendungen zu verstehen und um alle an Ihren Datensätzen vorgenommenen Änderungen zu identifizieren. Sie können beispielsweise SQL-Abfragen für Journal-Tabellen schreiben, um S3-Objekte zu finden, die einem Filter entsprechen, z. B. Objekte, die in den letzten 30 Tagen hinzugefügt wurden, Objekte, die von aktiven Anforderern hinzugefügt wurden, oder Objekte, deren Metadaten in der letzten Woche geändert wurden.

Die Live-Inventartabelle mit S3-Metadaten enthält eine vollständige Liste aller Objekte in Ihrem Bucket. Live-Inventartabellen werden stündlich aktualisiert und enthalten alle Informationen, die S3 über Ihre Objekte weiß. Live-Inventartabellen sind nützlich, um Datensätze in Ihrem Bucket auf der Grundlage der in den Objektmetadaten generierten Eigenschaften zu erkennen oder zu identifizieren. Beispielsweise können Sie Live-Inventartabellen verwenden, um Trainingsdatensätze für Machine Learning zu identifizieren, zur Optimierung der Speicherkosten einzusetzen oder zur Durchsetzung von Governance-Kontrollen beizutragen.

Wenn Sie Ihrem Bucket neue Objekte hinzufügen, werden innerhalb weniger Minuten Einträge in der Journal-Tabelle angezeigt. Bei der nächsten stündlichen Aktualisierung werden Sie Einträge in der Live-Inventartabelle sehen. Wenn Sie S3-Metadaten für einen vorhandenen Bucket aktivieren, startet S3 automatisch einen Backfill-Vorgang, um Metadaten für alle Ihre vorhandenen Objekte zu generieren. Dieses Auffüllen ist in der Regel innerhalb von Minuten abgeschlossen, kann jedoch mehrere Stunden dauern, wenn Ihre vorhandenen Datensätze Millionen oder Milliarden von S3-Objekten enthalten.

Ja. Sie können Ihre eigenen Iceberg-Tabellen in Tabellen-Buckets erstellen, die benutzerdefinierte Metadaten enthalten, und sie dann mit den Tabellen verknüpfen, die S3 Metadata mithilfe einfacher SQL-Abfragen generiert.

Der S3-Inventory-Bericht stellt eine Alternative mit Zeitplanung zur synchronen Listen-API von Amazon S3 dar. Sie können S3 Inventory so konfigurieren, dass es täglich oder wöchentlich für ein S3-Bucket oder ein Präfix eine Übersicht über Ihre Objekte und die zugehörigen Metadaten in Form einer CSV (Comma Separated Values), einer ORC (Optimized Row Columnar) oder einer Parquet-Datei zur Verfügung stellt. Mit S3 Inventory können Sie Workflows und Aufträge mit großem Datenumfang vereinfachen oder beschleunigen. Sie können S3 Inventory auch zur Verifizierung der Verschlüsselung und des Replikationsstatus Ihrer Objekte verwenden, um geschäftliche, Compliance- und behördliche Anforderungen zu erfüllen. Weitere Informationen finden Sie im Amazon-S3-Inventory-Benutzerhandbuch.

Mit der AWS-Managementkonsole oder der PUT Bucket Inventory Configuration API können Sie einen täglichen oder wöchentlichen Bestandsbericht aller Objekte in Ihrem S3-Bucket oder einer Untergruppe der Objekte unter einem gemeinsam genutzten Präfix konfigurieren. Bei der Konfiguration können Sie ein Ziel-S3-Bucket für Ihren S3 Inventory-Bericht, das Ausgabeformat der Ausgabedatei (CSV, ORC oder Parquet) und spezielle Objektmetadaten angeben, die für Ihre Geschäftsanwendung erforderlich sind, z. B. Objektname, Größe, Datum der letzten Änderung, Speicherklasse, Versions-ID, Löschmarkierung, Flag für veraltete Version, Flag für mehrteiligen Upload, Replikationsstatus oder Verschlüsselungsstatus. Sie können S3 Inventory als direkte Eingabe für Ihre Anwendungs-Workflows oder Big-Data-Aufträge verwenden. Zusätzlich können Sie S3 Inventory mithilfe von Standard SQL-Sprache mit Amazon Athena, Amazon Redshift Spectrum und anderen Tools wie Presto, Hive und Spark abfragen. Weitere Informationen finden Sie im Amazon-S3-Inventory-Benutzerhandbuch.

Sie finden Informationen zu den Preisen für S3 Inventory auf der Seite mit der Preisübersicht für Amazon S3. Wenn Sie die Verschlüsselung mit SSE-KMS konfigurieren, fallen KMS-Kosten für die Verschlüsselung an. Weitere Informationen finden Sie auf der Seite mit der Preisübersicht für KMS.

Amazon S3 Tables bieten S3-Speicher, der speziell für Analytik-Workloads optimiert ist. Dadurch wird die Abfrageleistung verbessert und gleichzeitig die Kosten gesenkt. Über die S3-Tables-Integration mit Amazon SageMaker Lakehouse können Sie mit vertrauten AWS-Services wie Amazon Athena, Redshift und EMR auf erweiterte Analysefunktionen von Iceberg zugreifen und Daten abfragen. Darüber hinaus können Sie Iceberg-REST-kompatible Drittanbieteranwendungen wie Apache Spark, Apache Flink, Trino, DuckDB und PyIceberg verwenden, um Daten in S3 Tables zu lesen und zu schreiben. Sie können Tabellen-Buckets verwenden, um tabellarische Daten wie tägliche Kauftransaktionen, Streaming-Sensordaten oder Anzeigenimpressionen als Iceberg-Tabelle in Amazon S3 zu speichern und dann mithilfe von Analytikfunktionen wie Transaktionen auf Zeilenebene, abfragbare Tabellen-Snapshots und mehr, mit diesen Daten zu interagieren, die alle von Amazon S3 verwaltet werden. Darüber hinaus führen Tabellen-Buckets eine kontinuierliche Tabellenwartung durch, um die Abfrageeffizienz im Laufe der Zeit automatisch zu optimieren, auch wenn der Data Lake skaliert und weiterentwickelt wird.

Sie sollten S3 Tables verwenden, um tabellarische Daten auf einfache, leistungsstarke und kostengünstige Weise in Amazon S3 zu speichern. S3 Tables bieten Ihnen die Möglichkeit, Ihre strukturierten Daten in Tabellen zu organisieren und diese Daten dann mit Standard-SQL-Anweisungen abzufragen, praktisch ohne Einrichtung. Darüber hinaus bieten S3 Tables die gleiche Haltbarkeit, Verfügbarkeit, Skalierbarkeit und Leistungsmerkmale wie S3 selbst und optimieren automatisch Ihren Speicher, um die Abfrageleistung zu maximieren und die Kosten zu minimieren.

S3 Tables bieten speziell entwickelten S3-Speicher zum Speichern strukturierter Daten im Apache-Parquet-Format. Innerhalb eines Tabellen-Buckets können Sie Tabellen als erstklassige Ressourcen direkt in S3 erstellen. Diese Tabellen können mit Berechtigungen auf Tabellenebene gesichert werden, die entweder in identitäts- oder ressourcenbasierten Richtlinien definiert sind, und sind für Anwendungen oder Tools zugänglich, die den Apache-Iceberg-Standard unterstützen. Wenn Sie eine Tabelle in Ihrem Tabellen-Bucket erstellen, werden die zugrunde liegenden Daten in S3 als Parquet-Dateien gespeichert. Dann verwendet S3 den Apache-Iceberg-Standard, um die Metadaten zu speichern, die erforderlich sind, damit diese Parquet-Daten von Ihren Anwendungen abgefragt werden können. S3 Tables enthalten eine Client-Bibliothek, die von Abfrage-Engines verwendet wird, um in den Iceberg-Metadaten der Tabellen in Ihrem Tabellen-Bucket zu navigieren und sie zu aktualisieren. Diese Bibliothek ermöglicht in Verbindung mit aktualisierten S3-APIs für Tabellenoperationen mehreren Clients das sichere Lesen und Schreiben von Daten in Ihre Tabellen. Im Laufe der Zeit optimiert S3 automatisch die zugrunde liegenden Parquet-, Avro- oder ORC-Daten, indem Ihre Objekte neu geschrieben oder „komprimiert“ werden. Die Komprimierung optimiert Ihre Daten auf S3, um die Abfrageleistung zu verbessern.

Sie können in nur drei Schritten mit S3 Tables beginnen, ohne eine Infrastruktur außerhalb von Amazon S3 einrichten zu müssen. Erstellen Sie zunächst einen Tabellen-Bucket in der S3-Konsole. Im Rahmen der Erstellung Ihres ersten Tabellen-Buckets über die Konsole erfolgt die Integration mit den AWS-Analytics-Services automatisch, sodass S3 automatisch alle Tabellen-Buckets und Tabellen in Ihrem Konto und Ihrer Region im AWS-Glue-Datenkatalog auffüllen kann. Danach ist S3 Tables jetzt für AWS-Abfrage-Engines wie Amazon Athena, EMR und Redshift zugänglich. Als Nächstes können Sie in der S3-Konsole auf Amazon Athena klicken, um eine Tabelle zu erstellen. Sobald Sie sich in Athena befinden, können Sie umgehend mit dem Erstellen neuer Tabellen und dem Abfragen dieser Tabellen beginnen.

Alternativ können Sie mithilfe des Iceberg-REST-Katalog-Endpunkts über den AWS-Glue-Datenkatalog auf S3 Tables zugreifen, sodass Sie Ihren gesamten Datenbestand einschließlich aller Tabellenressourcen ermitteln können. Sie können auch eine direkte Verbindung zu einem einzelnen Tabellen-Bucket-Endpunkt herstellen, um alle S3-Tables-Ressourcen in diesem Bucket zu ermitteln. Auf diese Weise können Sie S3-Tables mit jeder Anwendung oder Abfrage-Engine verwenden, die die Apache-Iceberg-REST-Katalog-Spezifikation unterstützt.

Sie können mithilfe der CreateTable-API in S3 eine Tabelle in Ihrem Tabellen-Bucket erstellen. Alternativ können Sie Ihre Abfrage-Engine verwenden, um ebenfalls eine Tabelle zu erstellen. Mit der DeleteTable-API in S3 können Sie eine Tabelle aus Ihrem Tabellen-Bucket löschen. Alternativ können Sie Ihre Abfrage-Engine verwenden, um eine Tabelle zu löschen. Wenn Sie dies tun, kann Ihre Abfrage-Engine nicht mehr auf Ihre Tabelle zugreifen.

S3 Tables unterstützen den Apache-Iceberg-Standard, und Abfrage-Engines wie Amazon Athena, Amazon Redshift und Apache Spark können verwendet werden, um Iceberg-Tabellen abzufragen. Sie können verwendet werden, um die Tabellen in Ihren Tabellen-Buckets mit Standard-SQL abzufragen.

Sie können eine bis zu 3-mal schnellere Abfrageleistung und bis zu 10-mal höhere Transaktionen pro Sekunde (TPS) im Vergleich zum Speichern von Iceberg-Tabellen in Amazon-S3-Allzweck-Buckets erwarten. Das liegt daran, dass Tabellen-Buckets automatisch die zugrunde liegenden Parquet-Daten für Ihre Tabellen komprimieren, um die Abfrageleistung zu optimieren. Der speziell entwickelte Speicher unterstützt standardmäßig das bis zu 10-fache TPS.

Nein. Um zu verhindern, dass versehentlich die Integrität Ihrer Tabellen beeinträchtigt wird oder nachgelagerte Anwendungen beschädigt werden, lassen Tabellen-Buckets das manuelle Überschreiben oder Löschen von Objekten nicht zu. Tabellen-Buckets unterstützen nur die Teilgruppe der S3-APIs, die für den Zugriff auf und die Aktualisierung von Iceberg-Tabellen erforderlich sind. Stattdessen können Sie das Entfernen unreferenzierter Dateien und den Ablauf von Snapshots in Ihren Tabellen konfigurieren, um Daten zu löschen.

Tabellen-Buckets bieten Ihnen die Möglichkeit, Ressourcenrichtlinien auf den gesamten Bucket oder auf einzelne Tabellen anzuwenden. Tabellen-Bucket-Richtlinien können mithilfe der PutTablePolicy- und PutTableBucketPolicy-APIs angewendet werden. Mithilfe von Richtlinien auf Tabellenebene können Sie die Berechtigungen für Tabellen in Ihren Tabellen-Buckets auf der Grundlage der logischen Tabelle verwalten, mit der sie verknüpft sind, ohne den physischen Speicherort der einzelnen Parquet-Dateien kennen zu müssen. Darüber hinaus wird S3 Block Public Access immer auf Ihre Tabellen-Buckets angewendet.

Ja. Tabellen-Buckets basieren auf der Snapshot-Funktion von Iceberg, um Ihre Tabellen konsistent zu halten, wenn mehrere Schreiber gleichzeitig arbeiten.

Tabellen-Buckets unterstützen das Apache-Iceberg-Tabellenformat mit Parquet-Daten.

Tabellen-Buckets bieten drei Wartungsvorgänge: Komprimierung, Snapshot-Verwaltung und Entfernung unreferenzierter Dateien. Bei der Komprimierung werden in regelmäßigen Abständen kleinere Objekte zu weniger, größeren Objekten kombiniert, um die Abfrageleistung zu verbessern. Die Snapshot-Verwaltung läuft ab und die Tabellen-Snapshots werden entsprechend Ihrer Snapshot-Aufbewahrungskonfiguration entfernt. Beim Entfernen unreferenzierter Dateien werden gemäß Ihrer Richtlinie zum Entfernen unreferenzierter Dateien Objekte gelöscht, auf die in keinen Tabellen-Snapshots verwiesen wird, wodurch die Speicherkosten optimiert werden.

Ja, S3-Tabellen unterstützen AWS CloudTrail. Sie können CloudTrail-Daten und Verwaltungsereignisse von CloudTrail für Ihre Tabellen-Buckets einrichten, ähnlich wie Sie es mit einem Allzweck-S3-Bucket tun würden. CloudTrail-Protokolle für Ihre Tabellen-Buckets enthalten sowohl Tabellen- als auch Datenobjektinformationen. 

Ja, Daten in Tabellen-Buckets werden standardmäßig mit serverseitiger Verschlüsselung verschlüsselt, wodurch ein grundlegender Schutz für Ihre Daten im Ruhezustand gewährleistet ist. Zur Erhöhung der Sicherheit haben Sie die Möglichkeit, Ihre Daten in S3-Tabellen mit Ihren eigenen Verschlüsselungsschlüsseln zu verschlüsseln. Diese Schlüssel werden in Ihrem AWS-Konto über den AWS Key Management Service (AWS KMS) erstellt und verwaltet. Mit KMS gibt es separate Berechtigungen für die Verwendung des KMS-Schlüssels, wodurch eine zusätzliche Ebene der Kontrolle und des Schutzes vor unbefugtem Zugriff auf Ihre in Tabellen-Buckets gespeicherten Tabellen geschaffen wird. Darüber hinaus generiert KMS einen detaillierten Audit Trail, sodass Sie anhand Ihres Schlüssels verfolgen können, wer wann auf welche Tabelle zugegriffen hat. KMS bietet auch zusätzliche Sicherheitskontrollen, um Sie bei der Einhaltung von Branchenanforderungen wie PCI-DSS, HIPAA/HITECH und FedRAMP zu unterstützen. Dieser umfassende Ansatz für Verschlüsselung und Schlüsselmanagement bietet die Sicherheit und Flexibilität, die Sie benötigen, um Ihre sensiblen Daten effektiv zu schützen.

Mit S3 Tables zahlen Sie für Speicher, Anforderungen und eine Objektüberwachungsgebühr pro Objekt, das in Tabellen-Buckets gespeichert ist. Es fallen auch zusätzliche Gebühren für die Tabellenwartung an. Preisdetails finden Sie auf der S3-Preisseite.

Die Komprimierung kombiniert kleinere Objekte zu weniger, größeren Objekten, um die Iceberg-Abfrageleistung zu verbessern. Amazon S3 komprimiert Tabellen auf der Grundlage einer für Ihr Datenzugriffsmuster optimalen Zieldateigröße oder eines von Ihnen angegebenen Werts. Die komprimierten Dateien werden als der neueste Snapshot Ihrer Tabelle geschrieben. Die Komprimierung wird standardmäßig für alle S3-Tabellen mit einer Standard-Zieldateigröße von 512 MB unterstützt. Sie können die Zieldateigröße mithilfe der PutTableMaintenanceConfiguration-API von 64 MB auf 512 MB ändern. 

Die Snapshot-Verwaltung läuft ab und die Tabellen-Snapshots werden gemäß der Snapshot-Aufbewahrungskonfiguration entfernt. Die Snapshot-Verwaltung bestimmt die Anzahl der aktiven Snapshots für Ihre Tabellen auf der Grundlage von MinimumSnapshots (standardmäßig 1) und MaximumSnapshotage (standardmäßig 120 Stunden). Wenn ein Snapshot abläuft, erstellt Amazon S3 Löschmarkierungen für die Daten- und Metadatendateien, auf die dieser Snapshot eindeutig verweist, und markiert diese Dateien als nicht aktuell. Diese nicht aktuellen Dateien werden nach Ablauf der Anzahl von Tagen gelöscht, die in der Eigenschaft NoncurrentDays in Ihrer Richtlinie zum Entfernen unreferenzierter Dateien angegeben ist. Sie können die Standardwerte für Snapshots mithilfe der PutTableMaintenanceConfiguration-API ändern. Die Snapshot-Verwaltung unterstützt keine Aufbewahrungswerte, die Sie in der Iceberg-metadata.json-Datei konfigurieren, einschließlich der branch- oder tagbasierten Aufbewahrung. Die Snapshot-Verwaltung für S3 Tables ist deaktiviert, wenn Sie eine Branch- oder Tag-basierte Aufbewahrungsrichtlinie konfigurieren oder eine Aufbewahrungsrichtlinie für die Datei metadata.json konfigurieren, die länger ist als die über die PutTableMaintenanceConfiguration-API konfigurierten Werte. 

Beim Entfernen unreferenzierter Dateien werden alle Objekte identifiziert und gelöscht, auf die in keinen Tabellen-Snapshots verwiesen wird. Im Rahmen Ihrer Richtlinie zum Entfernen unreferenzierter Dateien können Sie zwei Eigenschaften konfigurieren: ExpireDays (standardmäßig 3 Tage) und NoncurrentDays (standardmäßig 10 Tage). Für jedes Objekt, auf das in Ihrer Tabelle nicht verwiesen wird und das älter als die Eigenschaft ExpireDays ist, löscht S3 die Objekte dauerhaft nach der in der NoncurrentDays-Eigenschaft angegebenen Anzahl von Tagen. Sie können das Entfernen unreferenzierter Dateien auf Tabellen-Bucket-Ebene konfigurieren. Sie können die Standardwerte für die Snapshot-Aufbewahrung mithilfe der PutTableBucketMaintenanceConfiguration-API ändern.

S3 Batch Operations ist ein Feature, mit dem Sie die Ausführung eines einzelnen Vorgangs (wie das Kopieren eines Objekts oder das Ausführen einer AWS-Lambda-Funktion) über viele Objekte hinweg automatisieren können. Mit S3 Batch Operations können Sie mit wenigen Klicks in der S3 Konsole oder einer einzigen API-Abfrage eine Änderung an Milliarden von Objekten vornehmen, ohne eigene Anwendungscode schreiben oder Rechencluster für Speicherverwaltungsanwendungen ausführen zu müssen. Mit S3 Batch Operations können Sie nicht nur Ihre Speicheroperationen über viele Objekte hinweg verwalten, sondern auch Wiederholungsversuche. S3 Batch Operations zeigen Ihnen außerdem den Fortschritt an, senden Benachrichtigungen, liefern einen Abschlussbericht und übermitteln Ereignisse an AWS CloudTrail für alle Operationen, die an Ihren Zielobjekten durchgeführt werden. S3 Batch Operations kann von der S3-Konsole aus oder über die AWS-Befehlszeilenschnittstelle und SDK verwendet werden.  Besuchen Sie die Seite S3 Batch Operations oder das Benutzerhandbuch, um mehr zu erfahren.

Rufen Sie die Amazon-S3-Konsole auf oder verwenden Sie die AWS CLI oder das SDK, um Ihren ersten Auftrag für S3 Batch Operations zu erstellen. Ein Auftrag für S3 Batch Operations besteht aus der Liste der zu verarbeitenden Objekte und der Art der auszuführenden Operation (die vollständige Liste der verfügbaren Operationen finden Sie hier). Wählen Sie zunächst einen S3 Inventory-Bericht aus oder erstellen Sie eine eigene, benutzerdefinierte Liste mit Objekten, die von S3 Batch Operations verarbeitet werden sollen. Ein S3 Inventory-Bericht ist eine Datei, in der alle in einem S3-Bucket oder Präfix gespeicherten Objekte aufgelistet sind. Als Nächstes treffen Sie eine Auswahl aus einer Reihe von S3-Operationen, für die S3 Batch Operations möglich sind: beispielsweise Ersetzen von Tag-Sätzen, Ändern von ACLs, Kopieren von Speicher von einem Bucket in einen anderen oder Starten einer Wiederherstellung von S3 Glacier Flexible Retrieval in die S3-Standard-Speicherklasse. Sie können dann Ihre Aufträge für S3 Batch Operations mit bestimmten Parametern wie Tag-Werten, ACL-Empfängern und einer Wiederherstellungsdauer anpassen. Um Ihre Speicheraktionen weiter anzupassen, können Sie Ihre eigene Lambda-Funktion schreiben und diesen Code durch S3 Batch Operations aufrufen. Sobald Sie Ihre S3 Batch Operations Aufgabe erstellt haben, verarbeitet S3 Batch Operations Ihre Objektliste und sendet den Auftrag bei Bedarf in den Zustand „wartet auf Bestätigung". Nachdem Sie die Auftragsdetails bestätigt haben, beginnt S3 Batch Operations mit der Ausführung des von Ihnen angegebenen Vorgangs. Sie können den Fortschritt Ihres Auftrags programmatisch oder über die S3-Konsole anzeigen, Benachrichtigungen über den Abschluss erhalten und einen Abschlussbericht überprüfen, in dem die an Ihrem Speicher vorgenommenen Änderungen aufgeführt sind.
Wenn Sie daran interessiert sind, mehr über S3 Batch Operations zu erfahren, sehen Sie sich die Videos der Tutorials an und lesen Sie die Dokumentation.

In der Finanzdienstleistungsbranche bietet S3 Object Lock eine zusätzliche Unterstützung für Broker, die Datensätze in einem nicht löschbaren und nicht überschreibbaren Format aufbewahren müssen, um die gesetzlichen Anforderungen der SEC-Regel 17a-4(f), der FINRA-Regel 4511 oder der CFTC-Verordnung 1.31 zu erfüllen. Sie können den Zeitrahmen für die Aufbewahrung von Datensätzen leicht so festlegen, dass die gesetzlich vorgeschriebenen Archive im Originalformat für die erforderliche Dauer aufbewahrt werden, und darüber hinaus Daten sperren, um sie für unbegrenzte Zeit aufzubewahren, bis die Sperrung entfernt wird.

Benachrichtigen Sie Ihre Regulierungsbehörde oder die von Ihnen gewählte, mit der Prüfung beauftragte Behörde, dass Sie Amazon S3 für die elektronische Speicherung verwenden, und legen Sie eine Kopie der Cohasset-Beurteilung bei. AWS ist bezüglich dieser Anforderungen kein designierter Dritter (D3P). Wählen Sie einen D3P aus, und geben Sie diese Informationen in Ihrer Benachrichtigung der mit der Prüfung beauftragten Behörde an.

Sie können die AWS-Managementkonsole verwenden, um die Generierung von 1-minütigen CloudWatch-Anforderungsmetriken für Ihren S3-Bucket zu aktivieren oder Filter für die Metriken zu konfigurieren, indem Sie ein Präfix oder einen Objekt-Tag oder einen Zugangspunkt verwenden. Alternativ dazu haben Sie die Möglichkeit, die S3-PUT-Bucket-Metrics-API für die Aktivierung und Konfiguration der Veröffentlichung von S3-Speichermetriken aufzurufen. Speichermetriken sind bereits 15 Minuten nach ihrer Aktivierung in CloudWatch verfügbar. CloudWatch-Speichermetriken sind standardmäßig für alle Buckets aktiviert und werden einmal pro Tag gemeldet. Erfahren Sie mehr über CloudWatch-Metriken für Amazon S3.

In CloudWatch können Sie Schwellenwerte für sämtliche Zähler, Timer oder Raten von Speichermetriken festlegen und bei einer Nichteinhaltung der Werte eine Aktion auslösen. Sie können beispielsweise einen Schwellenwert für den Prozentsatz von 4xx-Fehlermeldungen festlegen und einen DevOps-Techniker durch Auslösen eines CloudWatch-Alarms benachrichtigen, sobald mindestens drei Dateneinträge über dem Schwellenwert liegen.

Die Speichermetriken von CloudWatch werden kostenlos zur Verfügung gestellt. Die Metriken zu CloudWatch-Abfragen werden als benutzerdefinierte Metriken für Amazon CloudWatch berechnet. Allgemeine Informationen zu den Preisen von S3-CloudWatch-Metriken finden Sie auf der Seite mit der Preisübersicht für Amazon CloudWatch.

Mit dem S3-Lebenszyklus-Management können Sie den Lebenszyklus Ihrer Objekte mittels einer vordefinierten Richtlinie festlegen und Ihre Speicherkosten reduzieren. Sie können eine Lebenszyklus-Übertragungsrichtlinie einrichten, um Objekte, die in der S3 Standard-Speicherklasse gespeichert sind, automatisch auf der Grundlage des Alters der Daten in die Speicherklassen S3 Standard-IA, S3 One Zone-IA und/oder S3 Glacier zu migrieren. Ebenso können Sie Richtlinine für das Ende von Lebenszyklen erstellen, sodass Objekte automatisch entfernt werden, wenn sie ein bestimmtes Alter erreicht haben. Sie können eine Richtlinie für die Ablauffrist mehrteiliger Uploads festlegen. Anhand dieser Richtlinie verfallen unvollständige mehrteilige Uploads basierend auf ihrem Alter. Weitere Informationen finden Sie im S3-Lifecycle-Benutzerhandbuch.

Lebenszyklusrichtlinien lassen sich in der AWS-Managementkonsole, in der S3 REST-API, den AWS-SDKs oder der AWS-Befehlszeilenschnittstelle (CLI) erstellen und verwalten. Eine Spezifizierung der Richtlinie ist auf Präfix- oder auf Bucket-Ebene möglich.

Mit Amazon-S3-Lifecycle-Richtlinien können Sie Ihre Objekte so konfigurieren, dass sie aus der S3-Standard-Speicherklasse in die Speicherklasse S3 Standard-IA oder S3 One Zone-IA migriert und/oder in den Speicherklassen S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive archiviert werden.

Sie können eine S3-Lifecycle-Richtlinie festlegen, um Objekte nach einer bestimmten Zeit zu löschen. Mithilfe dieser durch Richtlinien gesteuerten Automatisierung können Sie schnell und einfach Speicherkosten senken und Zeit sparen. In jeder Regel können Sie ein Präfix, einen Zeitraum, eine Übertragung in S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive und/oder einen Ablauftermin angeben. Sie können beispielsweise eine Regel definieren, durch die alle Objekte mit dem gemeinsamen Präfix „logs/“ 30 Tage nach der Erstellung in S3 Glacier Flexible Retrieval archiviert und 365 Tage nach der Erstellung gelöscht werden.

Sie können auch eine gesonderte Regel erstellen, gemäß der nur alle Objekte mit dem Präfix „backups/“ 90 Tage nach der Erstellung gelöscht werden. S3-Lebenszyklusrichtlinien gelten sowohl für vorhandene als auch für neue S3-Objekte. Sie ermöglichen Ihnen eine optimierte Speicherung und maximale Kosteneinsparung für alle derzeitigen und neuen Daten, die in S3 abgelegt werden, und zwar ohne zeitaufwendige manuelle Datenüberprüfungen und -migrationen.

Bei einer Lebenszyklusregel bestimmt das Präfixfeld die Objekte, die der Regel unterliegen. Um die Regel auf ein einzelnes Objekt anzuwenden, müssen Sie den Schlüsselnamen angeben. Wenn Sie die Regel auf einen ganzen Satz an Objekten anwenden möchten, muss ihr gemeinsames Präfix angegeben werden (z. B. „logs“). Sie können zum Archivieren Ihrer Objekte eine Überführungsaktion und zum Entfernen Ihrer Objekte eine Löschaktion nach Terminablauf angeben. Geben Sie beim Zeitraum das Erstellungsdatum (z. B. 31.01.2015) oder die Anzahl der Tage ab dem Erstellungsdatum (z. B. 30 Tage) an, nach denen Ihre Objekte archiviert oder entfernt werden sollen. Sie können mehrere Regeln für unterschiedliche Präfixe erstellen.

Mit der Erstellung und Anwendung von Lebenszyklusrichtlinien sind keine zusätzlichen Kosten verbunden. Kosten für die Übertragung fallen pro Objekt an, sobald das betreffende Objekt gemäß der Lebenszyklusregel die Voraussetzungen für die Übertragung erfüllt. Bitte besuchen Sie die Amazon-S3-Preisseite, wenn Sie mehr Informationen über die Kosten wünschen.

Die S3-Lebenszyklusrichtlinie für unvollständige mehrteilige Uploads ermöglicht es Ihnen, durch Begrenzung des Speicherzeitraums für nicht abgeschlossene mehrteilige Uploads Kosten zu sparen. Wenn Ihre Anwendung beispielsweise mehrere mehrteilige Objektteile hochlädt, diese aber nie einbindet, wird Ihnen der benötigte Speicher trotzdem in Rechnung gestellt. Diese Richtlinie kann Ihre S3-Rechnung senken, indem sie automatisch unvollständige mehrteilige Uploads entfernt und den zugehörigen Speicher nach einer festgelegten Anzahl von Tagen freigibt. Weitere Informationen dazu, wie Sie mit S3 Lifecycle unvollständige mehrteilige Uploads ablaufen lassen können »

Ja, Sie können Amazon-S3-Ereignisbenachrichtigungen einrichten, um sich benachrichtigen zu lassen, wenn S3-Lifecycle-Übergänge oder abgelaufene Objekte auftreten. Sie können zum Beispiel S3-Ereignisbenachrichtigungen an ein Amazon-SNS-Thema, eine Amazon-SQS-Warteschlange oder eine AWS-Lambda-Funktion senden, wenn S3 Lifecycle Objekte in eine andere S3-Speicherklasse verschiebt oder Objekte ablaufen.

Speicheranalysen und Einblicke

Alles öffnen

S3 Storage Lens stellt unternehmensweite Sichtbarkeit in die Objektspeichernutzung und Aktivitätentrends bereit und spricht umsetzbare Empfehlungen aus, um Kosten zu optimieren und bewährte Methoden des Datenschutzes anzuwenden. Mit S3 Storage Class Analysis können Sie Zugriffsmuster objektübergreifend überwachen. Dies hilft Ihnen zu entscheiden, wann Daten auf die richtige Speicherklasse übertragen werden sollen, um Kosten zu sparen. Anhand dieser Informationen können Sie eine S3 Lifecycle-Richtlinie konfigurieren, die die Datenübertragung veranlasst. Amazon S3 Inventory erstellt täglich oder wöchentlich einen Bericht über Ihre Objekte und die zugehörigen Metadaten für einen S3-Bucket oder ein Präfix. Dieser Bericht hilft Ihnen, geschäftliche, Compliance- und behördliche Anforderungen zu erfüllen, indem Sie die Verschlüsselung und den Replikationsstatus Ihrer Objekte verifizieren.

Amazon S3 Storage Lens stellt unternehmensweite Sichtbarkeit in Objektspeichernutzung und Aktivitätentrends bereit sowie umsetzbare Empfehlungen, um die Kosten zu optimieren und bewährte Methoden des Datenschutzes anzuwenden. Storage Lens bietet ein interaktives Dashboard mit einer einzelnen Ansicht Ihrer Objektspeichernutzung und Aktivitäten über Dutzende bis Hunderte Konten in Ihrem Unternehmen hinweg. Die Drilldown-Funktionen erlaubt es Ihnen, auf mehreren Aggregationsebenen Einblicke in das Konto zu generieren. Dies umfasst Metriken wie Bytes, Objektanzahl und Anfragen sowie Metriken, die die Nutzung von S3-Features detailliert aufzeigen, z. B. die Anzahl verschlüsselter Objekte und die Anzahl von S3-Lifecycle-Regeln. S3 Storage Lens bietet auch kontextbezogene Empfehlungen, um Wege zu finden, wie Sie die Speicherkosten senken und bewährte Methoden für den Datenschutz über Dutzende oder Hunderte von Konten und Buckets hinweg anwenden können. Die kostenlosen Metriken von S3 Storage Lens sind für alle Amazon-S3-Benutzer standardmäßig aktiviert. Wenn Sie S3 Storage Lens optimal nutzen möchten, können Sie erweiterte Metriken und Empfehlungen aktivieren. Weitere Informationen finden Sie im Benutzerhandbuch für S3 Storage Lens.

S3 Storage Lens aggregiert Ihre Speichernutzungs- und Aktivitätsmetriken auf täglicher Basis und visualisiert sie im interaktiven S3-Storage-Lens-Dashboard oder stellt sie als Metrik-Export im CSV- oder Parquet-Dateiformat zur Verfügung. Ein Standard-Dashboard wird automatisch für Sie auf Kontoebene erstellt, und Sie haben die Möglichkeit, zusätzliche benutzerdefinierte Dashboards zu erstellen. Die Dashboards von S3 Storage Lens können auf Ihre AWS-Organisation oder bestimmte Konten, Regionen, Buckets oder sogar auf Präfixebene zugeschnitten werden (verfügbar bei erweiterten S3-Storage-Lens-Metriken). Sie können S3-Storage-Lens-Gruppen auch verwenden, um Metriken mithilfe benutzerdefinierter Filter zu aggregieren, die auf Objektmetadaten wie Objekt-Tag, Größe und Alter basieren. Während der Konfiguration Ihres Dashboards können Sie die standardmäßige Auswahl an Metriken verwenden oder gegen einen Aufpreis ein Upgrade auf 35 zusätzliche Metriken und Aggregationen auf Präfixebene vornehmen. S3 Storage Lens bietet außerdem Empfehlungen im Kontext mit den Speichermetriken im Dashboard, sodass Sie Maßnahmen zur Speicheroptimierung auf Basis der Metriken ergreifen können.


Das S3-Storage-Lens-Dashboard ist nach vier Haupttypen von Fragen organisiert, die über Ihren Speicher beantwortet werden können. Im Filter „Summary“ (Zusammenfassung) können übergeordnete Fragen zur allgemeinen Speichernutzung und zu Aktivitätstrends untersucht werden. Zum Beispiel: „Wie schnell steigert sich meine gesamte Byte- und Anfrageanzahl im Laufe der Zeit?“ Im Filter „Cost Optimization“ (Kostenoptimierung) können Sie Fragen nachgehen, die sich mit der Speicherkostenreduzierung befassen, wie etwa: „Kann ich Einsparungen erzielen, indem ich weniger veraltete Versionen nutze?“ Und in den Filtern „Data Protection“ (Datenschutz) und „Access Management“ (Zugriffsmanagement) können Sie Antworten zur Sicherung von Daten finden, indem Sie Fragen stellen wie: „Ist mein Speicher vor versehentlicher oder absichtlicher Löschung geschützt?“ Mit den Filtern „Performance“ (Leistung) und „Events“ (Ereignisse) können Sie prüfen, wie Sie die Workflow-Leistung verbessern können. Jede diese Fragen repräsentiert die erste Ebene einer Anfrage und führt wahrscheinlich zu einer Drilldown-Analyse.

S3 Storage Lens umfasst über 60 Metriken, die in kostenlose Metriken und erweiterte Metriken (verfügbar gegen Aufpreis) unterteilt sind. Innerhalb der kostenlosen Metriken erhalten Sie Metriken zur Nutzungsanalyse (basierend auf einem täglichen Snapshot Ihrer Objekte), die in die Kategorien Kostenoptimierung, Datenschutz, Zugriffsmanagement, Leistung und Ereignisse unterteilt sind. Innerhalb der erweiterten Metriken erhalten Sie Metriken im Zusammenhang mit der Aktivität (wie Anzahl der Anfragen), detailliertere Kostenoptimierung (wie Anzahl der S3-Lifecycle-Regeln), zusätzlicher Datenschutz (wie Anzahl der S3-Replication-Regeln) und detaillierte Statuscodes (wie 403-Autorisierungsfehler). Zusätzlich stehen abgeleitete Metriken zur Verfügung, die durch Kombination der grundlegenden Metriken ermittelt werden. So wird beispielsweise die Metrik „Abrufrate“ berechnet, indem die „Anzahl der heruntergeladenen Bytes“ durch den „Gesamtspeicher“ geteilt wird. Eine vollständige Liste aller Metriken finden Sie in der Dokumentation zu S3 Storage Lens.


Es wird ein Standard-Dashboard konfiguriert, das automatisch für Ihr gesamtes Konto bereitgestellt wird, und Sie haben die Möglichkeit, zusätzliche benutzerdefinierte Dashboards zu erstellen, die auf Ihre AWS-Organisation, bestimmte Regionen oder Buckets innerhalb eines Kontos skaliert werden können. Sie können mehrere benutzerdefinierte Dashboards einrichten, was nützlich sein kann, wenn Sie eine logische Trennung in Ihrer Speicheranalyse benötigen, wie z. B. die Segmentierung auf Buckets, um verschiedene interne Teams darzustellen. Standardmäßig erhält Ihr Dashboard die kostenlosen Metriken von S3 Storage Lens. Sie haben jedoch die Möglichkeit, ein Upgrade durchzuführen, um fortgeschrittene Metriken und Empfehlungen von S3 Storage Lens zu erhalten (gegen Gebühr). Die erweiterten Metriken von S3 Storage Lens haben sieben getrennte Optionen: erweiterte Kostenoptimierungsmetriken, erweiterte Datenschutzmetriken, detaillierte Statuscodemetriken, Präfix-Aggregation, CloudWatch-Publishing und Storage-Lens-Gruppenaggregation. Zusätzlich können Sie für jedes Dashboard den Export von Metriken aktivieren, mit zusätzlichen Optionen zum Festlegen des Ziel-Buckets und des Verschlüsselungstyps.

Bei Metriken auf dem interaktiven Dashboard werden bei den kostenlosen Metriken von Storage Lens die historischen Daten 14 Tage aufbewahrt. Bei fortgeschrittenen Metriken von Storage Lens werden die historischen Daten 15 Monate aufbewahrt (gegen Gebühr). Beim optionalen Export von Metriken, können Sie die Aufbewahrungsdauer selbst festlegen. Dabei gelten die Standard-Speichergebühren für S3.


S3 Storage Lens bietet zwei Stufen von Metriken. Die kostenfreien Metriken sind standardmäßig aktiviert und stehen allen S3-Kunden ohne Zusatzkosten zur Verfügung. Einzelheiten zu den Preisen für fortgeschrittenen Metriken und Empfehlungen von S3 Storage Lens erhalten Sie auf der Seite mit der Preisübersicht für S3. Mit den kostenlosen Metriken von S3 Storage Lens erhalten Sie 28 Metriken auf Bucket-Ebene und können im Dashboard auf 14 Tage an historischen Daten zugreifen. Mit den erweiterten Metriken und Empfehlungen von S3 Storage Lens erhalten Sie 35 weitere Metriken, Aggregation auf Präfixebene, CloudWatch-Metriken-Support, benutzerdefinierte Filterung von Objekt-Metadaten mit S3 Storage Lens-Gruppen und Zugriff auf 15 Monate an historischen Daten im Dashboard.

S3 Inventory stellt eine Liste Ihrer Objekte und der zugehörigen Metadaten für einen S3-Bucket oder ein gemeinsames Präfix zur Verfügung, mit der Sie eine Analyse Ihres Speichers auf Objektebene durchführen können. S3 Storage Lens bietet Metriken, die nach Organisation, Konto, Region, Speicherklasse, Bucket, Präfix und S3-Storage-Lens-Gruppenebenen aggregiert sein können, was eine verbesserte unternehmensweite Sichtbarkeit Ihres Speichers ermöglicht.

S3 Storage Class Analysis liefert Empfehlungen für eine optimale Speicherklasse, indem Objektaltersgruppen auf der Grundlage von Zugriffsmustern auf Objektebene innerhalb eines einzelnen Buckets/Präfix/Tags für die letzten 30–90 Tage erstellt werden. S3 Storage Lens liefert täglich Empfehlungen auf Organisationsebene, wie die Kosteneffizienz verbessert und bewährte Methoden für den Datenschutz angewendet werden können, sowie zusätzliche granulare Empfehlungen nach Konto, Region, Speicherklasse, Bucket, S3-Storage-Lens-Gruppe oder Präfix (verfügbar mit erweiterten S3-Storage-Lens-Metriken). Sie können auch benutzerdefinierte Filter mit S3-Storage-Lens-Gruppen verwenden, um Ihren Speicher basierend auf dem Objektalter zu visualisieren und Ihre Speicherarchivierungsstrategie zu optimieren.

Mit Storage Class Analysis können Sie Speicherzugriffsmuster analysieren, um die optimale Speicherklasse für Ihren Speicher zu ermitteln. Dieses neue Feature von S3 erkennt automatisch Muster einer seltenen Nutzung und erleichtert so die Übertragung von Speicher auf S3 Standard-IA. Sie können eine Richtlinie für Storage Class Analysis konfigurieren, sodass entweder ein vollständiger Bucket, ein Präfix oder ein Object Tag überwacht wird. Sobald ein Muster eines seltenen Zugriffs festgestellt wird, können Sie ohne großen Aufwand auf Basis der Ergebnisse eine neue S3 Lebenszyklus-Altersrichtlinie erstellen. Zudem ermöglicht Storage Class Analysis tägliche grafische Darstellungen Ihrer Speichernutzung in der AWS-Managementkonsole. Sie können außerdem einen Exportbericht an einen S3-Bucket senden, um für die Analyse Business Intelligence-Tools Ihrer Wahl, wie beispielsweise Amazon QuickSight, zu nutzen. Öffnen Sie das Benutzerhandbuch der S3 Storage Class Analysis, um mehr zu erfahren und loszulegen.

Storage Class Analysis wird täglich in der S3-Managementkonsole aktualisiert. Erste Empfehlungen für Speicherklassenübergänge werden jedoch nach 30 Tagen bereitgestellt.

Direkte Abfragen

Alles öffnen

Kunden können mit Amazon S3 erweiterte Abfragen zu gespeicherten Daten durchführen, ohne sie in eine separate Analytik-Plattform zu verschieben. Die direkte Datenabfrage in Amazon S3 erhöht die Leistung deutlich und senkt die Kosten für Analytik-Lösungen, die S3 als Data Lake nutzen. S3 bietet mehrere Abfrageoptionen vor Ort, darunter Amazon Athena und Amazon Redshift Spectrum, sodass Sie die Option auswählen können, die am besten zu Ihrem Anwendungsfall passt.

Es gibt mehrere Möglichkeiten, Ihre Daten in S3 abzufragen, aus denen Sie je nach Ihrem spezifischen Anwendungsfall wählen können. Verwenden Sie clientseitige Filterung, um ein Amazon-S3-Objekt auf Ihren AWS-Rechner herunterzuladen und den Inhalt mithilfe von Datenanalysebibliotheken in Ihrer Client-Anwendung zu filtern. Beispielsweise können Sie in einer Python-Anwendung, die Parquet-Objekte in Amazon S3 abfragt, die Amazon-S3-GET-API verwenden, um das Objekt herunterzuladen und den Inhalt mithilfe der „Pandas“-Bibliothek zu filtern. Verwenden Sie Amazon Athena, um mehrere S3-Objekte in einer einzigen Abfrage zu verarbeiten oder sogar Join-Vorgänge und Fensterfunktionen zur Abfrage Ihrer S3-Objekte zu verwenden. Verwenden Sie S3 Object Lambda, indem Sie S3-GET-Anfragen Ihren eigenen Code hinzufügen, um Daten zu filtern, wenn sie an eine Anwendung zurückgegeben werden. Sie sollten S3 Objekt Lambda verwenden, wenn Sie beim Filtern von Daten Transformationen hinzufügen möchten. Lesen Sie den Blogbeitrag zum titleAWS-Speicher-Blogtitle, um mehr über diese Methoden zum Abfragen Ihrer Daten in Amazon S3 zu erfahren.

Amazon Athena ist ein interaktiver Abfrageservice, der die Analyse von Daten in Amazon S3 mit Standard-SQL-Abfragen erleichtert. Athena ist Serverless, sodass keine Infrastruktur eingerichtet oder verwaltet werden muss und Sie sofort mit dem Analysieren von Daten beginnen können. Sie müssen nicht einmal Daten in Athena übertragen. Athena arbeitet direkt mit den in einer beliebigen S3-Speicherklasse gespeicherten Daten. Um zu beginnen, melden Sie sich einfach bei der Athena-Verwaltungskonsole an, definieren Ihr Schema und beginnen mit dem Abfragen. Amazon Athena verwendet Presto mit vollständigem Support für Standard-SQL und arbeitet mit einer Vielzahl von Standard-Datenformaten wie beispielsweise CSV, JSON, ORC, Apache Parquet und Avro zusammen. Während Athena ideal für schnelle Ad-hoc-Abfragen geeignet ist und in Amazon QuickSight integriert werden kann, um einfache Visualisierungen durchzuführen, kann es auch komplexe Analysen einschließlich großer Joins, Fensterfunktionen und Arrays erstellen.

Amazon Redshift Spectrum ist ein Feature von Amazon Redshift, die es Ihnen ermöglicht, Abfragen für Exabyte an unstrukturierten Daten in Amazon S3 auszuführen, ohne dass Ladevorgänge oder ETL erforderlich sind. Wenn Sie eine Abfrage ausgeben, erreicht diese den Amazon Redshift-SQL-Endpunkt, der einen Abfrageplan generiert und optimiert. Amazon Redshift ermittelt, welche Daten lokal gespeichert sind und welche sich in Amazon S3 befinden, generiert einen Plan zum Minimieren der zu lesenden Amazon-S3-Datenmenge, fordert Amazon Redshift Spectrum-Arbeitsressourcen aus einem freigegebenen Ressourcenpool an, um Daten aus Amazon S3 zu lesen und zu verarbeiten. Redshift Spectrum kann bei Bedarf auf Tausende von Instances skaliert werden, damit Abfragen unabhängig von der Datengröße schnell ausgeführt werden. Außerdem können Sie exakt die gleiche SQL für Amazon-S3-Daten wie für Ihre aktuellen Amazon-Redshift-Abfragen verwenden und eine Verbindung zum gleichen Amazon-Redshift-Endpunkt mithilfe der gleichen Business-Intelligence-Tools herstellen. Durch die Trennung von Speicher- und Rechenressourcen können Sie mit Redshift Spectrum beides unabhängig voneinander skalieren. Sie können so viele Amazon-Redshift-Cluster wie nötig einrichten, um Ihren Amazon-S3-Data-Lake abzufragen, und so hohe Verfügbarkeit und unbegrenzte Gleichzeitigkeit bereitstellen. Mit Redshift Spectrum haben Sie die Möglichkeit, Ihre Daten am von Ihnen bevorzugten Ort und im bevorzugten Format zu speichern, sodass sie Ihnen bei Bedarf für die Verarbeitung zur Verfügung stehen.

Replikation

Alles öffnen

Amazon S3 Replication ermöglicht das automatische, asynchrone Kopieren von Objekten in Amazon-S3-Buckets. Buckets, die für die Objektreplikation konfiguriert wurden, können im Besitz des gleichen AWS-Kontos oder eines anderen Kontos sein. Sie können neue Objekte, die in den Bucket geschrieben wurden, zu einem oder mehreren Ziel-Buckets zwischen unterschiedlichen AWS-Regionen (S3 Cross-Region Replication) oder in der gleichen AWS-Region (S3 Same-Region Replication) kopieren. Sie können auch vorhandene Bucket-Inhalte replizieren (S3 Batch Replication), einschließlich vorhandener Objekte, Objekte, deren Replikation zuvor fehlgeschlagen ist, und Objekte, die aus einer anderen Quelle repliziert wurden. Weitere Informationen finden Sie im S3-Replication-Benutzerhandbuch.

CRR ist ein Amazon-S3-Feature, die Daten automatisch zwischen Buckets in unterschiedlichen AWS-Regionen repliziert. Mit CRR richten Sie die Replikation auf Bucket-Ebene, auf einer freigegebenen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags ein. Sie können CRR einsetzen, um in verschiedenen geografischen Regionen einen Datenzugriff mit geringerer Latenz bereitzustellen. CRR kann auch nützlich sein, um die Compliance-Anforderung zu erfüllen, dass Daten Hunderte von Kilometern entfernt gespeichert werden müssen. Sie können CRR verwenden, um den Kontobesitz für die replizierten Objekte zu ändern und Daten so vor versehentlicher Löschung zu schützen. Weitere Informationen erhalten Sie im S3-CRR-Benutzerhandbuch.

SRR ist ein Amazon-S3-Feature, die Daten automatisch zwischen Buckets in der gleichen AWS-Region repliziert. Mit SRR richten Sie die Replikation auf Bucket-Ebene, auf einer freigegebenen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags ein. Sie können SRR verwenden, eine oder mehrere Kopien Ihrer Daten in der gleichen AWS-Region anzufertigen. Mit SRR können Sie Anforderungen zur Datensouveränität und Compliance einhalten, indem Sie eine Kopie Ihrer Daten in einem getrennten AWS-Konto in derselben Region wie der originalen aufbewahren. Sie können SRR verwenden, um den Kontobesitz für die replizierten Objekte zu ändern und Daten so vor versehentlicher Löschung zu schützen. Sie können mit SRR leicht Protokolle aus verschiedenen S3-Buckets für die regioninterne Verarbeitung aggregieren oder die Live-Replikation zwischen Test- und Entwicklungsumgebungen konfigurieren. Weitere Informationen erhalten Sie im S3-SRR-Benutzerhandbuch.

Amazon S3 Batch Replication synchronisiert vorhandene Objekte zwischen Buckets. Sie können S3 Batch Replication verwenden, um einen neu erstellten Bucket mit vorhandenen Objekten aufzufüllen, versuchen, Objekte, die zuvor nicht repliziert werden konnten, erneut zu replizieren, Daten zwischen Konten zu migrieren oder Ihrem Data Lake neue Buckets hinzuzufügen. Sie können mit nur wenigen Klicks in der S3-Konsole oder einer einzigen API-Anfrage mit S3 Batch Replication starten. Weitere Informationen finden Sie im Benutzerhandbuch zu S3 Batch Replication.

Bei Amazon S3 Replication (CRR und SRR) richten Sie die Replikation auf S3-Bucket-Ebene, auf einer freigegebenen Präfixebene oder auf Objektebene mithilfe von S3-Objekt-Tags ein. Sie fügen eine Replikationskonfiguration auf Ihrem Quell-Bucket hinzu, indem Sie für die Replikation einen Ziel-Bucket in derselben oder einer anderen AWS-Region angeben. Zur Aktivierung der Replikation können Sie die S3-Konsole, -API, die AWS CLI, AWS SDKs oder AWS CloudFormation verwenden. Versioning muss für Quell- und Ziel-Bucket aktiviert sein, um die Replikation aktivieren zu können. Weitere Informationen finden Sie unter Übersicht über die Einrichtung von S3 Replication in der Amazon-S3-Dokumentation.

Sie müssen zunächst S3 Replication auf Bucket-Ebene aktivieren. Wie Sie das tun können, erfahren Sie in der vorherigen Frage. Sie können dann einen S3-Batch-Replikationsauftrag in der S3-Konsole initiieren, nachdem Sie eine neue Replikationskonfiguration erstellt oder ein Replikationsziel in einer Replikationsregel auf der Seite Replikationskonfiguration oder auf der Seite „Auftrag für S3-Batch-Operationen erstellen“ geändert haben. Alternativ können Sie einen S3-Batch-Replikationsauftrag über die AWS CLI oder SDKs initiieren. Weitere Informationen finden Sie unter S3 Replication in der Amazon-S3-Dokumentation.

Bei S3 Replication erstellen Sie Replikationsregeln, um Kopien Ihrer Objekte in eine andere Speicherklasse in derselben oder einer anderen Region anzulegen. Lebenszyklusaktionen werden nicht repliziert und wenn dieselbe Lebenszykluskonfiguration sowohl für Quell- als auch Ziel-Bucketts angewandt werden soll, aktivieren Sie die bei beiden dieselbe Lebenszykluskonfiguration.  Beispiel: Sie können eine Lebenszyklusregel für den Ziel-Bucket konfigurieren, um Daten aus der S3 Standard-Speicherklasse in die Speicherklasse S3 Standard-IA oder S3 One Zone-IA zu migrieren oder sie in einer S3-Glacier-Speicherklasse zu archivieren. Wenn Sie S3 Lifecycle für Ihren Ziel-Bucket konfiguriert haben, empfehlen wir, die Lebenszyklusregeln zu deaktivieren, während der Batch-Replikationsauftrag aktiv ist, um die Parität zwischen nicht aktuellen und aktuellen Versionen von Objekten im Quell- und Ziel-Bucket aufrechtzuerhalten.

Mehr Informationen zur Lebenszykluskonfiguration und Replikation finden Sie in der
Dokumentation zur S3 Replication.


Ja. Mit S3 Replication können Kunden ihre Daten in mehreren Ziel-Buckets derselben oder unterschiedlicher AWS-Regionen replizieren. Geben Sie bei der Einrichtung einfach den neuen Ziel-Bucket in Ihrer bestehenden Replikationskonfiguration an oder erstellen Sie eine neue Replikationskonfiguration mit mehreren Ziel-Buckets. Für jedes neue Ziel können Sie die Speicherklasse des Ziel-Buckets, den Verschlüsselungstyp, die Replikationsmetriken und -Benachrichtungen, die Replication Time Control (RTC) und weitere Einstellungen festlegen.

F: Kann ich S3 Replication verwenden, um eine bidirektionale Replikation zwischen S3-Buckets einzurichten?

Ja, Sie können bei CRR und SRR die Replikation für mehrere AWS-Konten einrichten, um die replizierten Daten in einem anderen Konto in der Zielregion zu speichern. Sie können die Besitzüberschreibung in Ihrer Replikationskonfiguration verwenden, um einen unterschiedlichem Besitzstapel für Quelle und Ziel beizubehalten und den Besitz des Zielkontos am replizierten Speicher zu gewähren.

Object Tags können mithilfe der regionsübergreifenden Replikation über mehrere AWS-Regionen hinweg repliziert werden. Für Kunden, bei denen die regionsübergreifende Replikation bereits aktiviert ist, sind neue Berechtigungen erforderlich, damit Tags repliziert werden können. Sie finden weitere Informationen zur Einrichtung der regionsübergreifenden Replikation unter Einrichtung der regionsübergreifenden Replikation in der Amazon-S3-Dokumentation.

Ja, Sie können Löschmarkierungen von der Quelle zum Ziel replizieren, wenn Sie in Ihrer Replikationskonfiguration die Replikation von Löschmarkierungen aktiviert haben. Wenn Sie Löschmarkierungen replizieren, verhält sich Amazon S3 so, als ob das Objekt in beiden Buckets gelöscht wurde. Sie können die Replikation von Löschmarkierungen in einer neuen oder bestehenden Replikationsregel aktivieren. Sie können die Löschmarkierungs-Replikation auf den gesamten Bucket oder auf Amazon S3-Objekte anwenden, die ein bestimmtes Präfix haben, wobei die Replikationsregeln auf Präfixen basieren. Die Amazon S3-Replikation unterstützt die Löschmarkierungs-Replikation für Objekttag-basierte Replikationsregeln nicht. Weitere Informationen zum Aktivieren der Replikation von Löschmarkierungen finden Sie unter Replizieren von Löschmarkierungen von einem Bucket in einen anderen.

Nein, Amazon S3 Replication ist nicht verfügbar zwischen AWS-Regionen in China und AWS-Regionen außerhalb Chinas. Sie können nur innerhalb der Regionen Chinas replizieren.

Ja. Sie können Amazon S3 Batch Replication verwenden, um vorhandene Objekte zwischen Buckets zu replizieren. Weitere Informationen finden Sie im S3-Benutzerhandbuch.

Ja. Sie können S3 Batch Replication verwenden, um Objekte erneut zu replizieren, bei denen die Replikation zunächst fehlgeschlagen ist. Weitere Informationen finden Sie im S3-Benutzerhandbuch.

S3 Replication unterstützt alle Verschlüsselungsarten, die S3 bietet. S3 bietet sowohl eine serverseitige Verschlüsselung als auch eine clientseitige Verschlüsselung an – erstere fordert S3 auf, die Objekte für Sie zu verschlüsseln, letztere dient dazu, dass Sie die Daten auf der Clientseite verschlüsseln, bevor Sie sie auf S3 hochladen. Für die serverseitige Verschlüsselung bietet S3 die serverseitige Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3), die serverseitige Verschlüsselung mit im AWS Key Management Service gespeicherten KMS-Schlüsseln (SSE-KMS) und die serverseitige Verschlüsselung mit vom Kunden bereitgestellten Schlüsseln (SSE-C). Weitere Einzelheiten zu diesen Verschlüsselungsarten und ihrer Funktionsweise finden Sie in der S3-Dokumentation zur Verwendung von Verschlüsselung.

Mit S3 Replication können Sie eine kontoübergreifende Replikation konfigurieren, bei der die Quell- und Ziel-Buckets unterschiedlichen AWS-Konten gehören. Abgesehen von S3-Speicher und anwendbaren Abrufgebühren zahlen Kunden bei der Verwendung von S3 Replication für PUT-Anfragen zur Replikation und für den regionenübergreifenden Datentransfer OUT von S3 zu Ihrer Zielregion. Wenn Sie S3 Replication Time Control (S3 RTC) in Ihren Replikationsregeln aktiviert haben, sehen Sie andere Gebühren für die Datenübertragung OUT und die Replikations-PUT-Anforderung, die speziell für S3 RTC gelten. Bei der kontoübergreifenden Replikation zahlt das Ausgangskonto für den gesamten Datentransfer (S3 RTC und S3 CRR) und das Zielkonto für die Replikations-PUT-Anforderungen. Datenübertragungsgebühren fallen nur für S3 Cross Region Replication (S3 CRR) und S3 Replication Time Control (S3 RTC) an, für S3 Same Region Replication (S3 SRR) gibt es keine Datenübertragungsgebühren.  Wenn Sie S3 Batch Replication für die kontenübergreifende Replikation von Objekten verwenden, fallen zusätzlich zu den Replikations-PUT-Anforderungen und den Datentransfer-OUT-Gebühren die S3-Batch-Operations-Gebühren an (beachten Sie, dass S3 RTC nicht für Batch Replication gilt). Die Gebühren für Batchvorgäng umfassen die Gebühren für Aufträge und Objekte, die auf der Anzahl der Aufträge bzw. der Anzahl der verarbeiteten Objekte basieren. Wenn Sie sich für das von Amazon S3 generierte Manifest entscheiden, fällt außerdem eine Manifestgebühr an, die sich nach der Anzahl der Objekte im Quell-Bucket richtet.

Weitere Informationen zu den Preisen von S3 Replication finden Sie auf der
Amazon-S3-Preisseite.

Amazon S3 Replication Time Control bietet eine vorhersehbare Replikationsleistung und hilft Ihnen, Compliance- oder Geschäftsanforderungen zu erfüllen. S3 Replication Time Control ist darauf ausgelegt, die meisten Objekte in Sekunden und 99,99 % aller Objekte in 15 Minuten zu replizieren. S3 Replication Time Control wird durch eineService-Level-Agreement-Verpflichtung (SLA) gestützt, dass 99,9 % aller Objekte in 15 Minuten für jedes Replikations-Regionspaar in einem Rechnungsmonat repliziert werden. Die Replikationszeit funktioniert mit allen S3-Replikationsfunktionen. Weitere Informationen finden Sie in der Replikations-Dokumentation.

Amazon S3 Replication Time Control ist als Option für jede Replikationsregel aktiviert. Sie können eine neue S3-Replikationsrichtlinie mit S3 Replication Time Control erstellen oder das Feature für eine bestehende Richtlinie aktivieren. Zur Konfiguration der Replikation können Sie entweder die S3-Konsole, API, AWS CLI, AWS SDKs oder AWS CloudFormation verwenden. Weitere Informationen finden Sie unter Einrichtung von Replication im Amazon-S3-Entwicklerhandbuch.

Ja, Sie können die Amazon S3 Replication Time Control aktivieren, um Daten innerhalb und zwischen den AWS-Regionen China (Ningxia) und China (Peking) zu replizieren.

Amazon S3 Replication bietet vier detaillierte Metriken in der Amazon-S3-Konsole und in Amazon CloudWatch: ausstehende Operationen, ausstehende Bytes, Replikationslatenz und fehlgeschlagene Replikation von Vorgängen. Sie können diese Metriken verwenden, um die Gesamtzahl der Operationen und die Größe der Objekte, deren Replikation noch aussteht, die Replikationslatenz zwischen Quell- und Ziel-Buckets und die Anzahl der Vorgänge, die nicht erfolgreich repliziert wurden, für jede Replikationsregel zu überwachen. Darüber hinaus können Sie Amazon-S3-Ereignisbenachrichtigungen vom Typ s3:Replikation einrichten, um weitere Informationen über Objekte zu erhalten, die nicht repliziert werden konnten, und über den Grund für die Fehler. Wir empfehlen, die Gründe für Amazon-S3-Replication-Fehler zu verwenden, um die Fehler schnell zu diagnostizieren und zu beheben, bevor die ausgefallenen Objekte erneut mit S3 Batch Replication repliziert werden. Wenn Sie die Begrenzung der S3-Replikationszeit (S3 RTC) aktiviert haben, erhalten Sie eine S3-Ereignisbenachrichtigung, wenn die Replikation eines Objekts länger als 15 Minuten dauert und wenn das Objekt erfolgreich an sein Ziel repliziert wird.

Metriken und Ereignisse für Amazon S3 Replication können für neue oder vorhandene Replikationsregeln aktiviert werden und sind standardmäßig für Regeln aktiviert, bei denen S3 Replication Time Control aktiviert ist. Sie können auf S3-Replication-Metriken über die Amazon-S3-Konsole und Amazon CloudWatch zugreifen. Wie andere Amazon-S3-Ereignisse sind S3-Replikationsereignisse über Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) oder AWS Lambda verfügbar. Weitere Informationen finden Sie unter Fortschrittsüberwachung mit Replikationsmetriken und Amazon-S3-Ereignisbenachrichtigungen im Amazon-S3-Entwicklerhandbuch.

Sie können Metriken wie ausstehende Bytes, ausstehende Operationen und Replikationslatenz nicht verwenden, um den Fortschritt von S3 Batch Replication zu verfolgen. Sie können jedoch die Metrik „Operationen sind bei der Replikation fehlgeschlagen“ verwenden, um vorhandene Objekte zu überwachen, die mit der S3-Batch-Replikation nicht erfolgreich repliziert wurden. Darüber hinaus können Sie Abschlussberichte für S3-Batch-Operationen verwenden, um den Überblick über Objekte zu behalten, die mit S3 Batch Replication repliziert werden.

Amazon S3 Replication Time Control ist darauf ausgelegt, 99,99 % Ihrer Objekte in 15 Minuten zu replizieren und wird durch ein Service Level Agreement gestützt. Wenn bei jedem Replikations-Regionspaar in einem monatlichen Rechnungszyklus weniger als 99,9 % Ihrer Objekte in 15 Minuten repliziert werden, bietet das S3 RTC SLA eine Servicegutschrift für jedes Objekt, bei dem zur Replikation mehr als 15 Minuten benötigt wurden. Die Service-Gutschrift deckt einen Prozentsatz aller replikationsbezogenen Gebühren zu den Objekten ab, die das SLA nicht erfüllt haben, darunter die RTC-Gebühr, Replikationsbandbreiten- und -Anfragegebühren sowie die Kosten zum Speichern der Kopie in der Ziel-Region im betroffenen monatlichen Rechnungszyklus. Mehr erfahren Sie im S3 Replication Time Control SLA.

Für S3 Replication (Cross-Region Replication und Same Region Replication) bezahlen Sie die S3-Gebühren für die Speicherung in der gewünschten S3-Zielspeicherklasse, die Speicherkosten für die primäre Kopie, für Replikation-PUT-Anforderungen sowie ggf. Abrufgebühren für seltenen Zugriff. Bei CRR bezahlen Sie auch für die regionsübergreifende Übertragung ausgehender Daten aus S3 in Ihre Zielregion. S3 Replication-Metriken werden zum selben Preis abgerechnet wie benutzerdefinierte Amazon CloudWatch-Metriken. Wenn Sie S3 Replication Time Control verwenden, zahlen Sie außerdem eine Gebühr für die Datenübertragung mit Replication Time Control. Weitere Informationen zu den Preisen finden Sie auf der Amazon S3-Preisseite. Wenn das Quellobjekt mit dem Feature für den mehrteiligen Upload hochgeladen wird, erfolgt die Reduzierung mit derselben Anzahl von Teilen und Teilgrößen. Beispiel: Ein Objekt mit 100 GB, das mithilfe dem Feature für mehrteiligen Upload (800 Teile mit jeweils 128 MB) hochgeladen wird, veranlasst bei der Replikation Anfragekosten für 802 Anfragen (800 Anfragen zum Hochladen für Teile plus 1 zur Einleitung eines mehrteiligen Uploads plus 1 Anfrage zur Beendigung des mehrteiligen Uploads). Dabei entstehen Anfragekosten von 0,00401 USD (802 Anfragen x 0,005 USD pro 1 000 Anfragen) und (wenn die Replikation zwischen unterschiedlichen AWS-Regionen erfolgt ist) eine Gebühr von 2,00 USD (0,020 USD pro übertragenem Gigabyte x 100 GB) für die Datenübertragung zwischen Regionen. Nach der Platzierung werden für die 100 GB Speicherkosten basierend auf der Zielregion anfallen.

Amazon S3 Access Points für mehrere Regionen beschleunigen die Leistung um bis zu 60 % beim Zugriff auf Datensätze, die über mehrere AWS-Regionen repliziert sind. Die auf AWS Global Accelerator basierenden S3-Zugriffspunkte für mehrere Regionen berücksichtigen Faktoren wie Netzwerküberlastung und den Standort der anfordernden Anwendung, um Ihre Anforderungen dynamisch über das AWS-Netzwerk an die Kopie Ihrer Daten mit der geringsten Latenz zu leiten. Dieses automatische Routing ermöglicht es Ihnen, die Vorteile der globalen Infrastruktur von AWS zu nutzen und gleichzeitig eine einfache Anwendungsarchitektur beizubehalten.

S3 Access Points für mehrere Regionen beschleunigen und vereinfachen die Speicherung für Ihre Multi-Region-Anwendungen. Durch das dynamische Routing von S3-Anforderungen an einen replizierten Datensatz verkürzen S3-Zugriffspunkte für mehrere Region die Latenz, wodurch Anwendungen bis zu 60 % schneller ausgeführt werden. S3-Zugriffspunkte für mehrere Regionen können Ihnen auch dabei helfen, robuste, regionenübergreifende und kontoübergreifende Anwendungen zu entwickeln, die besser vor versehentlichem oder unbefugtem Löschen von Daten geschützt sind. Mit S3 Access Points für mehrere Regionen können Sie die Vorteile der globalen Infrastruktur von AWS nutzen und gleichzeitig eine einfache regionsunabhängige Architektur ihrer Anwendungen beibehalten.

Access Points für mehrere Regionen leiten Kundenanforderungen dynamisch an einen oder mehrere zugrunde liegende(n) S3-Bucket(s). Sie können Ihren Multi-Region-Zugriffspunkt so konfigurieren, dass er über einen Bucket pro AWS-Region in bis zu 17 AWS-Regionen leitet. Wenn Sie einen Multi-Region-Zugriffspunkt erstellen, generiert S3 automatisch einen DNS-kompatiblen Namen. Dieser Name wird als ein globaler Endpunkt verwendet, den Ihre Kunden verwenden können. Wenn Ihre Kunden Anforderungen an diesen Endpunkt richten, wird S3 diese Anforderungen dynamisch an einen der zugrunde liegenden Buckets weiterleiten, die in der Konfiguration Ihres Zugriffspunkts für mehrere Regionen angegeben sind. Internet-basierte Anforderungen werden in das globale AWS-Netzwerk aufgenommen, um überlastete Netzwerksegmente im Internet zu vermeiden, was Netzwerklatenz und Jitter verringern und die Leistung verbessern wird. Basierend auf AWS Global Accelerator können Anwendungen, die auf S3 über das Internet zugreifen, eine um bis zu 60 % verbesserte Leistung durch S3 Access Points für mehrere Regionen feststellen. Zur direkten Kontrolle dieser Weiterleitung können Sie S3-Zugriffspunkte für mehrere Regionen in einer Aktiv-Aktiv- oder Aktiv-Passiv-Konfiguration bedienen. In einer Aktiv-Passiv-Konfiguration können Sie die Failover-Kontrollen von S3 Access Points für mehrere Regionen verwenden und einen Failover einleiten, um den Datenverkehr von S3-Anforderungen an die ausgewählte alternative AWS-Region und das Konto binnen Minuten weiterzuleiten.
In einer Aktiv-Aktiv-Konfiguration berücksichtigen S3-Zugriffspunkte für mehrere Regionen Faktoren wie Netzwerküberlastung und den Standort der anfordernden Anwendung, um Ihre Anfragen dynamisch über das AWS-Netzwerk an die am nächsten liegende Kopie Ihrer Daten zu leiten. Die S3-Zugriffspunkte für mehrere Regionen leiten Ihre Anforderungen durch den am nächsten liegenden AWS-Standort an Ihren Client und dann über das globale private AWS-Netzwerk an S3 weiter. In beiden Konfigurationen ermöglichen S3 Access Points für mehrere Regionen Ihnen, die globale Infrastruktur von AWS zu nutzen und gleichzeitig eine einfache Anwendungsarchitektur beizubehalten.


S3 CRR und S3 Access Points für mehrere Regionen sind ergänzende Features, die gemeinsam Daten in AWS-Regionen replizieren und dann automatisch Anforderungen an die replizierte Kopie mit der niedrigsten Latenz weiterleiten. Die S3 Access Points für mehrere Regionen helfen Ihnen bei der Verwaltung von Anforderungen in AWS-Regionen. Gleichzeitig ermöglicht CRR es Ihnen, Daten in allen AWS-Regionen zu verschieben, um isolierte Replikate zu erstellen. Sie verwenden S3 Access Points für mehrere Regionen und CRR zusammen, um einen replizierten Datensatz für mehrere Regionen zu erstellen, der von einem einzigen globalen Endpunkt aus aufgerufen werden kann.


Wenn Sie einen S3 Multi-Region Access Point verwenden, um Anforderungen innerhalb von AWS weiterzuleiten, zahlen Sie geringe Kosten pro GB für die Datenweiterleitung für jedes verarbeitete Gigabyte (GB) sowie die Standardgebühren für S3-Anforderungen, Speicher, Datenübertragung und Replikation. Wenn Ihre Anwendung außerhalb von AWS läuft und über das Internet auf S3 zugreift, erhöhen S3 Multi-Region Access Points die Leistung, indem sie Ihre Anforderungen automatisch über einen AWS-Edge-Standort über das globale private AWS-Netzwerk an die nächstgelegene Kopie Ihrer Daten auf Basis der Zugriffslatenz weiterleiten. Wenn Sie Anfragen über das Internet beschleunigen, zahlen Sie die Kosten für das Datenrouting und die Kosten für die Internetbeschleunigung. Die Preise für die Internet-Beschleunigung von S3 Access Points für mehrere Regionen hängen davon ab, ob sich der Quell-Client in der gleichen oder in einer anderen AWS-Region befindet wie die Zielregion, und gelten zusätzlich zu den Standardpreisen für die S3-Datenübertragung. Zur Verwendung von Failover-Kontrollen von S3-Zugriffspunkten für mehrere Regionen werden Ihnen nur S3-API-Standardgebühren in Rechnung gestellt, um den aktuellen Kontrollzustand der Weiterleitung jeder Region anzuzeigen und Änderungen an den Kontrollen zur Einleitung eines Failovers zu senden. Bitte lesen Sie die Amazon-S3-Preisseite und die Registerkarte Übertragung, um mehr über Preise zu erfahren.



Ja, Sie können die zugrunde liegenden Buckets des S3-Zugangspunkts für mehrere Regionen als Requester-Pays-Buckets konfigurieren. Mit Zahlungen durch den Anforderer zahlt der Anforderer alle Kosten im Zusammenhang mit der Endpunktnutzung, einschließlich der Kosten für Anfragen und Datenübertragungskosten, die sowohl mit dem Bucket als auch mit dem Zugriffspunkt für mehrere Regionen verbunden sind. In der Regel sollten Sie Ihre Buckets als Buckets mit Zahlungen durch den Anforderer konfigurieren, wenn Sie Daten teilen möchten, aber keine Gebühren für den Zugriff anderer auf die Daten anfallen. Im Allgemeinen zahlen Bucket-Besitzer für den gesamten Amazon S3-Speicher, der ihrem Bucket zugeordnet ist. Um mehr zu erfahren, besuchen Sie bitte S3 Requester Pays.

S3 Access Points für mehrere Regionen und S3 Transfer Acceleration bietet ähnliche Leistungsvorteile. Sie können S3 Transfer Acceleration verwenden, um die Übertragung von Inhalten von und zu Amazon S3 mit dem globalen AWS-Netzwerk zu beschleunigen. S3 Transfer Accelerator kann dabei helfen, weit entfernte Übertragungen von größeren Objekten zu und von einem einzigen Amazon-S3-Bucket zu beschleunigen. Mit S3 Access Points für mehrere Regionen können Sie ähnlich beschleunigte Übertragungen mit dem globalen AWS-Netzwerk durchführen, und das auch bei vielen S3-Buckets in mehreren AWS-Regionen für Internet-basierte, VPC-basierte und On-Premises-Anforderungen zu und von S3. Wenn Sie S3 Access Points für mehrere Regionen mit übergreifender S3-Replikation kombinieren, können die S3 Access Points dank Ihnen Ihre Anfragen dynamisch an die Datenkopie mit der niedrigsten Latenz für Anwendungen von Kunden in mehreren Standorten weiterleiten.


Die S3-Konsole bietet einen einfachen Workflow mit Anleitungen zur schnellen Einrichtung von allem, was für das Speichern in mehreren Regionen in S3 benötigt wird, und zwar in nur drei einfachen Schritten. Erstellen Sie zunächst einen Endpunkt für den S3-Zugriffspunkt für mehrere Regionen und geben Sie die AWS-Regionen an, die Sie replizieren und bei denen Sie Failovers durchführen möchten. Sie können Buckets in mehreren AWS-Konten zu einem neuen S3-Zugriffspunkt für mehrere Regionen hinzufügen, indem Sie die Konto-IDs eingeben, denen die Buckets zum Zeitpunkt der Erstellung gehören. Zweitens: Geben Sie für jede AWS-Region und für jedes S3-Bucket Ihren Endpunkt für S3-Zugriffspunkte für mehrere Regionen an, ob der Routing-Status aktiv oder passiv ist, ob aktive AWS-Regionen den Datenverkehr der S3-Anforderungen akzeptieren und ob passive Regionen nicht geleitet werden, bis Sie einen Failover eingeleitet haben. Drittens: Konfigurieren Sie S3 die regionsübergreifenden Replikationsregeln, um Ihre Daten in S3 zwischen den Regionen und/oder Konten. Sie können dann einen Failover jederzeit zwischen den AWS-Regionen binnen Minuten einleiten, um Ihre S3-Datenanforderungen zu verschieben und um die Verschiebung Ihres S3-Datenverkehrs zur neuen aktiven AWS-Region in Amazon CloudWatch zu überwachen. Alternativ können Sie mit AWS CloudFormation die Konfiguration Ihres Speichers für mehrere Regionen automatisieren. Alle für die Einrichtung eines Speichers für mehrere Regionen in S3 erforderlichen Bausteine, einschließlich den S3 Access Points für mehrere Regionen, werden von CloudFormation unterstützt, damit Sie einen wiederholbaren Einrichtungsprozess außerhalb der S3-Konsole automatisieren können.

Datenverarbeitung

Alles öffnen

Mit S3 Objekt Lambda können Sie S3-GET-, LIST- und HEAD-Anforderungen Ihren eigenen Code hinzufügen, um Daten zu ändern und zu verarbeiten, wenn sie an eine Anwendung zurückgegeben werden. Sie können benutzerdefinierten Code verwenden, um die von S3-GET-Anforderungen zurückgegebenen Daten zu ändern, um Zeilen zu filtern, die Größe von Bildern dynamisch anzupassen, vertrauliche Daten zu redigieren und vieles mehr. Sie können S3 Objekt Lambda auch verwenden, um die Ausgabe von S3-LIST-Anforderungen zu ändern, um eine benutzerdefinierte Ansicht von Objekten in einem Bucket zu erstellen, und S3-HEAD-Anforderungen, um Objektmetadaten wie Objektname und -größe zu ändern. Mit S3 Objekt Lambda können Sie die einzigartigen Datenformat-Anforderungen einer Anwendung problemlos erfüllen, ohne zusätzliche Infrastrukturen wie eine Proxy-Schicht erstellen und betreiben oder mehrere abgeleitete Kopien Ihrer Daten erstellen und verwalten zu müssen. S3 Objekt Lambda verwendet AWS Lambda-Funktionen, um die Ausgabe einer standardmäßigen S3-GET-, LIST- oder HEAD-Anforderung automatisch zu verarbeiten. AWS Lambda ist ein Serverless-Rechenservice, der kundenspezifischen Code ausführt, ohne dass die zugrunde liegenden Rechenressourcen verwaltet werden müssen.  Mit nur wenigen Klicks in der AWS-Managementkonsole können Sie eine Lambda-Funktion konfigurieren und an einen S3-Objekt-Lambda-Service-Zugriffspunkt anhängen. Ab diesem Zeitpunkt ruft S3 automatisch Ihre Lambda-Funktion auf, um alle über den S3-Objekt-Lambda-Endpunkt abgerufenen Daten zu verarbeiten und ein transformiertes Ergebnis an die Anwendung zurückzugeben. Sie können Ihre eigenen benutzerdefinierten Lambda-Funktionen erstellen und ausführen und die Datentransformation von S3 Object Lambda an Ihren spezifischen Anwendungsfall anpassen. Um mit S3 Object Lambda zu beginnen, können Sie die S3-Managementkonsole, das SDK oder die API verwenden. Weitere Informationen finden Sie auf der Seite S3 Object Lambda oder im S3-Object-Lambda-Benutzerhandbuch.

Sie sollten S3 Object Lambda verwenden, wenn Sie Daten im Einklang mit einer S3-GET-, LIST- oder HEAD-Anfrage verarbeiten möchten. Sie können S3 Objekt Lambda verwenden, um eine einzelne Kopie Ihrer Daten für viele Anwendungen freizugeben, ohne dass Sie eine benutzerdefinierte Verarbeitungsinfrastruktur erstellen und betreiben oder abgeleitete Kopien Ihrer Daten speichern müssen. Wenn Sie beispielsweise S3 Objekt Lambda verwenden, um S3-GET-Anforderungen zu verarbeiten, können Sie vertrauliche Daten aus Compliance-Gründen maskieren, Rohdaten umstrukturieren, um sie mit Anwendungen für Machine Learning kompatibel zu machen, und Daten filtern, um den Zugriff auf bestimmte Inhalte in einem S3-Objekt einzuschränken, oder um eine breite Palette von zusätzlichen Anwendungsfällen zu adressieren. Mit S3 Objekt Lambda können Sie Ihre Objektlisten anreichern, indem Sie einen externen Index abfragst, der zusätzliche Objekt-Metadaten enthält, deine Objektlisten filtern und maskieren, um nur Objekte mit einem bestimmten Objekt-Tag einzuschließen, oder allen Objektnamen in Ihren Objektlisten eine Dateierweiterung hinzufügen. Wenn Sie z. B. einen S3-Bucket mit mehreren diskreten Datensätzen haben, können Sie mit S3 Objekt Lambda eine S3-LIST-Antwort nach Anforderern filtern.  S3 Objekt Lambda kann mit nur wenigen Klicks in der Amazon-S3-Managementkonsole eingerichtet werden. Im Benutzerhandbuch erhalten Sie weitere Informationen.

S3 Objekt Lambda verwendet von Ihnen angegebene Lambda-Funktionen, um die Ausgabe der GET-, LIST- und HEAD-Anforderung zu verarbeiten. Nachdem Sie eine Lambda-Funktion zum Verarbeiten der angeforderten Daten definiert haben, können Sie diese Funktion an einen S3-Objekt-Lambda-Zugriffspunkt anhängen. GET-, LIST- und HEAD-Anforderungen, die über einen S3-Objekt-Lambda-Zugriffspunkt gestellt werden, rufen jetzt die angegebene Lambda-Funktion auf. Lambda ruft dann das vom Client angeforderte S3-Objekt ab und verarbeitet dieses Objekt. Sobald die Verarbeitung abgeschlossen ist, überträgt Lambda das verarbeitete Objekt zurück an den aufrufenden Client. Weitere Informationen finden Sie im S3-Object-Lambda-Benutzerhandbuch.

S3 Object Lambda kann auf mehrere Arten eingerichtet werden. Sie können S3 Object Lambda in der S3-Konsole einrichten, indem Sie zur Registerkarte „Object Lambda Access Point“ navigieren. Anschließend erstellen Sie einen S3-Objekt-Lambda-Zugriffspunkt, die Lambda-Funktion, die S3 für Ihre GET-, LIST- und HEAD-Anforderungen ausführen soll, und einen unterstützenden S3-Zugriffspunkt. Erteilen Sie allen Ressourcen die Berechtigung, mit Object Lambda zu interagieren. Zuletzt aktualisieren Sie Ihr SDK und Ihre Anwendung, um mithilfe des neuen S3-Objekt-Lambda-Zugriffspunkts Daten aus S3 mit dem Sprach-SDK Ihrer Wahl abzurufen. Sie können einen S3-Object-Lambda-Zugriffspunkt-Alias verwenden, wenn Sie Anfragen stellen. Aliase für S3-Object-Lambda-Zugriffspunkte automatisch generiert und sind mit S3-Bucket-Namen für Daten austauschbar, auf die über S3 Object Lambda zugegriffen wird. Für bestehende S3 Object Lambda-Zugriffspunkte werden Aliase automatisch zugewiesen und sind sofort einsatzbereit. In der AWS-Dokumentation finden Sie Beispielimplementierungen für Lambda-Funktionen, die Ihnen den Einstieg erleichtern. Sie können auch AWS CloudFormation verwenden, um Ihre S3-Object-Lambda-Konfiguration zu automatisieren. Bei der Verwendung der AWS-CloudFormation-Vorlage übergibt die Lambda-Funktion, die in Ihrem Konto bereitgestellt wird, S3-Objekte ohne Änderungen an Ihren anfragenden Client oder Ihre Anwendung zurück. Sie können benutzerdefinierten Code hinzufügen, um Daten zu ändern und zu verarbeiten, wenn sie an eine Anwendung zurückgegeben werden. Weitere Informationen finden Sie im S3-Object-Lambda-Benutzerhandbuch.

Jede in einer Lambda-Funktion unterstützte Operation wird mit S3 Object Lambda unterstützt. Dies bietet Ihnen eine breite Palette verfügbarer Optionen für die Bearbeitung Ihrer Anforderungen. Sie stellen Ihre eigene Lambda-Funktion bereit, um benutzerdefinierte Berechnungen für GET-, LIST- und HEAD-Anforderungen auszuführen, und geben Ihnen die Flexibilität, Daten gemäß den Anforderungen Ihrer Anwendung zu verarbeiten. Die Lambda-Verarbeitungszeit ist auf maximal 60 Sekunden begrenzt. Weitere Informationen finden Sie in der Dokumentation zu S3 Object Lambda.

S3 Object Lambda unterstützt GET-, LIST- und HEAD-Anforderungen. Alle anderen S3-API-Aufrufe, die an einen S3-Objekt-Lambda-Zugriffspunkt gesendet werden, geben die Standard-S3-API-Antwort zurück. Weitere Informationen zu S3 Object Lambda finden Sie im Benutzerhandbuch.

Wenn eine S3-Object-Lambda-Funktion fehlschlägt, erhalten Sie eine Anforderungsantwort, in der der Fehler aufgeführt ist. Wie andere Aufrufe von Lambda-Funktionen überwacht AWS auch automatisch Funktionen in Ihrem Namen und meldet Metriken über Amazon CloudWatch. Um Ihnen bei der Fehlerbehebung zu helfen, protokolliert Lambda alle von Ihrer Funktion verarbeiteten Anforderungen und speichert die von Ihrem Code generierten Protokolle automatisch in Amazon CloudWatch Logs. Weitere Informationen zum Zugriff auf CloudWatch-Protokolle für AWS Lambda finden Sie in der CloudWatch-Dokumentation.

S3 Objekt Lambda verbindet Amazon S3, AWS Lambda und optional andere AWS-Services Ihrer Wahl, um Objekte bereitzustellen, die für das Anfordern von Anwendungen relevant sind. Alle AWS-Services, die in Verbindung mit S3 Objekt Lambda verwendet werden, unterliegen weiterhin den jeweiligen Service Level Agreements (SLA). Falls beispielsweise ein AWS-Service seine Service-Verpflichtung nicht erfüllt, können Sie eine Service-Gutschrift erhalten, die in der SLA dieses Services dokumentiert ist. Das Erstellen eines S3-Objekt-Lambda-Zugriffspunkts hat keinen Einfluss auf die Haltbarkeit Ihrer Objekte. S3 Objekt Lambda ruft jedoch Ihre angegebene AWS-Lambda-Funktion auf, und Sie müssen sicherstellen, dass Ihre angegebene Lambda-Funktion beabsichtigt und korrekt ist. Die aktuellste Amazon S3 SLA finden Sie hier.

Wenn Sie S3 Object Lambda verwenden, zahlen Sie eine Gebühr pro GB für jedes Gigabyte an Daten, die Sie über S3 Object Lambda erhalten. Außerdem fallen Gebühren für Anfragen an, die auf dem Anfragetyp basieren (GET-, LIST- und HEAD-Anfragen), und AWS Lambda berechnet die Zeit, in der die von Ihnen angegebene Funktion zur Verarbeitung der angeforderten Daten läuft. Informationen zu Preisdetails sowie ein Beispiel finden Sie auf der Preisseite zu S3.

Datenzugriff

Alles öffnen

Mountpoint für Amazon S3 ist ein Open-Source-Datei-Client, mit dem Sie einen S3-Bucket auf Ihrer Rechen-Instance bereitstellen und als lokales Dateisystem darauf zugreifen können. Mountpoint für Amazon S3 übersetzt lokale Dateisystemvorgänge in REST-API-Aufrufe für in Amazon S3 gespeicherte Objekte. Mit Mountpoint für Amazon S3 erreichen Sie einen hohen Einzel-Instance-Durchsatz, um Aufträge schneller abzuschließen. Mountpoint für Amazon S3 wird vom AWS Support unterstützt. Kunden mit Zugriff auf AWS Enterprise Support erhalten rund um die Uhr technischen Support von Amazon-Supporttechnikern und Architekturberatung im Zusammenhang mit ihren Anwendungsfällen. Mountpoint für Amazon S3 funktioniert mit dem Linux-Betriebssystem und AWS-Computing-Services wie Amazon Elastic Compute Cloud (EC2). Weitere Informationen finden Sie auf der Seite Mountpoint für Amazon S3 oder im Benutzerhandbuch.

Mountpoint für Amazon S3 ist ideal für leseintensive Data-Lake-Workloads, die Petabytes an Daten verarbeiten, indem sie zufällige und sequentielle Lesevorgänge für vorhandene Dateien und sequentielle Schreibvorgänge zum Erstellen neuer Dateien verwenden. Diese Workloads schreiben von einem einzelnen Knoten aus und ändern keine vorhandenen Daten in Amazon S3. Zu den gängigen Anwendungsfällen gehören die Simulation von autonomen Fahrzeugen im Petabyte-Bereich, Machine-Learning-Training, Genomanalyse und Bildwiedergabe. Diese Workloads lassen sich schnell hoch- und herunterskalieren und verlassen sich auf die Elastizität von Amazon S3, um nicht ausgelastete Kapazitäten zu minimieren und die Kosten einer zu hohen Bereitstellung von Durchsatz zu vermeiden. Mit Mountpoint für Amazon S3 können Sie Rechenkosten einsparen, indem Sie die Netzwerkbandbreite Ihrer Rechen-Instances effizient nutzen und zuverlässig auf Tausende von Rechen-Instances für Data-Lake-Workloads im Petabyte-Bereich skalieren.

Mountpoint für Amazon S3 unterstützt grundlegende Dateisystemvorgänge wie das Lesen von Dateien mit einer Größe von bis zu 5 TB, das Schreiben neuer Dateien, das Auflisten vorhandener Dateien sowie das Erstellen und Auflisten von Verzeichnissen. Mountpoint für Amazon S3 unterstützt nicht das Ändern vorhandener Dateien oder das Löschen vorhandener Verzeichnisse. Mit diesen Operationen eignet sich Mountpoint für Amazon S3 ideal für Anwendungen, die Daten mit hohem Durchsatz in Amazon S3 Data Lakes lesen und schreiben. Es eignet sich nicht für Anwendungen, die eine Zusammenarbeit und Koordination über mehrere Datenverarbeitungsinstances oder Benutzer hinweg erfordern. Diese Anwendungen benötigen in der Regel gemeinsame Dateisystemfeatures wie das Anfügen an vorhandene Dateien und das Sperren von Dateien. Sie können Amazon FSx für Lustre für Data-Lake-Anwendungen verwenden, die POSIX-Semantik und Features des gemeinsamen Dateisystems benötigen.

Sie können mit Mountpoint für Amazon S3 beginnen, indem Sie mithilfe der in der Dokumentation bereitgestellten Anweisungen einen S3-Bucket in einem lokalen Verzeichnis auf Ihrer Rechen-Instance bereitstellen. Sobald Sie den S3-Bucket in einem lokalen Verzeichnis gemountet haben, können Ihre Anwendungen auf S3-Objekte als lokal auf ihrer Rechen-Instance verfügbare Dateien zugreifen. Mountpoint für Amazon S3 unterstützt sequentielle und zufällige Lesevorgänge für vorhandene Amazon-S3-Objekte sowie sequentielle Schreibvorgänge für neue Objekte. Weitere Informationen zu den unterstützten Dateisystemoperationen finden Sie in der Semantik-Dokumentation für Mountpoint für Amazon S3. Sie können Mountpoint für Amazon S3 verwenden, um auf Objekte in allen S3-Speicherklassen zuzugreifen, mit Ausnahme von Objekten in S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive und Objekten in der Archive-Access-Ebene und der Deep-Archive-Access-Ebene in S3 Intelligent-Tiering.

Für die Nutzung von Mountpoint für Amazon S3 fallen keine zusätzlichen Gebühren an. Sie zahlen für S3-API-Anfragen wie GET-, PUT- und LIST-Anfragen, die von Mountpoint für Amazon S3 gestellt werden, wenn Sie Dateisystemvorgänge wie Dateilese-, Dateischreib- und Verzeichnisauflistungsvorgänge ausführen. Preise für S3-Anfragen finden Sie auf der Preisseite.

Mountpoint für Amazon S3 bietet dieselbe Leistung wie die AWS SDKs. Das bedeutet, dass Data-Lake-Anwendungen hohe Einzel-Instance-Übertragungsraten erzielen und die verfügbare Netzwerkbandbreite auf ihrer Amazon-EC2-Instance effizient nutzen. Um einen noch höheren Durchsatz zu erzielen, können diese Anwendungen den Durchsatz über mehrere Instances hinweg aggregieren, um mehrere Tb/s zu erhalten.

Wenn Sie Mountpoint für Amazon S3 verwenden, können Sie den Zugriff auf Ihre Daten mithilfe der vorhandenen Mechanismen für die Zugriffssteuerung von Amazon S3 steuern, einschließlich Bucket-Richtlinien und AWS Identity und Access Management (IAM)-Richtlinien. Mountpoint für Amazon S3 übersetzt Dateisystemvorgänge wie Lesen und Schreiben in Objekt-API-Anfragen, die an Ihren S3-Bucket gesendet werden. Anschließend wertet Amazon S3 alle relevanten Richtlinien aus, z. B. die des Benutzers und des Buckets, um zu entscheiden, ob die Anfrage autorisiert werden soll. Mountpoint für Amazon S3 führt keine neuen Mechanismen für die Zugriffssteuerung ein.

Mountpoint für Amazon S3 unterstützt das Lesen oder Schreiben von POSIX-Metadaten wie Benutzer-ID, Gruppen-ID und Berechtigungsfeldern nicht. Sie können Amazon FSx für Lustre mit Amazon S3 oder AWS DataSync verwenden, um Metadaten im POSIX-Stil für S3-Objekte zu speichern.

Ja, Mountpoint für Amazon S3 unterstützt den Zugriff über Gateway-VPC-Endpunkte. Wir empfehlen die Verwendung von VPC-Endpunkten mit AWS-PrivateLink-basierter Schnittstelle, um On-Premises oder von einer VPC in einer anderen AWS-Region auf S3 zuzugreifen. Für Ressourcen, die von einer VPC in derselben AWS-Region wie Ihr S3-Bucket auf S3 zugreifen, empfehlen wir die Verwendung von Gateway-VPC-Endpunkten, da diese nicht in Rechnung gestellt werden.

Ja, Sie können von Amazon EKS aus mit dem AWS-SDK und der AWS-CLI auf Amazon S3 zugreifen. Für Anwendungen, die eine Dateisystemschnittstelle zum Lesen und Schreiben von Daten verwenden, können Sie den Mountpoint für Amazon S3 Container Storage Interface (CSI)-Treiber verwenden. Mit dem CSI-Treiber von Mountpoint für Amazon S3 können Sie einen hohen Gesamtdurchsatz von bis zu Terabit pro Sekunde erreichen, ohne eine einzige Zeile Anwendungscode oder Ihr Genehmigungsmodell zu ändern. Wie Mountpoint für Amazon S3 unterstützt der S3-CSI-Treiber sequentielle und zufällige Lesevorgänge für bestehende Dateien sowie sequentielle Schreibvorgänge für die Erstellung neuer Dateien. Einzelheiten zu unterstützten Dateisystemoperationen finden Sie im Dateisystemverhalten von Mountpoint für Amazon S3. Die Installation, Konfiguration und Aktualisierung des Mountpoint für den CSI-Treiber von Amazon S3 ist mit nur wenigen Klicks in der EKS-Konsole, AWS CLI, EKS-API oder AWS CloudFormation möglich. Weitere Informationen finden Sie auf der GitHub-Seite zum Mountpoint für den CSI-Treiber von Amazon S3.

Storage Browser für Amazon S3 ist eine Open-Source-Komponente, die Sie Ihren Webanwendungen hinzufügen können, um Ihren Endbenutzern, wie Kunden, Partnern und Mitarbeitern, eine einfache Benutzeroberfläche für in S3 gespeicherte Daten zu bieten. Mit Storage Browser für S3 können Sie autorisierten Endbenutzern Zugriff gewähren, um Daten in S3 direkt aus Ihren eigenen Anwendungen heraus zu durchsuchen, herunterzuladen, hochzuladen zu kopieren und zu löschen.

Sie sollten Storage Browser verwenden, wenn Sie eine einfache Benutzeroberfläche zum Durchsuchen, Herunterladen und Hochladen von S3-Daten in Ihre Anwendungen hinzufügen möchten, ohne Ihren eigenen Code schreiben zu müssen, um diese Benutzererfahrung zu unterstützen. Der Storage Browser führt in Ihrem Namen API-Aufrufe an S3 durch, und Sie können die Oberfläche an das Design und das Branding Ihrer vorhandenen Anwendung anpassen. 

Sie können Storage Browser in nur drei Schritten zu Ihrer Anwendung hinzufügen. Fügen Sie zunächst eine Referenz in Ihrer Webanwendung hinzu, um Storage Browser aufzurufen, wenn eine bestimmte Seite geladen wird. Dazu importieren Sie das NPM-Paket von Storage Browser und fügen Code zu Ihrer Anwendung hinzu, wie im S3-Benutzerhandbuch definiert. Richten Sie zweitens die Autorisierung ein, indem Sie Storage Browser so konfigurieren, dass er mit IAM Identity Center, Amazon Cognito oder Ihrem eigenen benutzerdefinierten Autorisierungsservice funktioniert. Drittens konfigurieren Sie ursprungsübergreifende Regeln für die gemeinsame Nutzung von Ressourcen und Inhaltssicherheitsrichtlinien für die Buckets, die Sie Benutzern im Storage Browser präsentieren möchten, wie im S3-Benutzerhandbuch definiert. Zu diesem Zeitpunkt können authentifizierte Endbenutzer, die die Seite in Ihrer Anwendung besuchen, die Sie für die Initialisierung von Storage Browser ausgewählt haben, mit Daten in S3 arbeiten, auf die sie Zugriff haben.

Um die von AWS verwaltete Autorisierung zu verwenden, müssen Sie zunächst ein IAM Identity Center konfigurieren und Berechtigungen für Ihre Benutzer und Gruppen in S3 Access Grants einrichten, wie im S3-Benutzerhandbuch zum Einrichten des Speicherbrowsers beschrieben. Anschließend verbinden Sie Ihre Anwendung mit Identity Center und konfigurieren Ihre Anwendung so, dass sie ein Identitätstoken von Ihrem externen Identitätsanbieter mit einem von Identity Center austauscht. Schließlich konfigurieren Sie Ihre Anwendung so, dass das Identity-Center-Token dem Storage Browser zur Verfügung gestellt wird, wenn ein Benutzer die Seite in Ihrer Anwendung öffnet, um auf Ihre Daten in S3 zuzugreifen. Als Alternative zu Identity Center können Sie Amazon Cognito verwenden, um Anmeldeinformationen für Storage Browser bereitzustellen, wenn ein Endbenutzer die Seite öffnet, die Sie auswählen, um eine Schnittstelle zu Ihren S3-Daten anzuzeigen. Um Cognito zu verwenden, richten Sie einen Identitätsspeicher in Cognito ein, verknüpfen ihn mit einer Authentifizierungsressource in Amplify, stellen die Ressource in Amplify bereit und verbinden dann Ihren Anwendungscode mit Ihrer Authentifizierungsressource, wie in der AWS-Amplify-Dokumentation definiert. Sobald Sie Storage Browser zu Ihrer Anwendung hinzugefügt haben, autorisiert er den Datenzugriff der Endbenutzer in Ihrem Namen auf der Grundlage der von Ihnen ausgewählten Autorisierungsmethode.

Um eine benutzerdefinierte Autorisierung anzuwenden, konfigurieren Sie Ihre Anwendung so, dass Storage Browser STS-Token zur Verfügung stellt, die den Benutzer autorisieren, mit S3-Datensätzen zu arbeiten, auf die er zugreifen darf. In der Sitzungsrichtlinie für jedes STS-Token müssen Sie die Zugriffsebenen des Endbenutzers für jeden S3-Datensatz angeben, auf den er zugreifen darf.

Sie können jeden Zugriff auf Ihre Daten, der über Storage Browser erfolgt, mithilfe von AWS-CloudTrail-Protokollen protokollieren. Sie können diese Protokolle für Buckets, die von Storage Browser verwendet werden, mit nur wenigen Klicks in der AWS-Managementkonsole aktivieren. Wenn Sie S3 Access Grants verwenden, protokolliert S3 Identitäten von Endbenutzern, die auf Ihre Daten zugreifen, in CloudTrail-Protokollen.

Mit Storage Browser können Ihre Endbenutzer Buckets und Präfixe durchsuchen, nach Objektmetadaten sortieren und anhand des Namens nach Präfixen und Objekten suchen. Endbenutzer können auch Objekte in S3 hochladen, herunterladen, kopieren und löschen. Eine Liste der Features, die wir evaluieren, finden Sie in der Storage-Browser-Roadmap.

Nein. Der Storage Browser unterstützt keine Präfix- oder Objektumbenennung.

Ja. Sie können ein benutzerdefiniertes Logo hinzufügen und die Primärfarben, den Abstand, die Ausrichtung, die Sprache und andere Aspekte der Storage-Browser-Oberfläche an das Design und das Branding Ihrer Anwendung anpassen. Eine vollständige Liste der Elemente, die Sie anpassen können, finden Sie im AWS-Amplify-Benutzerhandbuch.

Storage Browser für Amazon S3

Alles öffnen

Storage Browser für Amazon S3 ist eine Open-Source-Komponente, die Sie Ihren Webanwendungen hinzufügen können, um Ihren Endbenutzern, wie Kunden, Partnern und Mitarbeitern, eine einfache Benutzeroberfläche für in S3 gespeicherte Daten zu bieten. Mit Storage Browser für S3 können Sie autorisierten Endbenutzern Zugriff gewähren, um Daten in S3 direkt aus Ihren eigenen Anwendungen heraus zu durchsuchen, herunterzuladen, hochzuladen zu kopieren und zu löschen.

Sie sollten Storage Browser verwenden, wenn Sie eine einfache Benutzeroberfläche zum Durchsuchen, Herunterladen und Hochladen von S3-Daten in Ihre Anwendungen hinzufügen möchten, ohne Ihren eigenen Code schreiben zu müssen, um diese Benutzererfahrung zu unterstützen. Der Storage Browser führt in Ihrem Namen API-Aufrufe an S3 durch, und Sie können die Oberfläche an das Design und das Branding Ihrer vorhandenen Anwendung anpassen. 

Sie können Storage Browser in nur drei Schritten zu Ihrer Anwendung hinzufügen. Fügen Sie zunächst eine Referenz in Ihrer Webanwendung hinzu, um Storage Browser aufzurufen, wenn eine bestimmte Seite geladen wird. Dazu importieren Sie das NPM-Paket von Storage Browser und fügen Code zu Ihrer Anwendung hinzu, wie im S3-Benutzerhandbuch definiert. Richten Sie zweitens die Autorisierung ein, indem Sie Storage Browser so konfigurieren, dass er mit IAM Identity Center, Amazon Cognito oder Ihrem eigenen benutzerdefinierten Autorisierungsservice funktioniert. Drittens konfigurieren Sie ursprungsübergreifende Regeln für die gemeinsame Nutzung von Ressourcen und Inhaltssicherheitsrichtlinien für die Buckets, die Sie Benutzern im Storage Browser präsentieren möchten, wie im S3-Benutzerhandbuch definiert. Zu diesem Zeitpunkt können authentifizierte Endbenutzer, die die Seite in Ihrer Anwendung besuchen, die Sie für die Initialisierung von Storage Browser ausgewählt haben, mit Daten in S3 arbeiten, auf die sie Zugriff haben.

Um die von AWS verwaltete Autorisierung zu verwenden, müssen Sie zunächst ein IAM Identity Center konfigurieren und Berechtigungen für Ihre Benutzer und Gruppen in S3 Access Grants einrichten, wie im S3-Benutzerhandbuch zum Einrichten des Speicherbrowsers beschrieben. Anschließend verbinden Sie Ihre Anwendung mit Identity Center und konfigurieren Ihre Anwendung so, dass sie ein Identitätstoken von Ihrem externen Identitätsanbieter mit einem von Identity Center austauscht. Schließlich konfigurieren Sie Ihre Anwendung so, dass das Identity-Center-Token dem Storage Browser zur Verfügung gestellt wird, wenn ein Benutzer die Seite in Ihrer Anwendung öffnet, um auf Ihre Daten in S3 zuzugreifen. Als Alternative zu Identity Center können Sie Amazon Cognito verwenden, um Anmeldeinformationen für Storage Browser bereitzustellen, wenn ein Endbenutzer die Seite öffnet, die Sie auswählen, um eine Schnittstelle zu Ihren S3-Daten anzuzeigen. Um Cognito zu verwenden, richten Sie einen Identitätsspeicher in Cognito ein, verknüpfen ihn mit einer Authentifizierungsressource in Amplify, stellen die Ressource in Amplify bereit und verbinden dann Ihren Anwendungscode mit Ihrer Authentifizierungsressource, wie in der AWS-Amplify-Dokumentation definiert. Sobald Sie Storage Browser zu Ihrer Anwendung hinzugefügt haben, autorisiert er den Datenzugriff der Endbenutzer in Ihrem Namen auf der Grundlage der von Ihnen ausgewählten Autorisierungsmethode.

Um eine benutzerdefinierte Autorisierung anzuwenden, konfigurieren Sie Ihre Anwendung so, dass Storage Browser STS-Token zur Verfügung stellt, die den Benutzer autorisieren, mit S3-Datensätzen zu arbeiten, auf die er zugreifen darf. In der Sitzungsrichtlinie für jedes STS-Token müssen Sie die Zugriffsebenen des Endbenutzers für jeden S3-Datensatz angeben, auf den er zugreifen darf.

Sie können jeden Zugriff auf Ihre Daten, der über Storage Browser erfolgt, mithilfe von AWS-CloudTrail-Protokollen protokollieren. Sie können diese Protokolle für Buckets, die von Storage Browser verwendet werden, mit nur wenigen Klicks in der AWS-Managementkonsole aktivieren. Wenn Sie S3 Access Grants verwenden, protokolliert S3 Identitäten von Endbenutzern, die auf Ihre Daten zugreifen, in CloudTrail-Protokollen.

Mit Storage Browser können Ihre Endbenutzer Buckets und Präfixe durchsuchen, nach Objektmetadaten sortieren und anhand des Namens nach Präfixen und Objekten suchen. Endbenutzer können auch Objekte in S3 hochladen, herunterladen, kopieren und löschen. Eine Liste der Features, die wir evaluieren, finden Sie in der Storage-Browser-Roadmap.

Nein. Der Storage Browser unterstützt keine Präfix- oder Objektumbenennung.

Ja. Sie können ein benutzerdefiniertes Logo hinzufügen und die Primärfarben, den Abstand, die Ausrichtung, die Sprache und andere Aspekte der Storage-Browser-Oberfläche an das Design und das Branding Ihrer Anwendung anpassen. Eine vollständige Liste der Elemente, die Sie anpassen können, finden Sie im AWS-Amplify-Benutzerhandbuch.