ページトピック
- S3 全般についてのよくある質問
20
- AWS リージョン
6
- 請求
10
- S3 Tables
18
- S3 Vectors
12
- Amazon S3 と IPv6
4
- S3 イベント通知
5
- Amazon S3 Transfer Acceleration
12
- セキュリティ
14
- S3 Access Grants
19
- S3 Access Points
13
- 耐久性とデータ保護
23
- ストレージクラス
2
- S3 Intelligent-Tiering
15
- S3 Standard
2
- S3 Express One Zone
16
- S3 Standard-Infrequent Access (S3 Standard-IA)
8
- S3 One Zone-Infrequent Access (S3 One Zone-IA)
6
- Amazon S3 Glacier Instant Retrieval ストレージクラス
8
- Amazon S3 Glacier Flexible Retrieval ストレージクラス
10
- Amazon S3 Glacier Deep Archive
10
- S3 on Outposts
1
- ストレージ管理
46
- ストレージ分析と洞察
12
- すぐに活用できるクエリ
4
- レプリケーション
32
- データ処理
9
- データアクセス
20
- Storage Browser for Amazon S3
9
S3 全般についてのよくある質問
すべて開くテーブルバケットは、Apache Iceberg 形式を使用してテーブルを格納するためのものです。Amazon S3 Tables を使用すると、わずか数ステップでテーブルバケットを作成し、テーブルレベルの権限を設定できます。S3 テーブルバケットは、特に分析と機械学習のワークロードに最適化されています。Apache Iceberg のサポートが組み込まれているため、Amazon Athena、Amazon Redshift、Apache Spark などの一般的なクエリエンジンを使用して S3 の表形式のデータをクエリできます。S3 テーブルバケットを使用して、毎日の購入取引、ストリーミングセンサーデータ、広告インプレッションなどの表形式のデータを Amazon S3 の Iceberg テーブルとして保存し、分析機能を使用してそのデータを操作します。
ベクトルバケットは、ベクトルの保存とクエリのために特別に構築されています。ベクトルバケット内では、S3 オブジェクト API ではなく、専用のベクトル API を使用してベクトルデータを書き込み、意味論的意味と類似性に基づいてクエリします。バケットや IAM ポリシーなど、Amazon S3 の既存のアクセスコントロールメカニズムを使用して、ベクトルデータへのアクセスを制御できます。ベクトルバケットへのすべての書き込みは強力な一貫性を備えているため、最後に追加されたベクトルにすぐにアクセスできます。時間が経過する中で、ベクトルの書き込み、更新、削除が行われると、S3 ベクトルバケットは、データセットがスケールおよび進化しても、保存されているベクトルデータを自動的に最適化し、最適な料金パフォーマンスを実現します。
バケットは Amazon S3 に保存されているオブジェクト、テーブルのコンテナであり、バケットにはオブジェクトをいくつでも保存できます。汎用バケットは元の S3 バケットタイプであり、1 つの汎用バケットには、S3 Express One Zone を除くすべてのストレージクラスに保存されたオブジェクトを含めることができます。ほとんどのユースケースとアクセスパターンに推奨されます。S3 ディレクトリバケットでは、S3 Express One Zone ストレージクラスに保存されたオブジェクトのみを許可します。これにより、1 つのアベイラビリティーゾーン内でのデータ処理が高速になります。低レイテンシーのユースケースで推奨されます。 各 S3 ディレクトリバケットは、バケット内のディレクトリ数にかかわらず、1 秒あたり最大 200 万トランザクション (TPS) をサポートできます。 S3 テーブルバケットは、日々の購入取引、ストリーミングセンサーデータ、広告インプレッションなどの表形式のデータを S3 に保存するために設計されています。テーブルバケットを使用する場合、データはアイスバーグテーブルとして S3 に保存され、行レベルのトランザクション、クエリ可能なテーブルスナップショットなどの分析機能を使用してそのデータを操作できます。これらはすべて S3 によって管理されます。さらに、テーブルバケットは継続的にテーブルメンテナンスを実行し、データレイクがスケールしたり、進化したりしても、クエリの効率を継続的かつ自動的に最適化します。 S3 ベクトルバケットは、ベクトルの保存とクエリのために特別に構築されています。ベクトルバケット内では、専用のベクトル API を使用してベクトルデータを書き込み、意味論的意味と類似性に基づいてクエリします。バケットや IAM ポリシーなど、Amazon S3 の既存のアクセスコントロールメカニズムを使用して、ベクトルデータへのアクセスを制御できます。時間が経過する中で、ベクトルの書き込み、更新、削除が行われると、S3 ベクトルバケットは、データセットがスケールおよび進化しても、保存されているベクトルデータを自動的に最適化し、最適な料金パフォーマンスを実現します。
AWS リージョン
すべて開くAmazon S3 1 ゾーン – IA ストレージクラスは、単一の AZ 内でデータをレプリケーションします。S3 One Zone-IA に保存されたデータは、地震、火災、洪水などの災害に起因するアベイラビリティーゾーンの物理的な消失に対して回復力がありません。
請求
すべて開く2) 月の 16 日目: 1 日目の最初の PUT と同じキーを使用して、同一のバケット内で、5 GB (5,368,709,120 バイト) の PUT を実行します。
上記のオペレーションのストレージ費用を分析する際、5 GB のオブジェクトが 15 日目に書き込まれた時、初日の 4 GB のオブジェクトが、バケットから削除されるわけではないことにご注意ください。そうではなく、4 GB のオブジェクトは古いバージョンとして保存され、5 GB のオブジェクトがお客様のバケット内で最も新しく書き込まれたオブジェクトのバージョンとなります。月末: 合計バイト-時間使用量
[4,294,967,296 バイト x 31 日間 x (24 時間/日)] + [5,368,709,120 バイト x 16 日間 x (24 時間/日)] = 5,257,039,970,304 バイト-時間。合計 GB-月への変換
5,257,039,970,304 バイト-時間 x (1 GB/1,073,741,824 バイト) x (1 か月 / 744 時間) = 6.581 GB-月 コストは、Amazon S3 の料金ページに記載されているリージョンの現在の料金に基づいて計算されます。
S3 Tables
すべて開くS3 Tables は、構造化データを Apache Parquet、Avro、または ORC 形式で保存するための専用の S3 ストレージを提供します。テーブルバケット内では、テーブルをファーストクラスのリソースとして直接 S3 に作成できます。これらのテーブルは、ID ベースまたはリソースベースのポリシーで定義されたテーブルレベルの許可で保護でき、Apache Iceberg 標準をサポートするアプリケーションまたはツールによってアクセスできます。テーブルバケットにテーブルを作成すると、S3 内の基盤となるデータは Parquet、Avro、または ORC ファイルとして保存されます。次に、S3 は Apache Iceberg 標準を使用して、そのデータをアプリケーションでクエリできるようにするために必要なメタデータを保存します。S3 Tables には、テーブルバケット内のテーブルの Iceberg メタデータを操作および更新するためにクエリエンジンによって使用されるクライアントライブラリが含まれています。このライブラリは、テーブルオペレーション用の更新された S3 API と連携して、複数のクライアントが安全に、データをテーブルに読み書きできるようにします。時間が経過する中で、S3 は、オブジェクトを書き換える (あるいは「圧縮」する) ことによって、基盤となる 、Parquet、Avro、または ORC データを自動的に最適化します。圧縮により、S3 上のデータが最適化され、クエリのパフォーマンスが改善することができます。
S3 Tables は、S3 外部のインフラストラクチャを立ち上げなくても、ほんの数ステップで使い始めることができます。まず、S3 コンソールでテーブルバケットを作成します。コンソールを通じて最初のテーブルバケットを作成すると、AWS 分析サービスとの統合が自動的に行われ、S3 はアカウントとリージョン内のすべてのテーブルバケットとテーブルを AWS Glue データカタログに自動的に入力できるようになります。この後、Amazon Athena、EMR、Redshift などの AWS クエリエンジンから S3 Tables にアクセスできるようになります。次に、S3 コンソールから Amazon Athena を使用してテーブルを作成するためにクリックできます。Athena にアクセスすると、新しいテーブルへの入力とクエリをすぐに開始できます。
あるいは、AWS Glue データカタログを通じて Iceberg REST カタログエンドポイントを使用して S3 Tables にアクセスすることもできます。これにより、すべてのテーブルリソースを含むデータ資産全体を検出できます。また、個々のテーブルバケットエンドポイントに直接接続して、そのバケット内のすべての S3 Tables リソースを検出することもできます。これにより、Apache Iceberg REST カタログ仕様をサポートする任意のアプリケーションまたはクエリエンジンで S3 Tables を使用できるようになります。
Iceberg テーブルを汎用 Amazon S3 バケットに保存する場合と比較して、クエリパフォーマンスは最大 3 倍速く、1 秒あたりのトランザクション数 (TPS) は最大 10 倍高くなることが期待できます。これは、テーブルバケットがテーブルの基になる Parquet、Avro、または ORC データを自動的に圧縮してクエリのパフォーマンスを最適化し、専用ストレージがデフォルトで最大 10 倍の TPS をサポートするためです。
テーブルバケットでは、リソースポリシーをバケット全体または個々のテーブルに適用できます。テーブルバケットポリシーは、PutTablePolicy と PutTableBucketPolicy API を使用して適用できます。テーブルレベルのポリシーを使用すると、個々の Parquet、Avro、または ORC ファイルの物理的な場所を理解しなくても、関連する論理テーブルに基づいてテーブルバケット内のテーブルに対する許可を管理できます。さらに、S3 ブロックパブリックアクセスは常にテーブルバケットに適用されます。
テーブルバケットは、Parquet、Avro、または ORC データを含む Apache Iceberg テーブル形式をサポートしています。
S3 Vectors
すべて開くAmazon S3 の外部にインフラストラクチャをセットアップすることなく、4 つのシンプルなステップで S3 Vectors の使用を開始できます。まず、CreateVectorBucket API または S3 コンソールを通じて、特定の AWS リージョンにベクトルバケットを作成します。次に、ベクトルデータをベクトルバケットに整理するために、CreateIndex API または S3 コンソールを使用してベクトルインデックスを作成します。ベクトルインデックスを作成するときは、距離メトリクス (コサインまたはユークリッド) とベクトルの次元数 (最大 4092) を指定します。最も正確な結果を得るには、埋め込みモデルによって推奨される距離メトリクスを選択してください。3 番目に、PutVectors API を使用してベクトルインデックスにベクトルデータを追加します。オプションで、各ベクトルに key-value ペアとしてメタデータをアタッチし、クエリをフィルタリングできます。4 番目に、QueryVectors API を使用して類似性クエリを実行し、検索するベクトルと、最も類似する結果のうち、返される数を指定します。
ベクトルインデックスは、S3 コンソールまたは CreateIndex API を使用して作成できます。インデックス作成時に、ベクトルバケット、インデックス、距離メトリクス、ディメンションを指定し、さらに、類似性クエリ中にフィルタリングから除外するメタデータフィールドのリストをオプションで指定します。例えば、ベクトルに関連付けられたデータを純粋に参照用に保存する場合は、これらをフィルタリング不可のメタデータフィールドとして指定できます。作成時に、各インデックスには、一意の Amazon リソースネーム (ARN) が割り当てられます。その後、書き込みまたはクエリリクエストを実行する際、ベクトルバケット内のベクトルインデックスにそのリクエストを送信します。
PutVectors API を使用して、ベクトルインデックスにベクトルを追加できます。各ベクトルはキーで構成され、このキーによってベクトルインデックス内の各ベクトルが一意に識別されます (例: プログラムを使用して UUID を生成できます)。書き込みスループットを最大化するには、大きなバッチ (最大リクエストサイズまで) でベクトルを挿入することをお勧めします。さらに、メタデータ (例: 年、著者、ジャンル、場所) を key-value ペアとして各ベクトルにアタッチできます。メタデータを含めると、ベクトルインデックスの作成時にフィルタリング不可のメタデータとして指定しない限り、デフォルトではすべてのフィールドを類似性クエリにおけるフィルターとして使用できます。非構造化データの新しいベクトル埋め込みを生成するために、Amazon Bedrock の InvokeModel API を使用し、使用する埋め込みモデルのモデル ID を指定できます。
GetVectors API でベクトルキーを使用して、ベクトルとそれに関連付けられたメタデータを検索して返すことができます。
QueryVectors API を使用して類似性クエリを実行し、クエリベクトル、返される関連結果の数 (上位 k 個の近傍)、インデックス ARN を指定します。クエリベクトルを生成する際は、ベクトルインデックスに保存される初期ベクトルの生成に使用したのと同じ埋め込みモデルを使用すべきです。例えば、Amazon Bedrock で Amazon Titan Text Embeddings v2 を使用してドキュメントの埋め込みを生成する場合は、同じモデルを使用して質問をベクトルに変換することをお勧めします。さらに、クエリでメタデータフィルターを使用して、フィルターに一致するベクトルを検索できます。類似性クエリを実行すると、デフォルトではベクトルキーが返されます。オプションで、距離とメタデータをレスポンスに含めることができます。
S3 Vectors は、耐久性と可用性に優れたベクトルストレージを提供します。S3 Vectors に書き込まれたデータは、イレブンナインのデータ耐久性を実現するよう設計された S3 に保存されます。S3 Vectorsは 99.99% の可用性と 99.9% の可用性SLAを実現するように設計されています。
S3 Vectors は、1 秒未満のクエリレイテンシー時間を実現します。Amazon S3 の伸縮自在なスループットを使用して、数百万のベクトルの検索を処理し、頻度の低いクエリワークロードに最適です。
ベクトル埋め込みについて類似性クエリを実行する場合、埋め込みモデル、ベクトルデータセットのサイズ (ベクトルの数と次元)、クエリの分布など、いくつかの要因が平均リコールに影響を及ぼす可能性があります。S3 Vectors は、ほとんどのデータセットで 90% を超える平均リコールを実現します。平均リコールはクエリ結果の質を測定します。90% は、インデックスに保存されている、クエリベクトルに最も近いグラウンドトゥルースベクトルの 90% がレスポンスに含まれていることを意味します。ただし、実際のパフォーマンスは具体的なユースケースによって異なる場合があるため、代表的なデータとクエリを使用して独自のテストを実施し、S3 ベクトルインデックスがリコール要件を満たしていることを検証することをお勧めします。
ListVectors API を使用すると、ベクトルインデックス内のベクトルのリストを確認できます。この API は、一度に最大 1,000 個のベクトルを返します。レスポンスが切り詰められている場合は、そのインジケーターも表示されます。レスポンスには、最終変更日、ベクトルキー、ベクトルデータ、メタデータが含まれます。また、ListVectors API を使用すると、指定したベクトルインデックスからベクトルデータを簡単にエクスポートできます。ListVectors オペレーションは強力な一貫性を備えています。そのため、書き込み後、変更が反映されたベクトルをすぐにリスト表示できます。
S3 Vectors では、ストレージと、該当する書き込みおよび読み取りリクエスト (例: ベクトルの挿入、ベクトルインデックス内のベクトルに対するクエリオペレーションの実行) についての料金をお支払いいただきます。料金の詳細については、S3 の料金ページをご覧ください。
はい。Bedrock コンソールまたは API を通じて Bedrock ナレッジベースを作成する際に、既存の S3 Vectors インデックスをベクトルストアとして設定することで、RAG ユースケースのベクトルストレージコストを削減できます。Bedrock にベクトルインデックスの作成と管理を任せたい場合は、Bedrock コンソールのクイック作成ワークフローを使用してください。さらに、Amazon SageMaker Unified Studio で、新しい S3 ベクトルインデックスを RAG ワークフローのベクトルストアとして設定することもできます。
はい。S3 Vectors を Amazon OpenSearch Service で使用するには 2 つの方法があります。1 つ目の方法として、S3 をご利用のお客様は、S3 または OpenSearch コンソールのいずれかを使用して、新しいサーバーレスコレクションとして、すべてのベクトルを S3 ベクトルインデックスから OpenSearch Serverless にエクスポートできます。S3 Vectors を使用してネイティブに構築する場合、リアルタイムクエリが必要なワークロードのために OpenSearch Serverless を選択的に使用できるという恩恵を享受できます。2 つ目の方法として、マネージド OpenSearch をご利用のお客様は、1 秒未満のレイテンシーでクエリ可能なベクトルデータのエンジンとして S3 Vectors を選択できるようになりました。その後、OpenSearch は自動的に S3 Vectors をベクトルの基盤エンジンとして使用し、OpenSearch API を使用してベクトルデータを更新および検索できます。アプリケーションに変更を加えることなく、S3 Vectors のコストメリットを享受できます。
Amazon S3 と IPv6
すべて開くS3 イベント通知
すべて開くAmazon S3 Transfer Acceleration
すべて開くAWS 実装の詳細については、この Storage Gateway のよくある質問のファイルセクションにアクセスしてください。
セキュリティ
すべて開くAWS のセキュリティの詳細については、AWS セキュリティページをご覧ください。S3 のセキュリティ情報については、S3 セキュリティページおよび S3 セキュリティベストプラクティスガイドにアクセスしてください。
デフォルトでは、オブジェクトデータとオブジェクトメタデータは、オブジェクトを配置した単一の専有ローカルゾーン内に留まります。バケット名、キャパシティメトリックス、CloudTrail ログ、CloudWatch メトリックス、AWS キー管理サービス (KMS) のカスタマー管理キー、ID とアクセス管理 (IAM) ポリシーを含むバケット管理およびテレメトリデータは、親 AWS リージョンに保存されます。オプションで、S3 バッチオペレーションなどの他のバケット管理機能では、バケット名とオブジェクト名を含む管理メタデータを親 AWS リージョンに保存します。
AWS VPC マネジメントコンソール、AWS コマンドラインインターフェイス (AWS CLI)、AWS SDK、または API を使用して、インターフェイス VPC エンドポイントを作成できます。詳細については、ドキュメントにアクセスしてください。
詳細については、IAM Access Analyzer ドキュメントにアクセスしてください。
S3 Access Grants
すべて開くS3 Access Points
すべて開くAmazon S3 Access Points は、S3 と連動するアプリケーションまたは AWS サービスのデータアクセス管理を簡素化するエンドポイントです。S3 Access Points は、S3 バケットおよび Amazon FSx for OpenZFS ファイルシステムで動作します。各アプリケーションまたはユーザーに合わせてカスタマイズされた名前と許可を持つアクセスポイントを作成することで、さまざまなアプリケーションまたはユーザーがデータにアクセスする方法を制御および簡素化できます。
S3 バケットで S3 Access Points を使用すると、作成、読み取り、追跡、監査が必要な何百もの異なる許可ルールを含む単一の複雑なバケットポリシーを管理する必要がなくなります。代わりに、バケットごとに数百のアクセスポイントを作成し、それぞれがバケットへのカスタマイズされたパスを提供し、アクセスポイントを介して行われるすべてのリクエストに対して特定の許可とネットワーク制御を適用する独自のホスト名とアクセスポリシーを設定できます。
FSx for OpenZFS で S3 Access Points を使用すると、データが S3 に存在しているかのように、S3 API を使用して FSx データにアクセスできます。この機能により、FSx for OpenZFS 内のファイルデータは、FSx for OpenZFS ファイルシステムに保存したまま、S3 と連携するさまざまな人工知能、機械学習、分析のサービスおよびアプリケーションで使用できるようになります。
S3 Access Points を使用すると、データを S3 に移動することなく、S3 API を使用して Amazon FSx for OpenZFS のファイルデータにアクセスできます。FSx for OpenZFS ファイルシステムにアタッチされた S3 Access Points は、S3 バケットにアタッチされた S3 Access Points と同様に機能し、アクセスポリシーによってアクセスが制御された S3 経由のデータアクセスを提供します。データは引き続き FSx for OpenZFS ファイルシステムまたは S3 バケットのいずれかに保存されます。例えば、S3 Access Points を FSx for OpenZFS ファイルシステムにアタッチすると、お客様は、S3 と連携する生成 AI、機械学習、分析サービス、およびアプリケーションでそのアクセスポイントを使用して、FSx for OpenZFS データにアクセスできます。
耐久性とデータ保護
すべて開くAmazon S3 は、Content-MD5 チェックサム、セキュアハッシュアルゴリズム (SHA)、および周期的な冗長性チェック (CRC) を組み合わせて、データの整合性を検証します。Amazon S3 は、保管中のデータにこれらのチェックサムを実行し、冗長データを用いて相違の修復を行います。さらに、最新の AWS SDK では、すべてのアップロードの効率的な CRC ベースのチェックサムが自動的に計算されます。 S3 はそのチェックサムを個別に検証し、パブリックインターネット経由での転送中にデータの整合性が維持されていたことを確認した後にのみオブジェクトを受け入れます。事前に計算されたチェックサムを提供しないバージョンの SDK を使用してオブジェクトをアップロードする場合、S3 はマルチパートアップロードの場合でも、オブジェクト全体の CRC ベースのチェックサムを計算します。チェックサムはオブジェクトメタデータに保存されるため、いつでもデータの整合性を検証できます。アップロードおよびダウンロードリクエストのデータ整合性チェックをサポートする 5 つのチェックサムアルゴリズムから選択できます。アプリケーションのニーズに応じて、SHA-1、SHA-256、CRC32、CRC32C、または CRC64NVME チェックサムアルゴリズムを選択できます。S3 からデータを保存または取得するときにチェックサムを自動的に計算および検証でき、HeadObject S3 API、GetObjectAttributes S3 API または S3 Inventory レポートを使用していつでもチェックサム情報にアクセスできます。データを S3 にストリーミングするときにチェックサムを計算すると、2 つの連続した操作としてではなく、1 回のパスでデータの検証と送信の両方ができるため、時間を節約できます。データ検証にチェックサムを使用することは、データの耐久性のベストプラクティスであり、これらの機能により、パフォーマンスが向上し、そのためのコストが削減されます。
2) 月の 16 日目: 1 日目の最初の PUT と同じキーを使用して、同一のバケット内で、5 GB (5,368,709,120 バイト) の PUT を実行します。
上記のオペレーションのストレージ費用を分析する際、5 GB のオブジェクトが 15 日目に書き込まれた時、初日の 4 GB のオブジェクトが、バケットから削除されるわけではないことにご注意ください。そうではなく、4 GB のオブジェクトは古いバージョンとして保存され、5 GB のオブジェクトがお客様のバケット内で最も新しく書き込まれたオブジェクトのバージョンとなります。月末: 合計バイト-時間使用量
[4,294,967,296 バイト x 31 日間 x (24 時間/日)] + [5,368,709,120 バイト x 16 日間 x (24 時間/日)] = 5,257,039,970,304 バイト-時間。合計 GB-月への変換
5,257,039,970,304 バイト-時間 x (1 GB/1,073,741,824 バイト) x (1 か月 / 744 時間) = 6.581 GB-月 コストは、Amazon S3 の料金ページに記載されているリージョンの現在の料金に基づいて計算されます。
詳細については、S3 Object Lock のユーザーガイドにアクセスしてください。
S3 オブジェクトロックは、2 つのうちいずれかのモードで設定できます。ガバナンスモードでデプロイされると、特定の IAM アクセス権限を持つ AWS アカウントはオブジェクトバージョンから WORM 保護を削除できます。規制を遵守するためにより強力な不変性が必要な場合は、コンプライアンスモードを使用することができます。コンプライアンスモードでは、ルートアカウントを含め、どのユーザーも、WORM 保護を無効にすることはできません。
いいえ。S3 Object Lock を有効にすると、バケットの S3 Object Lock または S3 バージョニングを無効にすることはできません。
S3 Object Lock が有効になっているバケットから S3 レプリケーションでオブジェクトのレプリケーションを開始するには、同じまたは異なる AWS リージョンで、同じまたは異なる AWS アカウントにあるレプリケート先バケットを指定することで、ソースバケットにレプリケーション設定を追加できます。すべてのオブジェクトを S3 バケットレベルで複製するか、共有プレフィックスレベルでオブジェクトをフィルタリングするか、S3 オブジェクトタグを使用してオブジェクトレベルでオブジェクトをフィルタリングするかを選択できます。また、レプリケーション操作を実行するために必要な権限を持つ AWS ID およびアクセス管理 (IAM) ロールを指定する必要があります。S3 コンソール、AWS API、AWS CLI、AWS SDK、または AWS CloudFormation を使用してレプリケーションを有効にできます。また、ソースバケットとターゲットバケットの両方で S3 バージョニングを有効にする必要があります。さらに、S3 Object Lock が有効なバケットからオブジェクトを複製するには、レプリケート先バケットでも S3 オブジェクトロックが有効になっている必要があります。詳細については、S3 レプリケーションの設定と S3 レプリケーションでの S3 Object Lock の使用に関するドキュメントをご覧ください。
はい。S3 Object Lock が有効なバケットからオブジェクトをレプリケートするには、レプリケーションのセットアップに使用する IAM ロールのソースバケットに、s3:GetObjectRetention および s3:GetObjectLegalHold という 2 つの新しい許可を付与する必要があります。または、IAM ロールに s3: Get* 権限がある場合は、要件を満たしています。詳細については、S3 レプリケーションでの S3 Object Lock の使用に関するドキュメントをご覧ください。
いいえ。S3 同一リージョンレプリケーション (S3 SRR)、S3 クロスリージョンレプリケーション (S3 CRR)、進行状況を追跡するための S3 レプリケーションメトリクス、S3 Replication Time Control (S3 RTC)、S3 バッチレプリケーションなど、S3 レプリケーションのすべての機能は、S3 Object Lock バケットからのレプリケーション中にサポートされます。
S3 Batch Replication を使用して、S3 Object Lock が有効なバケットから既存のオブジェクトをレプリケートできます。既存のオブジェクトの複製の詳細については、S3 Batch Replication に関するドキュメントをご覧ください。
ストレージクラス
すべて開くワークロードに最適な S3 ストレージクラスを決定する際には、データのアクセスパターンと保持時間を考慮し、データの存続期間におけるトータルコストが最も低くなるように最適化します。多くのワークロードは、変化する (ユーザー生成コンテンツ)、予測できない (分析、データレイク)、または未知の (新しいアプリケーション) アクセスパターンを持っています。そのため、S3 Intelligent-Tiering をデフォルトのストレージクラスとして使用し、自動的にストレージコストを節約する必要があるのです。データのアクセスパターンがわかっていれば、このガイダンスに従うことができます。S3 Standard ストレージクラスは、頻繁にアクセスするデータに最適です。月に 1 回以上データにアクセスする場合は、これが最適です。S3 Standard-Infrequent Access は、少なくとも 1 か月間保持し、1~2 か月に 1 回アクセスするデータに最適です。Amazon S3 Glacier ストレージクラスは、データアーカイブ専用に設計されており、クラウドで最高のパフォーマンス、最高の検索の柔軟性、最低のコストのアーカイブストレージを提供します。さまざまなアクセスパターンやストレージ期間に最適化された 3 種類のアーカイブストレージクラスから選択できるようになりました。医療画像、ニュースメディアアセット、ゲノミクスデータなど、すぐにアクセスする必要のあるアーカイブデータであれば、ミリ秒レベルの取得時間で最低コストのストレージを提供するアーカイブストレージクラスである S3 Glacier Instant Retrieval ストレージクラスを選択できます。バックアップやディザスタリカバリのユースケースなど、すぐにアクセスする必要はないものの、大量のデータを無料で取得できる柔軟性が必要なアーカイブデータであれば、S3 Glacier Flexible Retrieval を選択すれば、数分での検索、または 5〜12 時間での無料での一括検索が可能です。コンプライアンスアーカイブやデジタルメディア保存などの長寿命のアーカイブストレージにかかるコストをさらに節約するには、S3 Glacier Deep Archive をお選びください。12 時間以内にデータを取得でき、クラウドで最も低コストのストレージです。これらのストレージクラスはすべて、複数のデバイスと AWS リージョン内の物理的に分離された AWS アベイラビリティーゾーンにデータを冗長的に保存することで、マルチアベイラビリティーゾーン (AZ) の耐障害性を提供します。
耐障害性の要件が低いデータの場合は、S3 One Zone-Infrequent Access のようなシングル AZ ストレージクラスを選択することでコストを削減できます。既存の AWS リージョンでは満たせないデータレジデンシーや分離の要件がある場合は、AWS 専有ローカルゾーン用の S3 ストレージクラスまたは Outposts ラック用の S3 ストレージクラスを使用して、特定の境界にデータを保存できます。
S3 Intelligent-Tiering
すべて開くS3 Intelligent-Tiering には最小オブジェクトサイズはありませんが、128 KB 未満のオブジェクトは自動階層化の対象にはなりません。これらの小さいオブジェクトは S3 Intelligent-Tiering に保存できますが、常に高頻度アクセス階層料金で課金され、モニタリング料金やオートメーション料金は発生しません。新しく作成されたデータのデフォルトのストレージクラスとして S3 Intelligent-Tiering を標準とする場合は、S3 PUT API リクエストヘッダーで INTELLIGENT-TIERING を指定してアプリケーションを変更できます。S3 Intelligent-Tiering は 99.9% の可用性と 99.999999999% の耐久性を実現するよう設計されており、S3 Standard と同等の低レイテンシーかつ高スループットのパフォーマンスを自動的に提供します。AWS Cost Explorer を使用して、アーカイブインスタントアクセスティアからの追加の節約を測定できます。
S3 Intelligent-Tiering は、わずかなモニタリングおよびオートメーション費用で、低レイテンシーおよび高スループットのアクセス階層を介してアクセスパターンをモニタリングし、オブジェクトを自動的に移動させられます。また、2 つのオプトイン非同期アーカイブアクセス階層も用意されており、非同期にアクセスできるデータに対して、お客様にクラウドで最も低いストレージコストを実現します。
S3 Intelligent-Tiering には請求可能な最小オブジェクトサイズはありませんが、128 KB 未満のオブジェクトは自動階層化の対象にはなりません。 これらの小さなオブジェクトはモニタリングされず、常に高頻度アクセス階層料金で課金され、モニタリング料金やオートメーション料金は発生しません。S3 Intelligent-Tiering のアーカイブアクセス階層またはディープアーカイブアクセス階層にアーカイブされたオブジェクトごとに、Amazon S3 はオブジェクトの名前とその他のメタデータに 8 KB のストレージを使用し (S3 Standard ストレージレートで請求)、インデックスと関連メタデータに 32 KB のストレージを使用します (S3 Glacier Flexible Retrieval および S3 Glacier Deep Archive のストレージ料金で請求)。
S3 Standard
すべて開くS3 Express One Zone
すべて開くディレクトリバケットを作成した後、インポートオプションを使用して S3 コンソール経由で同じ AWS リージョン内のデータを S3 Express One Zone ストレージクラスにインポートできます。インポートでは、コピーするオブジェクトをすべて個別に指定しなくても、データをインポートするプレフィックスまたはバケットを選択できるため、S3 ディレクトリバケットへのデータのコピーが簡単になります。S3 バッチオペレーションは、選択したプレフィックスバケットまたは汎用バケットにオブジェクトをコピーします。S3 バッチオペレーションジョブの詳細ページからインポートコピージョブの進行状況を監視できます。
3 か月以上リクエストアクティビティがない S3 ディレクトリバケットは、非アクティブ状態に移行します。非アクティブな状態では、ディレクトリバケットは一時的に読み取りや書き込みができなくなります。非アクティブなバケットには、すべてのストレージ、オブジェクトメタデータ、バケットメタデータが保持されます。非アクティブなバケットには既存のストレージ料金が適用されます。非アクティブなバケットへのアクセスリクエストにより、バケットは通常数分以内にアクティブな状態に移行します。この移行期間中、読み取りと書き込みを行うと 503 SlowDown エラーコードが返されます。
S3 Express One Zone に 10 GB のデータを 30 日間保存し、合計で 100 万回の書き込みと 900 万回の読み取りを行い、10 KB のリクエストサイズで Athena でアクセスしたとします。その後、30 日の終わりまでに 1,000,000 個のファイルを削除します。バケットが米国東部 (バージニア北部) リージョンにあると仮定した場合、リクエスト料金は以下のように計算されます: ストレージの料金
バイト-時間の合計使用量 =10 GB-月
合計ストレージコスト = 10 GB-月 x 0.11 USD = 1.10 USD リクエスト料金
1,000,000 件の PUT リクエスト: 1,000,000 件のリクエスト x 0.00113 USD/1,000 = 1.13 USD
9,000,000 件の GET リクエスト: 9,000,000 件のリクエスト x 0.00003 USD/1,000 = 0.27 USD
1,000,000 件の DELETE リクエスト = 1,000,000 件のリクエスト x 0.00 USD (無料) = 0 USD データアップロード料金: 10 KB / 1,048,576 x 1,000,000 x 0.0032 USD = 0.03 USD
データ取得料金: 10 KB / 1,048,576 x 9,000,000 x 0.0006 USD = 0.05 USD
合計料金 = 1.10 USD + 1.13 USD + 0.27 USD + 0.03 USD + 0.05 USD = 2.58 USD 例 2:
毎日 8 時間のワークロードのために、機械学習トレーニング用に 10 TB のデータを保存し、その後にそのデータを削除したとします。8 時間のワークロードでは、2 MB のリクエストサイズに対して 5,242,880 回の書き込みと 10,485,760 回の読み取りを行います。これを 30 日間 (1 か月) 行います。ストレージ料金
バイト-時間の合計使用量 = [10,995,116,277,760 バイト x 30 日間 x (8 時間/日)] = 2,638,827,906,662,400 バイト-時間 = 3303.77 GB-月
合計ストレージコスト = 3303.77 GB x 0.11 USD = 363.41 USD リクエスト料金
5,242,880 件の PUT リクエスト/日: 5,242,880 件のリクエスト x 30 x 0.00113 USD/1,000 = 177.73 USD
10,485,760 件の GET リクエスト/日: 10,485,760 件のリクエスト x 30 x 0.00003 USD/1,000 = 9.44 USD
5,242,880 件の DELETE リクエスト/日: 5,242,880 件のリクエスト x 0.00 USD (無料) = 0 USD データアップロード料金: 2MB/1024 x 5,242,880 x 30 x 0.0032 USD = 983.04 USD
データ取得料金: 2MB/1,024 x 10,485,760 x 30 x 0.0006 USD = 368.64 USD
合計料金 = 363.41 USD + 177.73 USD + 9.44 USD + 983.04 USD + 368.64 USD = 1,902.26 USD
S3 Standard-Infrequent Access (S3 Standard-IA)
すべて開くS3 One Zone-Infrequent Access (S3 One Zone-IA)
すべて開くAmazon S3 Glacier Instant Retrieval ストレージクラス
すべて開くAmazon S3 Glacier Flexible Retrieval ストレージクラス
すべて開く注: S3 Glacier Flexible Retrieval は、オリジナルのダイレクト Glacier API や Amazon S3 Glacier マネジメントコンソールからも利用できます。ライフサイクル管理、S3 Replication、S3 ストレージレンズなどを含む完全な S3 機能セットへのアクセスを含む強化されたエクスペリエンスのためには、S3 API と S3 マネジメントコンソールを使用して S3 Glacier 機能を使用することをお勧めします。
S3 Glacier ストレージクラスプロビジョンドキャパシティーユニットを使用すると、所定の月の固定前払い料金を支払うことで、S3 Glacier Flexible Retrieval からの迅速な取得のための取得キャパシティーの可用性を確保できます。月ごとに、2 個のプロビジョンドキャパシティーユニットを購入して、取得できるデータの量を増やすことができます。容量単位ごとに、少なくとも 3 回の迅速取り出しを 5 分ごとに実行できることが保証され、最大 150 MB/秒の取り出しスループットが得られます。ワークロードが、データのサブセットに数分でアクセスできる高い信頼性と予測可能性を必要とする場合は、プロビジョンド取得キャパシティーを購入する必要があります。プロビジョンドキャパシティーがないと、需要が高い時期に迅速な取得ができない場合があります。いかなる状況下でも迅速な取得へのアクセスが必要な場合は、プロビジョンド取得キャパシティーの購入をお勧めします。
プロビジョンドキャパシティーは、Amazon S3 コンソール、プロビジョンドキャパシティーの購入、REST API、AWS SDK、または AWS CLI を使用して購入できます。プロビジョンドキャパシティーユニットは、購入した日時 (開始日) から 1 か月間持続します。ユニットの有効期限は、開始日からほぼ秒単位でちょうど 1 か月後になります。プロビジョンドキャパシティの料金に関する情報については、Amazon S3 の料金をご覧ください。
オブジェクト 1 つあたり 1.000032 GB x 100,000 個のオブジェクト = 100,003.2 GB の S3 Glacier ストレージ。
オブジェクト 1 つあたり 0.000008 GB x 100,000 個のオブジェクト = 0.8 GB の S3 Standard ストレージ。
この料金は、Amazon S3 の料金のページにある AWS リージョンの現在の料金に基づいて計算されます。追加の Amazon S3 の料金の例については、S3 の請求に関するよくある質問をご覧いただくか、AWS 料金見積りツールを使用してください。
また、S3 Glacier Flexible Retrieval では、アーカイブされた各オブジェクトに対して 40 KB の追加メタデータが必要です。これには、データの特定と取り出しに必要な S3 Glacier Flexible Retrieval の料金で課金される 32 KB のメタデータが含まれます。そして、S3 Glacier Flexible Retrieval にアーカイブされたオブジェクトのユーザー定義名とメタデータを維持するために必要な S3 Standard レートで請求される追加の 8 KB のデータです。これにより、S3 LIST API または S3 インベントリレポートを使用して、すべての S3 オブジェクトのリアルタイムリストを取得できます。Amazon S3 Glacier Flexible Retrieval の料金情報については、Amazon S3 の料金のページをご覧ください。
Amazon S3 Glacier Deep Archive
すべて開くAWS Snowball を使用してデータを移行することもできます。Snowball は、安全な転送のために設計された物理ストレージデバイスを使用して、AWS との間のテラバイトからペタバイト規模のデータの移動を加速します。Snowball を使用すると、ネットワークのコストが高い、転送時間が長い、セキュリティに懸念があるといった、大規模なデータ転送で直面する可能性のある課題を解決できます。最後に、AWS Direct Connect を利用して、自社の施設から AWS への専用ネットワーク接続を確立できます。多くの場合、Direct Connect によってネットワークのコストを削減し、帯域幅スループットを向上し、インターネットベースの接続よりも一貫したネットワーク体験を実現できます。
S3 on Outposts
すべて開くストレージ管理
すべて開く詳細については、S3 オブジェクトタグのユーザーガイドにアクセスしてください。
SQL を使用して S3 オブジェクトに関する情報をクエリし、生成 AI、分析、その他のユースケースで特定のデータセットを迅速に特定したい場合は、Amazon S3 Metadata を使用すべきです。S3 Metadata はメタデータをほぼリアルタイムで最新の状態に維持するため、Iceberg 互換クライアントを使用して SQL クエリを実行し、オブジェクトのメタデータでオブジェクトを検索できます。例えば、SQL クエリを使用して、バケット全体で過去 30 日間に追加されたオブジェクトなど、特定のフィルターに一致するオブジェクトのリストを返すことができます。
S3 Metadata は、バケットにアップロードされたオブジェクトに関する追加情報を提供するメタデータを自動生成し、そのメタデータを読み取り専用テーブルでクエリ可能にするように設計されています。これらのメタデータテーブルは、Apache Iceberg 上に構築された Amazon S3 Tables に保存され、S3 内で表形式データを保存およびクエリするための管理された方法を提供します。S3 Metadata は、オブジェクトサイズなどのシステムレベルのメタデータ、オブジェクトのアップロード中のタグやユーザー定義メタデータなどのカスタムメタデータ、リクエストを送信した IP アドレスなどのイベントメタデータを作成および維持します。バケット内のデータが変更されると、S3 Metadata は、ほぼリアルタイムで更新され、最新の変更が反映されます。その後、Amazon Athena、Amazon QuickSight、Apache Spark などのさまざまな AWS 分析サービスやオープンソースツール (Iceberg 互換) を使用してメタデータテーブルをクエリできます。
S3 コンソールで数回クリックするだけで S3 Metadata を使い始めることができます。S3 Metadata を有効にする汎用 S3 バケットを選択するだけで、S3 はバケット内のデータを分析し、すべてのオブジェクトのメタデータを含むフルマネージド Apache Iceberg テーブルを構築します。Apache Iceberg をサポートする任意のクエリエンジンまたはツールを使用して、数分以内にメタデータのクエリを開始できます。
S3 Metadata テーブルは、AWS アカウントの AWS マネージドテーブルバケット (aws-s3) に保存されます。テーブルは読み取り専用であり、メタデータの書き込み、更新、削除の許可は S3 にのみ付与されます。
S3 Metadata は、アカウント内の 2 つのマネージドテーブル (ジャーナルテーブルとライブインベントリテーブル) にメタデータを保存します。
S3 Metadata ジャーナルテーブルは、バケット内で行われた変更のビューを提供します。汎用 S3 バケットにオブジェクトが追加、更新、削除されると、対応する変更がジャーナルテーブルにほぼリアルタイムで反映されます。ジャーナルテーブルは、アプリケーションの動作を理解し、データセットに加えられた変更を特定するのに役立ちます。例えば、ジャーナルテーブルについて SQL クエリを記述して、過去 30 日間に追加されたオブジェクト、アクティブなリクエスタによって追加されたオブジェクト、過去 1 週間にメタデータが変更されたオブジェクトなど、フィルターに一致する S3 オブジェクトを見つけることができます。
S3 Metadata ライブインベントリテーブルには、バケット内のすべてのオブジェクトの完全なリストが含まれます。ライブインベントリテーブルは 1 時間ごとに更新され、S3 がオブジェクトについて認識しているすべての情報が含まれます。ライブインベントリテーブルは、オブジェクトメタデータで生成された特性に基づいて、バケット内のデータセットを検出または識別するのに役立ちます。例えば、ライブインベントリテーブルを使用して、機械学習用のトレーニングデータセットを特定したり、ストレージコストの最適化演習で使用したり、ガバナンスコントロールを強制適用するのに役立てたりできます。
バケットに新しいオブジェクトを追加すると、数分以内にジャーナルテーブルにエントリが表示され、次の 1 時間ごとの更新時にライブインベントリテーブルにエントリが表示されます。既存のバケットで S3 Metadata を有効にすると、S3 は自動的にバックフィルオペレーションを開始し、既存のすべてのオブジェクトについてのメタデータを生成します。このバックフィルは通常数分で完了しますが、既存のデータセットに数百万または数十億の S3 オブジェクトが含まれている場合は、数時間かかることがあります。
S3 インベントリレポートは、Amazon S3 同期リスト API の定期的な代替を提供します。S3 インベントリを設定することで、S3 バケットまたはプレフィックスについて、オブジェクトとそれに対応するメタデータの CSV ファイルまたは ORC ファイルを、日単位または週単位で出力できます。S3 インベントリを使用すれば、ビジネスのワークフローやビッグデータのジョブを簡素化してスピードアップできます。S3 インベントリを使用してオブジェクトの暗号化やレプリケーションのステータスを検証することで、ビジネス、コンプライアンス、規制のニーズに応えることもできます。 詳細については、Amazon S3 インベントリのユーザーガイドをご覧ください。
S3 Tables は、構造化データを Apache Parquet、Avro、または ORC 形式で保存するための専用の S3 ストレージを提供します。テーブルバケット内では、テーブルをファーストクラスのリソースとして直接 S3 に作成できます。これらのテーブルは、ID ベースまたはリソースベースのポリシーで定義されたテーブルレベルの許可で保護でき、Apache Iceberg 標準をサポートするアプリケーションまたはツールによってアクセスできます。テーブルバケットにテーブルを作成すると、S3 内の基盤となるデータは Parquet、Avro、または ORC ファイルとして保存されます。次に、S3 は Apache Iceberg 標準を使用して、そのデータをアプリケーションでクエリできるようにするために必要なメタデータを保存します。S3 Tables には、テーブルバケット内のテーブルの Iceberg メタデータを操作および更新するためにクエリエンジンによって使用されるクライアントライブラリが含まれています。このライブラリは、テーブルオペレーション用の更新された S3 API と連携して、複数のクライアントが安全に、データをテーブルに読み書きできるようにします。時間が経過する中で、S3 は、オブジェクトを書き換える (あるいは「圧縮」する) ことによって、基盤となる 、Parquet、Avro、または ORC データを自動的に最適化します。圧縮により、S3 上のデータが最適化され、クエリのパフォーマンスが改善することができます。
S3 Tables は、S3 外部のインフラストラクチャを立ち上げなくても、ほんの数ステップで使い始めることができます。まず、S3 コンソールでテーブルバケットを作成します。コンソールを通じて最初のテーブルバケットを作成すると、AWS 分析サービスとの統合が自動的に行われ、S3 はアカウントとリージョン内のすべてのテーブルバケットとテーブルを AWS Glue データカタログに自動的に入力できるようになります。この後、Amazon Athena、EMR、Redshift などの AWS クエリエンジンから S3 Tables にアクセスできるようになります。次に、S3 コンソールから Amazon Athena を使用してテーブルを作成するためにクリックできます。Athena にアクセスすると、新しいテーブルへの入力とクエリをすぐに開始できます。
あるいは、AWS Glue データカタログを通じて Iceberg REST カタログエンドポイントを使用して S3 Tables にアクセスすることもできます。これにより、すべてのテーブルリソースを含むデータ資産全体を検出できます。また、個々のテーブルバケットエンドポイントに直接接続して、そのバケット内のすべての S3 Tables リソースを検出することもできます。これにより、Apache Iceberg REST カタログ仕様をサポートする任意のアプリケーションまたはクエリエンジンで S3 Tables を使用できるようになります。
Iceberg テーブルを汎用 Amazon S3 バケットに保存する場合と比較して、クエリパフォーマンスは最大 3 倍速く、1 秒あたりのトランザクション数 (TPS) は最大 10 倍高くなることが期待できます。これは、テーブルバケットがテーブルの基になる Parquet、Avro、または ORC データを自動的に圧縮してクエリのパフォーマンスを最適化し、専用ストレージがデフォルトで最大 10 倍の TPS をサポートするためです。
テーブルバケットでは、リソースポリシーをバケット全体または個々のテーブルに適用できます。テーブルバケットポリシーは、PutTablePolicy と PutTableBucketPolicy API を使用して適用できます。テーブルレベルのポリシーを使用すると、個々の Parquet、Avro、または ORC ファイルの物理的な場所を理解しなくても、関連する論理テーブルに基づいてテーブルバケット内のテーブルに対する許可を管理できます。さらに、S3 ブロックパブリックアクセスは常にテーブルバケットに適用されます。
テーブルバケットは、Parquet、Avro、または ORC データを含む Apache Iceberg テーブル形式をサポートしています。
S3 バッチオペレーションについて詳しく知りたい場合は、チュートリアルの動画を視聴し、ドキュメントにアクセスしてください。
また S3 ライフサイクルポリシーの設定で、一定期間後にオブジェクトを削除するように指定することも可能です。ポリシー主導のオートメーションを利用すれば、すばやく簡単にストレージコストを削減できるだけでなく、時間も節約できます。各ルールでは、プレフィックス、期間、S3 標準 – IA、S3 1 ゾーン – IA または S3 Glacier Instant Retrieval、S3 Glacier Flexible Retrieval、S3 Glacier Deep Archive への移行、および/または有効期限切れを指定できます。たとえば、共通のプレフィックス「logs/」が付いているすべてのオブジェクトを作成日から 30 日後に S3 Glacier Flexible Retrieval にアーカイブし、作成日から 365 日後に失効させることができます。
また、プレフィックス「backups/」が付いているすべてのオブジェクトを作成日から 90 日後に失効させるだけのルールを別途作成することができます。S3 ライフサイクルポリシーは既存の S3 オブジェクトと新しい S3 オブジェクトの両方に適用されます。そのため、手動によるデータの評価や移行に時間をかけることなく、S3 に現在配置されているデータと新しいデータすべてに対して、ストレージを最適化し、コストを最大限に節約することに役立ちます。
ライフサイクルルールでは、プレフィックスのフィールドでルールの対象となるオブジェクトを識別します。個々のオブジェクトにルールを適用するには、キー名を指定します。そして、オブジェクト一式にルールを適用するには、それらの共通のプレフィックス (たとえば、「logs/」) を指定します。オブジェクトをアーカイブする移行アクションと、オブジェクトを削除する失効アクションを指定できます。期間については、その日を過ぎるとオブジェクトがアーカイブまたは削除される日付を、作成日 (たとえば、2015 年 1 月 31 日) または作成日からの日数 (たとえば 30 日) で指定します。異なるプレフィックスに複数のルールを作成することができます。
ストレージ分析と洞察
すべて開くS3 ストレージレンズダッシュボードは、ストレージについての回答が提供され得る 4 つの主要なタイプの質問を中心に構成されています。[概要] フィルターでは、全体的なストレージ使用状況とアクティビティの傾向に関連するトップレベルの質問を調べることができます。例としては、「全体的なバイト数とリクエスト数は時間の経過とともにどのくらいの速さで増加していますか?」という質問を挙げることができます。 [コスト最適化] フィルターを使用すると、ストレージコストの削減に関連する質問を調べることができます。例としては、「最新ではないバージョンの維持数を減らすことでコストを節約できますか?」という質問を挙げることができます。 また、[データ保護] と [アクセス管理] のフィルターを使えば、データの保護に関する質問に回答できます。例としては、「ストレージは偶発的または意図的な削除から保護されていますか?」という質問を挙げることができます。 最後に、[パフォーマンス] と [イベント] フィルターを使用して、ワークフローのパフォーマンスを向上させる方法を検討することができます。これらの各質問は、ドリルダウン分析につながる可能性のある調査の第 1 層を表しています。
デフォルトのダッシュボードは、アカウント全体について自動的に設定および提供されます。また、お客様は、追加のカスタムダッシュボードを作成して、AWS 組織、特定のリージョン、またはアカウント内のバケットに範囲を設定するオプションがあります。複数のカスタムダッシュボードを設定できます。これは、さまざまな内部チームを表すためにバケットでセグメント化するなど、ストレージ分析で論理的な分離が必要な場合に役立ちます。デフォルトでは、ダッシュボードは S3 Storage Lens の無料のメトリクスを受け取りますが、S3 Storage Lens の高度なメトリクスと推奨事項を受け取るようにアップグレードするオプションがあります (追加費用が発生します)。S3 Storage Lens の高度なメトリクスには、7 つの異なるオプションがあります。アクティビティメトリクス、高度なコスト最適化メトリクス、高度なデータ保護メトリクス、詳細なステータスコードメトリクス、プレフィックス集計、CloudWatch 公開、Storage Lens グループ集計です。さらに、ダッシュボードごとに、送信先バケットと暗号化タイプを指定する追加オプションを使用して、メトリクスのエクスポートを有効にできます。
S3 ストレージレンズは、2 層のメトリクスでご利用いただけます。無料のメトリクスはデフォルトで有効になっており、すべての S3 顧客が追加料金なしで利用できます。S3 Storage Lens の高度なメトリクスと推奨事項の料金の詳細は、S3 料金ページでご確認いただけます。S3 Storage Lens の無料のメトリクスを使用すると、バケットレベルで 28 のメトリクスを受け取り、ダッシュボードで過去 14 日間の履歴データにアクセスできます。S3 ストレージレンズの高度なメトリクスとレコメンデーションを使用すると、35 の追加のメトリクス、プレフィックスレベルの集計、CloudWatch メトリックのサポート、S3 ストレージレンズグループを使用したカスタムオブジェクトメタデータのフィルタリングを利用でき、ダッシュボードで 15 か月分の履歴データにアクセスできます。
すぐに活用できるクエリ
すべて開くレプリケーション
すべて開くライフサイクル設定とレプリケーションの詳細については、S3 レプリケーションドキュメントをご覧ください。
はい。S3 レプリケーションを使用すると、お客様は、同じまたは異なる AWS リージョン内の複数の送信先バケットにデータをレプリケートできます。設定するときは、既存のレプリケーション設定で新しい送信先バケットを指定するか、複数の送信先バケットを使用して新しいレプリケーション設定を作成するだけです。指定する新しい送信先ごとに、送信先バケットのストレージクラス、暗号化タイプ、レプリケーションメトリクスと通知、レプリケーション時間制御 (RTC)、およびその他のプロパティを柔軟に選択できます。
Q: S3 レプリケーションを使用して S3 バケット間の双方向レプリケーションを設定できますか?
S3 レプリケーションの料金の詳細については、Amazon S3 の料金のページにアクセスしてください。
アクティブ/アクティブ構成では、S3 Multi-Region Access Points は、ネットワークの混雑状況やリクエスト側アプリケーションの位置などの要因を考慮して、AWS ネットワーク経由で最も近いデータコピーにリクエストを動的にルーティングします。S3 Multi-Region Access Points は、最も近い AWS ロケーションを介してリクエストをクライアントにルーティングし、その後にグローバルプライベート AWS ネットワークを介して S3 にルーティングします。どちらの構成でも、S3 Multi-Region Access Points を使用すると、シンプルなアプリケーションアーキテクチャを維持しながら、AWS のグローバルインフラストラクチャを活用できます。
S3 CRR と S3 Multi-Region Access Points は、連携して AWS のリージョン間でデータをレプリケートし、極めて低いレイテンシーでレプリケートされたコピーにリクエストを自動的にルーティングする、補完的な機能です。S3 Multi-Region Access Points は、AWS リージョン間でリクエストを管理するのに役立ちます。CRR は、AWS リージョン間でデータを移動して、分離されたレプリカを作成することを可能にします。S3 Multi-Region Access Points と CRR を一緒に使用して、単一のグローバルエンドポイントによってアドレス可能な、レプリケートされたマルチリージョンデータセットを作成します。
S3 マルチリージョンアクセスポイントを使用して AWS 内でリクエストをルーティングする場合、S3 のリクエスト、ストレージ、データ転送、レプリケーションのスタンダード料金に加えて、処理された GB ごとに少額の GB 単位のデータルーティング料金を支払います。アプリケーションが AWS 外で実行され、インターネット経由で S3 にアクセスする場合、S3 マルチリージョンアクセスポイントは、リクエストを AWS エッジロケーションを経由し、グローバルなプライベート AWS ネットワークを介して、アクセスレイテンシーに基づいて最も近いデータのコピーに自動的にルーティングすることで、パフォーマンスを向上させます。インターネット経由のリクエストを高速化する際には、データルーティング料金と、インターネット高速化料金をお支払いいただきます。S3 Multi-Region Access Points のインターネット高速化の料金は、ソースクライアントが宛先 AWS リージョンと同じ場所にあるか、または異なる場所にあるかによって異なり、S3 データ転送の標準料金とは別に発生します。 S3 Multi-Region Access Points のフェイルオーバーコントロールを使用する際には、各リージョンの現在のルーティングコントロールステータスを表示し、フェイルオーバーを開始するためにルーティングコントロールの変更を送信するための標準 S3 API コストのみが請求されます。料金の詳細については、Amazon S3 の料金ページとデータ転送タブをご覧ください。
はい。S3 Multi-Region Access Points の基盤となるバケットをリクエスタ支払いバケットとして設定できます。リクエスタ支払いでは、リクエストのコストやバケットと Multi-Region Access Point の両方に関連するデータ転送コストなど、エンドポイントの使用に関連するすべてのコストをリクエスタで支払います。一般的に、データを共有したいが、他のユーザーがデータにアクセスすることに伴う料金を発生させたくない場合、バケットをリクエスタ支払いバケットとして設定します。 一般的に、バケット所有者はバケットに関連するすべての Amazon S3 ストレージの料金を支払います。詳細については、S3 リクエスタ支払いにアクセスしてください。
S3 コンソールにはシンプルなガイド付きワークフローが用意されており、S3 でマルチリージョンストレージを実行するために必要なすべてを簡単な 3 つのステップですばやく設定できます。まず、Amazon S3 Multi-Region Access Point エンドポイントを作成し、レプリケートおよびフェイルオーバーする AWS リージョンを指定します。作成時にバケットを所有しているアカウント ID を入力することで、複数の AWS アカウントのバケットを新しい S3 Multi-Region Access Point に追加できます。次に、S3 Multi-Region Access Points エンドポイントの背後にある AWS リージョンと S3 バケットごとに、ルーティングステータスがアクティブかパッシブかを指定します。アクティブな AWS リージョンは S3 データリクエストのトラフィックを受け入れ、パッシブなリージョンにはフェイルオーバーが開始されるまでルーティングされません。3 番目に、S3 クロスリージョンレプリケーションルールを設定して、S3 内のデータをリージョンやアカウント間で同期させます。その後、AWS リージョン間でいつでも数分以内にフェイルオーバーを開始して、S3 データリクエストをシフトし、Amazon CloudWatch で新しいアクティブな AWS リージョンへの S3 トラフィックのシフトをモニタリングできます。または、AWS CloudFormation を使用して、マルチリージョンストレージの設定を自動化することもできます。S3 Multi-Region Access Points を含む、S3 上のマルチリージョンストレージの設定に必要なすべてのビルディングブロックは CloudFormation でサポートされているため、S3 コンソールの外部で、反復可能な設定プロセスを自動化できます。