ページトピック
- S3 全般についてのよくある質問
20
- AWS リージョン
6
- 請求
10
- S3 Vectors
12
- Amazon S3 と IPv6
4
- S3 イベント通知
5
- Amazon S3 Transfer Acceleration
12
- セキュリティ
14
- S3 アクセス許可
19
- S3 Access Points
12
- 耐久性とデータ保護
23
- ストレージクラス
2
- S3 Intelligent-Tiering
15
- S3 Standard
2
- Amazon S3 Express One Zone
16
- S3 Standard-Infrequent Access (S3 Standard-IA)
8
- S3 One Zone-Infrequent Access (S3 One Zone-IA)
6
- Amazon S3 Glacier Instant Retrieval ストレージクラス
8
- Amazon S3 Glacier Flexible Retrieval ストレージクラス
10
- Amazon S3 Glacier Deep Archive
10
- S3 on Outposts
1
- ストレージ管理
46
- ストレージ分析と洞察
12
- すぐに活用できるクエリ
4
- レプリケーション
32
- データ処理
9
- データアクセス
20
- Storage Browser for Amazon S3
9
S3 全般についてのよくある質問
すべて開くテーブルバケットは、Apache Iceberg 形式を使用してテーブルを格納するためのものです。Amazon S3 Tables を使用すると、わずか数ステップでテーブルバケットを作成し、テーブルレベルの権限を設定できます。S3 テーブルバケットは、特に分析と機械学習のワークロードに最適化されています。Apache Iceberg のサポートが組み込まれているため、Amazon Athena、Amazon Redshift、Apache Spark などの一般的なクエリエンジンを使用して S3 の表形式のデータをクエリできます。S3 テーブルバケットを使用して、毎日の購入取引、ストリーミングセンサーデータ、広告インプレッションなどの表形式のデータを Amazon S3 のアイスバーグテーブルとして保存し、分析機能を使用してそのデータを操作します。
ベクターバケットは、ベクターの保存とクエリを目的として構築されています。ベクターバケット内では、S3 オブジェクト API ではなく、専用のベクター API を使用してベクターデータを書き込み、セマンティックな意味と類似性に基づいてクエリを行います。Amazon S3 の既存のアクセス制御メカニズム (バケットや IAM ポリシーを含む) を使用して、ベクターデータへのアクセスを制御できます。ベクターバケットへの書き込みはすべて一貫性が高いため、最近追加されたベクターにすぐにアクセスできます。時間の経過とともにベクターの書き込み、更新、削除を行うと、S3 ベクターバケットは格納されているベクターデータを自動的に最適化して、データセットの規模が拡大したり進化したりしても、最適なコストパフォーマンスを実現します。
バケットは Amazon S3 に保存されているオブジェクト、テーブルのコンテナであり、バケットにはオブジェクトをいくつでも保存できます。汎用バケットは元の S3 バケットタイプであり、1 つの汎用バケットには、S3 Express One Zone を除くすべてのストレージクラスに保存されたオブジェクトを含めることができます。ほとんどのユースケースとアクセスパターンに推奨されます。S3 ディレクトリバケットでは、S3 Express One Zone ストレージクラスに保存されたオブジェクトのみを許可します。これにより、1 つのアベイラビリティーゾーン内でのデータ処理が高速になります。低レイテンシーのユースケースで推奨されます。 各 S3 ディレクトリバケットは、バケット内のディレクトリ数にかかわらず、1 秒あたり最大 200 万トランザクション (TPS) をサポートできます。 S3 テーブルバケットは、日々の購入取引、ストリーミングセンサーデータ、広告インプレッションなどの表形式のデータを S3 に保存するために設計されています。テーブルバケットを使用する場合、データはアイスバーグテーブルとして S3 に保存され、行レベルのトランザクション、クエリ可能なテーブルスナップショットなどの分析機能を使用してそのデータを操作できます。これらはすべて S3 によって管理されます。さらに、テーブルバケットは継続的にテーブルメンテナンスを実行し、データレイクがスケールしたり、進化したりしても、時間が経過する中でクエリの効率を自動的に最適化します。 S3 ベクターバケットは、ベクターの保存とクエリを目的として構築されています。ベクターバケット内では、専用のベクター API を使用してベクターデータを記述し、セマンティックな意味と類似性に基づいてクエリを行います。バケットポリシーや IAM ポリシーなど、Amazon S3 の既存のアクセス制御メカニズムを使用して、ベクターデータへのアクセスを制御できます。時間の経過とともにベクターの書き込み、更新、削除を行うと、S3 ベクターバケットは格納されているベクターデータを自動的に最適化して、データセットの規模が拡大したり進化したりしても、最適なコストパフォーマンスを実現します。
AWS リージョン
すべて開くAmazon S3 1 ゾーン – IA ストレージクラスは、単一の AZ 内でデータをレプリケーションします。S3 1 ゾーン – IA に保存されたデータは、地震、火災、洪水などの災害に起因するアベイラビリティーゾーンの物理的な消失に対して回復力がありません。
請求
すべて開く2) 月の 16 日目: 1 日目の最初の PUT と同じキーを使用して、同一のバケット内で、5 GB (5,368,709,120 バイト) の PUT を実行します。
上記のオペレーションのストレージ費用を分析する際、5 GB のオブジェクトが 15 日目に書き込まれた時、初日の 4 GB のオブジェクトが、バケットから削除されるわけではないことにご注意ください。そうではなく、4 GB のオブジェクトは古いバージョンとして保存され、5 GB のオブジェクトがお客様のバケット内で最も新しく書き込まれたオブジェクトのバージョンとなります。月末:合計バイト時間使用量
[4,294,967,296 バイト x 31 日間 x (24 時間/日)] + [5,368,709,120 バイト x 16 日間 x (24 時間/日)] = 5,257,039,970,304 バイト-時間。総 GB-月への変換
5,257,039,970,304 バイト時間 x (1 GB /1,073,741,824 バイト) x (1 か月/744時間) = 6.581 GB /月料金は Amazon S3 料金ページに記載されているリージョンの現在の料金に基づいて計算されます。
S3 Vectors
すべて開くAmazon S3 の外部にインフラストラクチャを設定しなくても、4 つの簡単なステップで S3 Vectors を使い始めることができます。まず、CreateVectorBucket API または S3 コンソールを使用して、特定の AWS リージョンにベクターバケットを作成します。次に、ベクターデータをベクターバケットに整理するには、CreateIndex API または S3 コンソールでベクターインデックスを作成します。ベクトルインデックスを作成するときは、距離計量 (コサインまたはユークリッド) とベクトルの次元数 (最大 4092) を指定します。最も正確な結果を得るには、埋め込みモデルで推奨されている距離計量を選択してください。3 番目に、PutVectors API を使用してベクターデータをベクターインデックスに追加します。オプションで、メタデータをキーと値のペアとして各ベクターに添付して、クエリをフィルタリングできます。4 つ目は、QueryVectors API を使用して類似度クエリを実行し、検索するベクトルと返される最も類似した結果の数を指定します。
S3 コンソールまたは CreateIndex API を使用してベクターインデックスを作成できます。インデックスの作成時に、ベクトルバケット、インデックス、距離指標、ディメンションを指定し、オプションで類似性クエリでフィルタリングから除外するメタデータフィールドのリストを指定します。たとえば、ベクターに関連するデータを参照用にのみ保存する場合は、これらをフィルター不可のメタデータフィールドとして指定できます。作成時に、各インデックスには固有の Amazon リソースネーム (ARN) が割り当てられます。その後、書き込みまたはクエリリクエストを行うと、それをベクターバケット内のベクターインデックスに送ります。
PutVectors API を使用してベクターインデックスにベクターを追加できます。各ベクトルは、ベクトルインデックス内の各ベクトルを一意に識別するキーで構成されています (たとえば、プログラムで UUID を生成できます)。書き込みスループットを最大化するには、最大リクエストサイズまでベクターを大きなバッチで挿入することをお勧めします。さらに、メタデータ (年、著者、ジャンル、場所など) をキー値のペアとして各ベクターに添付できます。メタデータを含めると、ベクターインデックスの作成時にフィルターできないメタデータとして指定されていない限り、デフォルトではすべてのフィールドを類似性クエリのフィルターとして使用できます。非構造化データの新しいベクター埋め込みを生成するには、Amazon BedrockのInvokeModel APIを使用して、使用する埋め込みモデルのモデルIDを指定します。
GetVectors API を使用すると、ベクターキーでベクターと関連メタデータを検索して返すことができます。
QueryVectors API を使用して類似度クエリを実行して、クエリベクトル、返される関連結果の数 (上位 k 個の最近傍結果)、およびインデックス ARN を指定できます。クエリベクトルを生成するときは、ベクトルインデックスに格納された初期ベクトルの生成に使用したのと同じ埋め込みモデルを使用する必要があります。たとえば、Amazon BedrockのAmazon Titanテキスト埋め込みv2を使用してドキュメントの埋め込みを生成する場合、同じモデルを使用して質問をベクトルに変換することをお勧めします。さらに、クエリでメタデータフィルターを使用して、フィルターに一致するベクターを検索できます。類似性クエリを実行すると、デフォルトでベクターキーが返されます。オプションで、距離とメタデータを応答に含めることができます。
S3 Vectorsは、耐久性と可用性に優れたベクターストレージを提供します。S3 Vectorsに書き込まれたデータはS3に保存されます。S3は119秒のデータ耐久性を考慮して設計されています。S3 Vectorsは 99.99% の可用性と 99.9% の可用性SLAを実現するように設計されています。
S3 Vectorsは、1秒未満のクエリレイテンシー時間を実現します。Amazon S3 の伸縮自在なスループットを使用して数百万のベクトルにわたる検索を処理するため、頻度の低いクエリワークロードに最適です。
ベクター埋め込みの類似性クエリを実行する場合、埋め込みモデル、ベクターデータセットのサイズ (ベクトルと次元の数)、クエリの分布など、いくつかの要因が平均想起に影響する可能性があります。S3 Vectorsは、ほとんどのデータセットで平均リコール率が 90% を超えています。平均再現率はクエリ結果の品質を測定します。90% ということは、クエリベクトルに対してインデックスに保存されているグラウンドトゥルースに最も近いベクトルの 90% が応答に含まれていることを意味します。ただし、実際のパフォーマンスは特定のユースケースによって異なる場合があるため、代表的なデータとクエリを使用して独自のテストを実施し、S3 ベクターインデックスがリコール要件を満たしていることを確認することをお勧めします。
ListVectors API を使用すると、ベクトルインデックス内のベクトルのリストを表示できます。応答が切り捨てられた場合は、インジケーター付きで一度に最大 1,000 個のベクターが返されます。応答には、最終更新日、ベクターキー、ベクターデータ、およびメタデータが含まれます。ListVectors API を使用して、指定したベクターインデックスからベクターデータを簡単にエクスポートすることもできます。ListVectorsオペレーションには強い一貫性があります。そのため、書き込み後、変更が反映されたベクトルをすぐに一覧表示できます。
S3 Vectorsでは、ストレージと該当する書き込み/読み取りリクエスト(たとえば、ベクターの挿入やベクターインデックスのベクターへのクエリ操作の実行など)に対して料金が発生します。料金の詳細については、 S3 の料金表ページをご覧ください。
はい。Bedrock ConsoleまたはAPIを使用してBedrockナレッジベースを作成する際、既存のS3ベクターインデックスをベクターストアとして設定して、RAGユースケースのベクターストレージコストを節約できます。Bedrockにベクターインデックスの作成と管理を任せたい場合は、Bedrockコンソールのクイック作成ワークフローを使用してください。さらに、Amazon SageMaker Unified Studio の RAG ワークフローのベクターストアとして新しい S3 ベクターインデックスを設定できます。
はい。Amazon OpenSearch サービスで S3 ベクターを使用する方法は 2 つあります。まず、S3のお客様は、S3またはOpenSearchコンソールのいずれかを使用して、S3ベクターインデックスのすべてのベクターを新しいサーバーレスコレクションとしてOpenSearch Serverlessにエクスポートできます。S3 Vectorsでネイティブにビルドする場合、リアルタイムのクエリが必要なワークロードにOpenSearch Serverlessを選択的に使用できるというメリットがあります。2つ目は、OpenSearchのマネージドユーザーであれば、1秒未満のレイテンシーでクエリできるベクターデータのエンジンとしてS3 Vectorsを選択できるようになりました。その後、OpenSearch は自動的に S3 ベクターをベクターの基盤エンジンとして使用し、OpenSearch API を使用してベクターデータを更新および検索できます。アプリケーションを変更しなくても、S3 Vectorのコスト面でのメリットが得られます。
Amazon S3 と IPv6
すべて開くS3 イベント通知
すべて開くAmazon S3 Transfer Acceleration
すべて開くAWS の実装の詳細については、ストレージゲートウェイFAQのこのファイルセクションを参照してください。
セキュリティ
すべて開くAWS のセキュリティの詳細については、 AWS セキュリティページを参照してください。S3 セキュリティ情報については、S3 セキュリティページと S3 セキュリティベストプラクティスガイドを参照してください。
デフォルトでは、オブジェクトデータとオブジェクトメタデータは、オブジェクトを配置した単一の専有ローカルゾーン内に留まります。バケット名、キャパシティメトリックス、CloudTrail ログ、CloudWatch メトリックス、AWS キー管理サービス (KMS) のカスタマー管理キー、ID とアクセス管理 (IAM) ポリシーを含むバケット管理およびテレメトリデータは、親 AWS リージョンに保存されます。オプションで、S3 バッチオペレーションなどの他のバケット管理機能では、バケット名とオブジェクト名を含む管理メタデータを親 AWS リージョンに保存します。
AWS VPC マネジメントコンソール、AWS コマンドラインインターフェイス (AWS CLI)、AWS SDK、または API を使用して、インターフェイス VPC エンドポイントを作成できます。詳細については、ドキュメントをご覧ください。
詳細については、IAM Access Analyzer ドキュメントを参照してください。
S3 アクセス許可
すべて開くS3 Access Points
すべて開くAmazon S3 アクセスポイントは、S3 と連携するあらゆるアプリケーションまたは AWS サービスのデータアクセス管理を簡素化するエンドポイントです。S3 アクセスポイントは、OpenZFS ファイルシステムの S3 バケットおよび Amazon FSx と連携します。各アプリケーションまたはユーザーに合わせた名前と権限を持つアクセスポイントを作成することで、さまざまなアプリケーションやユーザーがデータにアクセスする方法を制御および簡素化できます。
S3 バケットで S3 アクセスポイントを使用すると、作成、読み取り、追跡、監査が必要な何百もの異なる権限ルールを含む単一の複雑なバケットポリシーを管理する必要がなくなります。代わりに、バケットごとに数百のアクセスポイントを作成し、それぞれがバケットへのカスタマイズされたパスを提供し、アクセスポイントを介して行われるすべてのリクエストに対して特定の権限とネットワーク制御を適用する独自のホスト名とアクセスポリシーを設定できます。
S3 アクセスポイントと FSx for OpenZFS を使用すると、データが S3 にあるかのように S3 API を使用して FSx データにアクセスできます。この機能により、FSx for OpenZFSのファイルデータにアクセスして、S3と連携するさまざまな人工知能、機械学習、分析サービスおよびアプリケーションで使用できます。ただし、ファイルデータは引き続きFSx for OpenZFSファイルシステムに存在します。
S3 アクセスポイントを使用すると、S3 API を使用して Amazon FSx for OpenZFS のファイルデータにアクセスできます。データを S3 に移動する必要はありません。OpenZFSファイルシステム用のFSxに接続されたS3アクセスポイントは、S3バケットに接続されたS3アクセスポイントの仕組みと同様に機能します。データは引き続きFSx for OpenZFSファイルシステムまたはS3バケットのいずれかに保存されますが、S3経由のデータアクセスはアクセスポリシーによって制御されます。たとえば、S3アクセスポイントをFSx for OpenZFSファイルシステムに接続すると、顧客はそのアクセスポイントを、S3と連携するジェネレーティブAI、機械学習、分析サービスおよびアプリケーションで使用して、FSx for OpenZFSデータにアクセスできます。
耐久性とデータ保護
すべて開くAmazon S3 は、Content-MD5 チェックサム、セキュアハッシュアルゴリズム (SHA)、および周期的な冗長性チェック (CRC) を組み合わせて、データの整合性を検証します。Amazon S3 は、保管中のデータにこれらのチェックサムを実行し、冗長データを用いて相違の修復を行います。さらに、最新の AWS SDK では、すべてのアップロードの効率的な CRC ベースのチェックサムが自動的に計算されます。 S3 はそのチェックサムを個別に検証し、パブリックインターネット経由での転送中にデータの整合性が維持されていたことを確認した後にのみオブジェクトを受け入れます。事前に計算されたチェックサムを提供しないバージョンの SDK を使用してオブジェクトをアップロードする場合、S3 はマルチパートアップロードの場合でも、オブジェクト全体の CRC ベースのチェックサムを計算します。チェックサムはオブジェクトメタデータに保存されるため、いつでもデータの整合性を検証できます。アップロードおよびダウンロードリクエストのデータ整合性チェックをサポートする 5 つのチェックサムアルゴリズムから選択できます。アプリケーションのニーズに応じて、SHA-1、SHA-256、CRC32、CRC32C、または CRC64NVME チェックサムアルゴリズムを選択できます。S3 からデータを保存または取得するときにチェックサムを自動的に計算および検証でき、HeadObject S3 API、GetObjectAttributes S3 API または S3 Inventory レポートを使用していつでもチェックサム情報にアクセスできます。データを S3 にストリーミングするときにチェックサムを計算すると、2 つの連続した操作としてではなく、1 回のパスでデータの検証と送信の両方ができるため、時間を節約できます。データ検証にチェックサムを使用することは、データの耐久性のベストプラクティスであり、これらの機能により、パフォーマンスが向上し、そのためのコストが削減されます。
2) 月の 16 日目: 1 日目の最初の PUT と同じキーを使用して、同一のバケット内で、5 GB (5,368,709,120 バイト) の PUT を実行します。
上記のオペレーションのストレージ費用を分析する際、5 GB のオブジェクトが 15 日目に書き込まれた時、初日の 4 GB のオブジェクトが、バケットから削除されるわけではないことにご注意ください。そうではなく、4 GB のオブジェクトは古いバージョンとして保存され、5 GB のオブジェクトがお客様のバケット内で最も新しく書き込まれたオブジェクトのバージョンとなります。月末:合計バイト時間使用量
[4,294,967,296 バイト x 31 日間 x (24 時間/日)] + [5,368,709,120 バイト x 16 日間 x (24 時間/日)] = 5,257,039,970,304 バイト-時間。総 GB-月への変換
5,257,039,970,304 バイト時間 x (1 GB /1,073,741,824 バイト) x (1 か月/744時間) = 6.581 GB /月料金は Amazon S3 料金ページに記載されているお客様のリージョンの現在の料金に基づいて計算されます。
詳細については、S3 オブジェクトロックのユーザーガイドをご覧ください。
S3 オブジェクトロックは、2 つのうちいずれかのモードで設定できます。ガバナンスモードでデプロイされると、特定の IAM アクセス権限を持つ AWS アカウントはオブジェクトバージョンから WORM 保護を削除できます。規制を遵守するためにより強力な不変性が必要な場合は、コンプライアンスモードを使用することができます。コンプライアンスモードでは、WORM 保護を使用しても、ルートアカウントを含め、どのユーザーも無効にすることはできません。
いいえ。S3 Object Lock を有効にすると、バケットの S3 Object Lock または S3 バージョニングを無効にすることはできません。
S3 Object Lock が有効になっているバケットから S3 レプリケーションでオブジェクトのレプリケーションを開始するには、同じまたは異なる AWS リージョンで、同じまたは異なる AWS アカウントにあるレプリケート先バケットを指定することで、ソースバケットにレプリケーション設定を追加できます。すべてのオブジェクトを S3 バケットレベルで複製するか、共有プレフィックスレベルでオブジェクトをフィルタリングするか、S3 オブジェクトタグを使用してオブジェクトレベルでオブジェクトをフィルタリングするかを選択できます。また、レプリケーション操作を実行するために必要な権限を持つ AWS ID およびアクセス管理 (IAM) ロールを指定する必要があります。S3 コンソール、AWS API、AWS CLI、AWS SDK、または AWS CloudFormation を使用してレプリケーションを有効にできます。また、ソースバケットとターゲットバケットの両方で S3 バージョニングを有効にする必要があります。さらに、S3 Object Lock が有効なバケットからオブジェクトを複製するには、レプリケート先バケットでも S3 オブジェクトロックが有効になっている必要があります。詳細については、S3 レプリケーションの設定と S3 レプリケーションでの S3 Object Lock の使用に関するドキュメントを参照してください。
はい。S3 Object Lock が有効なバケットからオブジェクトをレプリケートするには、レプリケーションのセットアップに使用する IAM ロールのソースバケットに、s3: GetObjectRetention と s3: GetObjectLegalHold という 2 つの新しいアクセス権限を付与する必要があります。または、IAM ロールに s3: Get* 権限がある場合は、要件を満たしています。詳細については、S3 レプリケーションでの S3 Object Lock の使用に関するドキュメントを参照してください。
いいえ。 S3 Object Lock バケットからのレプリケーションでは、S3 同じリージョンレプリケーション (S3 SRR)、S3 クロスリージョンレプリケーション (S3 CRR)、進行状況を追跡するための S3 レプリケーションメトリックス、 S3 レプリケーション時間制御 (S3 RTC) 、 S3 バッチレプリケーションなど、S3 レプリケーションのすべての機能がサポートされます。
S3 バッチレプリケーションを使用して、S3 Object Lock が有効なバケットから既存のオブジェクトをレプリケートできます。既存のオブジェクトの複製の詳細については、S3 バッチ複製に関するドキュメントを参照してください。
ストレージクラス
すべて開くワークロードに最適な S3 ストレージクラスを決定する際には、データのアクセスパターンと保持時間を考慮し、データの存続期間におけるトータルコストが最も低くなるように最適化します。多くのワークロードは、変化する (ユーザー生成コンテンツ)、予測できない (分析、データレイク)、または未知の (新しいアプリケーション) アクセスパターンを持っています。そのため、S3 Intelligent-Tiering をデフォルトのストレージクラスとして使用し、自動的にストレージコストを節約する必要があるのです。データのアクセスパターンがわかっていれば、このガイダンスに従うことができます。S3 Standard ストレージクラスは、頻繁にアクセスするデータに最適です。月に 1 回以上データにアクセスする場合は、これが最適です。S3 Standard-Infrequent Access は、少なくとも 1 か月間保持し、1~2 か月に 1 回アクセスするデータに最適です。Amazon S3 Glacier ストレージクラスは、データアーカイブ専用に設計されており、クラウドで最高のパフォーマンス、最高の検索の柔軟性、最低のコストのアーカイブストレージを提供します。さまざまなアクセスパターンやストレージ期間に最適化された 3 種類のアーカイブストレージクラスから選択できるようになりました。医療画像、ニュースメディアアセット、ゲノミクスデータなど、すぐにアクセスする必要のあるアーカイブデータであれば、ミリ秒レベルの取得時間で最低コストのストレージを提供するアーカイブストレージクラスである S3 Glacier Instant Retrieval ストレージクラスを選択できます。バックアップやディザスタリカバリのユースケースなど、すぐにアクセスする必要はないものの、大量のデータを無料で取得できる柔軟性が必要なアーカイブデータであれば、S3 Glacier Flexible Retrieval を選択すれば、数分での検索、または 5〜12 時間での無料での一括検索が可能です。コンプライアンスアーカイブやデジタルメディア保存などの長寿命のアーカイブストレージにかかるコストをさらに節約するには、S3 Glacier Deep Archive をお選びください。12 時間以内にデータを取得でき、クラウドで最も低コストのストレージです。これらのストレージクラスはすべて、複数のデバイスと AWS リージョン内の物理的に分離された AWS アベイラビリティーゾーンにデータを冗長的に保存することで、マルチアベイラビリティーゾーン (AZ) の耐障害性を提供します。
耐障害性の要件が低いデータの場合は、S3 One Zone-Infrequent Access のようなシングル AZ ストレージクラスを選択することでコストを削減できます。既存の AWS リージョンでは満たせないデータの保存場所や分離の要件がある場合は、AWS 専有ローカルゾーン用の S3 ストレージクラスまたは Outposts ラック用の S3 ストレージクラスを使用して、特定の境界にデータを保存できます。
S3 Intelligent-Tiering
すべて開くS3 Intelligent-Tiering には最小オブジェクトサイズはありませんが、128 KB 未満のオブジェクトは自動階層化の対象にはなりません。これらの小さいオブジェクトは S3 Intelligent-Tiering に保存できますが、常に高頻度アクセス階層料金で課金され、モニタリング料金やオートメーション料金は発生しません。新しく作成されたデータのデフォルトのストレージクラスとして S3 Intelligent-Tiering を標準とする場合は、S3 PUT API リクエストヘッダーで INTELLIGENT-TIERING を指定してアプリケーションを変更できます。S3 Intelligent-Tiering は 99.9% の可用性と 99.999999999% の耐久性を実現するよう設計されており、S3 Standard と同等の低レイテンシーかつ高スループットのパフォーマンスを自動的に提供します。AWS Cost Explorer を使用して、アーカイブインスタントアクセスティアからの追加の節約を測定できます。
S3 Intelligent-Tiering は、わずかなモニタリングおよびオートメーション費用で、低レイテンシーおよび高スループットのアクセス階層を介してアクセスパターンをモニタリングし、オブジェクトを自動的に移動させられます。また、2 つのオプトイン非同期アーカイブアクセス階層も用意されており、非同期にアクセスできるデータに対して、お客様にクラウドで最も低いストレージコストを実現します。
S3 Intelligent-Tiering には請求可能な最小オブジェクトサイズはありませんが、128 KB 未満のオブジェクトは自動階層化の対象にはなりません。 これらの小さなオブジェクトはモニタリングされず、常に高頻度アクセス階層料金で課金され、モニタリング料金やオートメーション料金は発生しません。S3 Intelligent-Tiering のアーカイブアクセス階層またはディープアーカイブアクセス階層にアーカイブされたオブジェクトごとに、Amazon S3 はオブジェクトの名前とその他のメタデータに 8 KB のストレージを使用し (S3 Standard ストレージレートで請求)、インデックスと関連メタデータに 32 KB のストレージを使用します (S3 Glacier Flexible Retrieval および S3 Glacier Deep Archive のストレージ料金で請求)。
S3 Standard
すべて開くAmazon S3 Express One Zone
すべて開くディレクトリバケットを作成した後に Import オプションを使用して、S3 コンソールを使用して、同じ AWS リージョン内のデータを S3 Express One Zone ストレージクラスにインポートできます。インポートでは、コピーするオブジェクトをすべて個別に指定しなくても、データをインポートするプレフィックスまたはバケットを選択できるため、S3 ディレクトリバケットへのデータのコピーが簡単になります。S3 バッチオペレーションは、選択したプレフィックスバケットまたは汎用バケットにオブジェクトをコピーします。S3 バッチオペレーションジョブの詳細ページからインポートコピージョブの進行状況を監視できます。
3 か月以上リクエストアクティビティがない S3 ディレクトリバケットは、非アクティブ状態に移行します。非アクティブな状態では、ディレクトリバケットは一時的に読み取りや書き込みができなくなります。非アクティブなバケットには、すべてのストレージ、オブジェクトメタデータ、バケットメタデータが保持されます。非アクティブなバケットには既存のストレージ料金が適用されます。非アクティブなバケットへのアクセス要求により、バケットは通常数分以内にアクティブな状態に移行します。この移行期間中、読み取りと書き込みは 503 SlowDown エラーコードを返します。
S3 Express One Zone に 10 GB のデータを 30 日間保存し、合計で 100 万回の書き込みと 900 万回の読み取りを行い、10 KB のリクエストサイズで Athena でアクセスしたとします。その後、30 日の終わりまでに 1,000,000 個のファイルを削除します。バケットが米国東部(バージニア北部)リージョンにあると仮定すると、ストレージ料金とリクエスト料金は次のように計算されます。ストレージ料金
バイト-時間の合計使用量 =10 GB/月
総ストレージコスト = 10 GB /月 x 0.11 ドル = 1.10 ドルのリクエスト料金
1,000,000 件の PUT リクエスト: 1,000,000 件のリクエスト x 0.00113 USD/1,000 = 1.13 USD
9,000,000 件の GET リクエスト: 9,000,000 件のリクエスト x 0.00003 USD/1,000 = 0.27 USD
1,000,000 件の削除リクエスト = 1,000,000 件のリクエスト x 0.00 ドル (無料) = 0 ドルデータアップロード料金:10 KB/1,048,576 x 1,000,000 x 0.0032 ドル = 0.03 ドル
データ取得料金: 10 KB / 1,048,576 x 9,000,000 x 0.0006 USD = 0.05 USD
合計料金 = 1.10ドル+ 1.13ドル+ 0.27ドル+ 0.03ドル+ 0.05ドル= 2.58ドル例 2:
毎日 8 時間のワークロードを対象に、機械学習トレーニング用に 10 TB のデータを保存し、それを削除したとします。8 時間のワークロードでは、2 MB のリクエストサイズに対して 5,242,880 回の書き込みと 10,485,760 回の読み取りを行います。これを 30 日間 (1 か月) 行います。ストレージ料金
バイト-時間の合計使用量 = [10,995,116,277,760 バイト x 30 日間 x (8 時間/日)] = 2,638,827,906,662,400 バイト-時間 = 3303.77 GB-月
総ストレージコスト = 3303.77 GB x 0.11 ドル = 363.41 ドルのリクエスト料金
5,242,880 件の PUT リクエスト/日: 5,242,880 件のリクエスト x 30 x 0.00113 USD/1,000 = 177.73 USD
10,485,760 件の GET リクエスト/日: 10,485,760 件のリクエスト x 30 x 0.00003 USD/1,000 USD = 9.44 USD
5,242,880件/日の削除リクエスト:5,242,880件のリクエスト x 0.00ドル (無料) = 0ドルデータアップロード料金:2MB/1024 x 5,242,880 x 30 x 0.0032ドル = 983.04ドル
データ取得料金: 2MB/1,024 x 10,485,760 x 30 x 0.0006 USD = 368.64 USD
合計料金 = 363.41 USD + 177.73 USD + 9.44 USD + 983.04 USD + 368.64 USD = 1,902.26 USD
S3 Standard-Infrequent Access (S3 Standard-IA)
すべて開くS3 One Zone-Infrequent Access (S3 One Zone-IA)
すべて開くAmazon S3 Glacier Instant Retrieval ストレージクラス
すべて開くAmazon S3 Glacier Flexible Retrieval ストレージクラス
すべて開く注: S3 Glacier Flexible Retrieval は、オリジナルのダイレクト Glacier API や Amazon S3 Glacier マネジメントコンソールからも利用できます。ライフサイクル管理、S3 Replication、S3 Storage Lens などを含む完全な S3 機能セットへのアクセスを含む強化されたエクスペリエンスのためには、S3 API と S3 マネジメントコンソールを使用して S3 Glacier 機能を使用することをお勧めします。
S3 Glacier ストレージクラスプロビジョンドキャパシティーユニットを使用すると、所定の月の固定前払い料金を支払うことで、S3 Glacier Flexible Retrieval からの迅速な取得のための取得キャパシティーの可用性を確保できます。月ごとに、2 個のプロビジョンドキャパシティーユニットを購入して、取得できるデータの量を増やすことができます。容量単位ごとに、少なくとも 3 回の迅速取り出しを 5 分ごとに実行できることが保証され、最大 150 MB/秒の取り出しスループットが得られます。ワークロードが、データのサブセットに数分でアクセスできる高い信頼性と予測可能性を必要とする場合は、プロビジョンド取得キャパシティーを購入する必要があります。プロビジョンドキャパシティーがないと、需要が高い時期に迅速な取得ができない場合があります。いかなる状況下でも迅速な取得へのアクセスが必要な場合は、プロビジョンド取得キャパシティーの購入をお勧めします。
プロビジョンドキャパシティーは、Amazon S3 コンソール、プロビジョンドキャパシティーの購入、REST API、AWS SDK、または AWS CLI を使用して購入できます。プロビジョンドキャパシティーユニットは、購入した日時 (開始日) から 1 か月間持続します。ユニットの有効期限は、開始日からほぼ秒単位でちょうど 1 か月後になります。プロビジョンドキャパシティーの料金情報については、Amazon S3 の料金を参照してください。
オブジェクト 1 つあたり 1.000032 GB x 100,000 個のオブジェクト = 100,003.2 GB の S3 Glacier ストレージ。
オブジェクト 1 つあたり 0.000008 GB x 100,000 個のオブジェクト = 0.8 GB の S3 Standard ストレージ。
料金は、 Amazon S3 料金ページの AWS リージョンの現在の料金に基づいて計算されます。Amazon S3 のその他の料金例については、 S3 請求に関するよくある質問を参照するか、 AWS 料金計算ツールを使用してください。
また、S3 Glacier Flexible Retrieval では、アーカイブされた各オブジェクトに対して 40 KB の追加メタデータが必要です。これには、データの特定と取り出しに必要な S3 Glacier Flexible Retrieval の料金で課金される 32 KB のメタデータが含まれます。そして、S3 Glacier Flexible Retrieval にアーカイブされたオブジェクトのユーザー定義名とメタデータを維持するために必要な S3 Standard レートで請求される追加の 8 KB のデータです。これにより、S3 LIST API または S3 インベントリレポートを使用して、すべての S3 オブジェクトのリアルタイムリストを取得できます。Amazon S3 Glacier フレキシブル取り出し料金の詳細については、Amazon S3 料金表ページをご覧ください。
Amazon S3 Glacier Deep Archive
すべて開くAWS Snowball を使用してデータを移行することもできます。Snowball は、安全な転送のために設計された物理ストレージデバイスを使用して、AWS との間のテラバイトからペタバイト規模のデータの移動を加速します。Snowball を使用すると、ネットワークのコストが高い、転送時間が長い、セキュリティに懸念があるといった、大規模なデータ転送で直面する可能性のある課題を解決できます。最後に、AWS Direct Connect を利用して、自社の施設から AWS への専用ネットワーク接続を確立できます。多くの場合、Direct Connect によってネットワークのコストを削減し、帯域幅スループットを向上し、インターネットベースの接続よりも一貫したネットワーク体験を実現できます。
S3 on Outposts
すべて開くストレージ管理
すべて開く詳細については、S3 オブジェクトタグのユーザーガイドをご覧ください。
SQL を使用して S3 オブジェクトに関する情報をクエリし、ジェネレーティブ AI、分析、その他のユースケースで特定のデータセットをすばやく特定したい場合は、Amazon S3 メタデータを使用する必要があります。S3 メタデータはほぼリアルタイムでメタデータを最新の状態に保つため、任意の ICEBERG 互換クライアントを使用して SQL クエリを実行し、オブジェクトメタデータでオブジェクトを検索できます。たとえば、SQL クエリを使用して、特定のフィルターに一致するオブジェクトのリストを返すことができます。たとえば、過去 30 日間に任意のバケットに追加されたオブジェクトなどです。
S3 メタデータは、バケットにアップロードされたオブジェクトに関する追加情報を提供するメタデータを自動的に生成し、そのメタデータを読み取り専用テーブルでクエリできるように設計されています。これらのメタデータテーブルは Amazon S3 テーブルに格納されます。このテーブルは Apache Iceberg 上に構築されており、S3 内の表形式のデータを管理して保存およびクエリできます。S3 メタデータは、オブジェクトサイズなどのシステムレベルのメタデータ、オブジェクトのアップロード中のタグやユーザー定義メタデータなどのカスタムメタデータ、およびリクエストを送信した IP アドレスなどのイベントメタデータを作成して維持します。バケット内のデータが変更されると、S3 メタデータはほぼリアルタイムで更新され、最新の変更が反映されます。その後、Amazon Athena、Amazon QuickSight、Apache Spark など、さまざまな AWS 分析サービスと Iceberg 互換のオープンソースツールを使用してメタデータテーブルをクエリできます。
S3 コンソールで数回クリックするだけで S3 メタデータを使い始めることができます。S3 メタデータを有効にする汎用 S3 バケットを選択するだけで、S3 がバケット内のデータを分析し、すべてのオブジェクトのメタデータを含むフルマネージド型の Apache Iceberg テーブルを構築します。数分以内に、Apache Iceberg をサポートする任意のクエリエンジンまたはツールを使用してメタデータのクエリを開始できます。
S3 メタデータテーブルは、 aws-s3 と呼ばれる AWS アカウントの AWS 管理テーブルバケットに保存されます。テーブルは読み取り専用になり、メタデータの書き込み、更新、削除の権限を持つのは S3 だけです。
S3 メタデータは、アカウントの 2 つの管理テーブル、ジャーナルテーブルとライブインベントリテーブルにメタデータを格納します。
S3 メタデータのジャーナルテーブルには、バケット内で行われた変更が表示されます。汎用 S3 バケットにオブジェクトが追加、更新、削除されると、対応する変更がほぼリアルタイムでジャーナルテーブルに反映されます。ジャーナルテーブルは、アプリケーションの動作を理解し、データセットに加えられた変更を特定するのに役立ちます。たとえば、ジャーナルテーブルに SQL クエリを記述して、過去 30 日間に追加されたオブジェクト、アクティブなリクエスタによって追加されたオブジェクト、または過去 1 週間にメタデータが変更されたオブジェクトなど、フィルタに一致する S3 オブジェクトを検索できます。
S3 メタデータのライブインベントリテーブルには、バケット内のすべてのオブジェクトの完全なリストが含まれています。ライブインベントリテーブルは 1 時間ごとに更新され、S3 がオブジェクトについて知っているすべての情報が含まれています。ライブインベントリテーブルは、オブジェクトメタデータで生成された特性に基づいて、バケット内のデータセットを検出または識別するのに役立ちます。たとえば、ライブインベントリテーブルを使用して、機械学習用のトレーニングデータセットを特定したり、ストレージコスト最適化の演習に使用したり、ガバナンスコントロールを実施したりすることができます。
バケットに新しいオブジェクトを追加すると、数分以内にジャーナルテーブルにエントリが表示され、次の1時間ごとの更新時にライブインベントリテーブルにエントリが表示されます。既存のバケットで S3 メタデータを有効にすると、S3 は自動的にバックフィル操作を開始して、既存のすべてのオブジェクトのメタデータを生成します。このバックフィルは通常数分で終了しますが、既存のデータセットに数百万または数十億の S3 オブジェクトが含まれている場合は数時間かかることがあります。
S3 インベントリレポートは、Amazon S3 同期リスト API の定期的な代替を提供します。S3 インベントリを設定して、S3 バケットまたはプレフィックスについて、オブジェクトとそれに対応するメタデータの CSV、ORC、または Parquet ファイルを毎日または毎週出力できます。S3 インベントリを使用すれば、ビジネスのワークフローやビッグデータのジョブを簡素化してスピードアップできます。S3 インベントリを使用してオブジェクトの暗号化やレプリケーションのステータスを検証することで、ビジネス、コンプライアンス、規制のニーズに応えることもできます。 詳細については、Amazon S3 インベントリのユーザーガイドをご覧ください。
S3 テーブルは、Apache Parquet、Avro、および ORC 形式の構造化データを保存するための専用の S3 ストレージを提供します。テーブルバケット内では、テーブルをファーストクラスのリソースとして直接 S3 に作成できます。これらのテーブルは、ID ベースまたはリソースベースのポリシーで定義されたテーブルレベルの許可で保護でき、Apache Iceberg 標準をサポートするアプリケーションまたはツールによってアクセスできます。テーブルバケットにテーブルを作成すると、S3 の基になるデータは Parquet ファイル、Avro ファイル、または ORC ファイルとして保存されます。次に、S3 は Apache Iceberg 標準を使用して、アプリケーションでデータをクエリできるようにするために必要なメタデータを保存します。S3 Tables には、テーブルバケット内のテーブルの Iceberg メタデータを操作および更新するためにクエリエンジンによって使用されるクライアントライブラリが含まれています。このライブラリは、テーブルオペレーション用の更新された S3 API と連携して、複数のクライアントが安全に、データをテーブルに読み書きできるようにします。時間の経過とともに、S3 はオブジェクトを書き換え、つまり「圧縮」することで、基盤となる Parquet、Avro、または ORC データを自動的に最適化します。圧縮により、S3 上のデータが最適化され、クエリのパフォーマンスが改善することができます。
Iceberg テーブルを汎用 Amazon S3 バケットに保存する場合と比較して、クエリパフォーマンスは最大 3 倍速く、1 秒あたりのトランザクション数 (TPS) は最大 10 倍高くなることが期待できます。これは、テーブルバケットがテーブルの基になるParquet、Avro、またはORCデータを自動的に圧縮してクエリパフォーマンスを最適化し、専用ストレージがデフォルトで最大10倍のTPSをサポートするためです。
テーブルバケットでは、リソースポリシーをバケット全体または個々のテーブルに適用できます。テーブルバケットポリシーは、PutTablePolicy と PutTableBucketPolicy API を使用して適用できます。テーブルレベルのポリシーを使用すると、個々の Parquet、Avro、または ORC ファイルの物理的な場所を理解しなくても、関連付けられている論理テーブルに基づいてテーブルバケット内のテーブルに対する権限を管理できます。さらに、S3 ブロックパブリックアクセスは常にテーブルバケットに適用されます。
テーブルバケットは、Parquet、Avro、または ORC データを含む Apache アイスバーグテーブル形式をサポートします。
S3 バッチオペレーションについて詳しく知りたい場合は、チュートリアルビデオとドキュメントをご覧ください。
また S3 ライフサイクルポリシーの設定で、一定期間後にオブジェクトを削除するように指定することも可能です。ポリシー主導のオートメーションを利用すれば、すばやく簡単にストレージコストを削減できるだけでなく、時間も節約できます。各ルールでは、プレフィックス、期間、S3 標準 – IA、S3 1 ゾーン – IA または S3 Glacier Instant Retrieval、S3 Glacier Flexible Retrieval、S3 Glacier Deep Archive への移行、および/または有効期限切れを指定できます。たとえば、共通のプレフィックス「logs/」が付いているすべてのオブジェクトを作成日から 30 日後に S3 Glacier Flexible Retrieval にアーカイブし、作成日から 365 日後に失効させることができます。
また、プレフィックス「backups/」が付いているすべてのオブジェクトを作成日から 90 日後に失効させるだけのルールを別途作成することができます。S3 ライフサイクルポリシーは既存の S3 オブジェクトと新しい S3 オブジェクトの両方に適用されます。そのため、手動によるデータの評価や移行に時間をかけることなく、S3 に現在配置されているデータと新しいデータすべてに対して、ストレージを最適化し、コストを最大限に節約することに役立ちます。
ライフサイクルルールでは、プレフィックスのフィールドでルールの対象となるオブジェクトを識別します。個々のオブジェクトにルールを適用するには、キー名を指定します。そして、オブジェクト一式にルールを適用するには、それらの共通のプレフィックス (たとえば、「logs/」) を指定します。オブジェクトをアーカイブする移行アクションと、オブジェクトを削除する失効アクションを指定できます。期間については、その日を過ぎるとオブジェクトがアーカイブまたは削除される日付を、作成日 (たとえば、2015 年 1 月 31 日) または作成日からの日数 (たとえば 30 日) で指定します。異なるプレフィックスに複数のルールを作成することができます。
ストレージ分析と洞察
すべて開くS3 Storage Lens ダッシュボードは、ストレージについての回答が提供され得る 4 つの主要なタイプの質問を中心に構成されています。[概要] フィルターでは、全体的なストレージ使用状況とアクティビティの傾向に関連するトップレベルの質問を調べることができます。例としては、「全体的なバイト数とリクエスト数は時間の経過とともにどのくらいの速さで増加していますか?」という質問を挙げることができます。 [コスト最適化] フィルターを使用すると、ストレージコストの削減に関連する質問を調べることができます。例としては、「最新ではないバージョンの維持数を減らすことでコストを節約できますか?」という質問を挙げることができます。 また、[データ保護] と [アクセス管理] のフィルターを使えば、データの保護に関する質問に回答できます。例としては、「ストレージは偶発的または意図的な削除から保護されていますか?」という質問を挙げることができます。 最後に、[パフォーマンス] と [イベント] フィルターを使用して、ワークフローのパフォーマンスを向上させる方法を検討することができます。これらの各質問は、ドリルダウン分析につながる可能性のある調査の第 1 層を表しています。
デフォルトのダッシュボードはアカウント全体について自動的に提供されるように設定されており、追加のカスタムダッシュボードを作成して、AWS 組織、特定のリージョン、またはアカウント内のバケットに範囲を設定するオプションがあります。複数のカスタムダッシュボードを設定できます。これは、さまざまな内部チームを表すためにバケットでセグメント化するなど、ストレージ分析で論理的な分離が必要な場合に役立ちます。デフォルトでは、ダッシュボードは S3 Storage Lens の無料のメトリクスを受け取りますが、S3 Storage Lens の高度なメトリクスと推奨事項を受け取るようにアップグレードするオプションがあります (追加費用が発生します)。S3 Storage Lens の高度なメトリクスには、7 つの異なるオプションがあります。アクティビティメトリクス、高度なコスト最適化メトリクス、高度なデータ保護メトリクス、詳細なステータスコードメトリクス、プレフィックス集計、CloudWatch 公開、Storage Lens グループ集計です。さらに、ダッシュボードごとに、送信先バケットと暗号化タイプを指定する追加オプションを使用して、メトリクスのエクスポートを有効にできます。
S3 Storage Lens は、2 層のメトリクスでご利用いただけます。無料のメトリクスはデフォルトで有効になっており、すべての S3 顧客が追加料金なしで利用できます。S3 Storage Lens の高度なメトリクスと推奨事項の料金の詳細は、S3 料金ページでご確認いただけます。S3 Storage Lens の無料のメトリクスを使用すると、バケットレベルで 28 のメトリクスを受け取り、ダッシュボードで過去 14 日間の履歴データにアクセスできます。S3 Storage Lens の高度なメトリクスと推奨事項を使用すると、35 の追加のメトリック、プレフィックスレベルの集計、CloudWatch メトリックのサポート、S 3 Storage Lens グループを使用したカスタムオブジェクトメタデータのフィルター処理を利用でき、ダッシュボードで 15 か月分の履歴データにアクセスできます。
すぐに活用できるクエリ
すべて開くレプリケーション
すべて開くライフサイクル設定とレプリケーションの詳細については、S3 レプリケーションドキュメントを参照してください。
はい。S3 レプリケーションを使用すると、お客様は、同じまたは異なる AWS リージョン内の複数の送信先バケットにデータをレプリケートできます。設定するときは、既存のレプリケーション設定で新しい送信先バケットを指定するか、複数の送信先バケットを使用して新しいレプリケーション設定を作成するだけです。指定する新しい送信先ごとに、送信先バケットのストレージクラス、暗号化タイプ、レプリケーションメトリクスと通知、レプリケーション時間制御 (RTC)、およびその他のプロパティを柔軟に選択できます。
Q: S3 レプリケーションを使用して S3 バケット間の双方向レプリケーションを設定できますか?
S3 レプリケーションの料金の詳細については、 Amazon S3 料金表ページをご覧ください。
アクティブ/アクティブ構成では、S3 Multi-Region Access Points は、ネットワークの混雑状況やリクエスト側アプリケーションの位置などの要因を考慮して、AWS ネットワーク経由で最も近いデータコピーにリクエストを動的にルーティングします。S3 Multi-Region Access Points は、最も近い AWS ロケーションを介してリクエストをクライアントにルーティングし、その後にグローバルプライベート AWS ネットワークを介して S3 にルーティングします。どちらの構成でも、S3 Multi-Region Access Points を使用すると、シンプルなアプリケーションアーキテクチャを維持しながら、AWS のグローバルインフラストラクチャを活用できます。
S3 CRR と S3 Multi-Region Access Points は、連携して AWS のリージョン間でデータをレプリケートし、最も低いレイテンシーでレプリケートされたコピーにリクエストを自動的にルーティングする、補完的な機能です。S3 Multi-Region Access Points は、AWS リージョン間でリクエストを管理するのに役立ちます。CRR は、AWS リージョン間でデータを移動して、分離されたレプリカを作成することを可能にします。S3 Multi-Region Access Points と CRR を一緒に使用して、単一のグローバルエンドポイントによってアドレス可能な、レプリケートされたマルチリージョンデータセットを作成します。
S3 マルチリージョンアクセスポイントを使用して AWS 内でリクエストをルーティングする場合、S3 のリクエスト、ストレージ、データ転送、レプリケーションのスタンダード料金に加えて、処理された GB ごとに少額の GB 単位のデータルーティング料金を支払います。アプリケーションが AWS 外で実行され、インターネット経由で S3 にアクセスする場合、S3 マルチリージョンアクセスポイントは、リクエストを AWS エッジロケーションを経由し、グローバルなプライベート AWS ネットワークを介して、アクセスレイテンシーに基づいて最も近いデータのコピーに自動的にルーティングすることで、パフォーマンスを向上させます。インターネット経由のリクエストを高速化する際には、データルーティング料金と、インターネット高速化料金をお支払いいただきます。S3 Multi-Region Access Points のインターネット高速化の料金は、ソースクライアントが宛先 AWS リージョンと同じ場所にあるか、または異なる場所にあるかによって異なり、S3 データ転送の標準料金とは別に発生します。 S3 Multi-Region Access Points のフェイルオーバーコントロールを使用する際には、各リージョンの現在のルーティングコントロールステータスを表示し、フェイルオーバーを開始するためにルーティングコントロールの変更を送信するための標準 S3 API コストのみが請求されます。料金の詳細については、 Amazon S3 料金ページと 「データ転送」タブを参照してください。
はい、S3 Multi-Region Access Points の基盤となるバケットをリクエスタ支払いバケットとして設定できます。リクエスタ支払いでは、リクエストのコストやバケットと Multi-Region Access Point の両方に関連するデータ転送コストなど、エンドポイントの使用に関連するすべてのコストをリクエスタで支払います。一般的に、データを共有したいが、他のユーザーがデータにアクセスすることに伴う料金を発生させたくない場合、バケットをリクエスタ支払いバケットとして設定します。 一般的に、バケット所有者はバケットに関連するすべての Amazon S3 ストレージの料金を支払います。詳細については、S3 リクエスタ支払いをご覧ください。
S3 コンソールにはシンプルなガイド付きワークフローが用意されており、S3 でマルチリージョンストレージを実行するために必要なすべてを簡単な 3 つのステップですばやく設定できます。まず、Amazon S3 Multi-Region Access Point エンドポイントを作成し、レプリケートおよびフェイルオーバーする AWS リージョンを指定します。作成時にバケットを所有しているアカウント ID を入力することで、複数の AWS アカウントのバケットを新しい S3 Multi-Region Access Point に追加できます。次に、S3 Multi-Region Access Points エンドポイントの背後にある AWS リージョンと S3 バケットごとに、ルーティングステータスがアクティブかパッシブかを指定します。アクティブな AWS リージョンは S3 データリクエストのトラフィックを受け入れ、パッシブなリージョンにはフェイルオーバーが開始されるまでルーティングされません。3 番目に、S3 クロスリージョンレプリケーションルールを設定して、S3 内のデータをリージョンやアカウント間で同期させます。その後、AWS リージョン間でいつでも数分以内にフェイルオーバーを開始して、S3 データリクエストをシフトし、Amazon CloudWatch で新しいアクティブな AWS リージョンへの S3 トラフィックのシフトをモニタリングできます。または、AWS CloudFormation を使用して、マルチリージョンストレージの設定を自動化することもできます。S3 Multi-Region Access Points を含む、S3 上のマルチリージョンストレージの設定に必要なすべてのビルディングブロックは CloudFormation でサポートされているため、S3 コンソールの外部で、反復可能な設定プロセスを自動化できます。