Amazon S3 Glacier

问:Amazon Glacier 现在为什么称为 Amazon S3 Glacier?

长期以来,​客户都将我们的备份和存档存储服务 Amazon Glacier 视为 Amazon S3 的一个存储类。事实上,如今​ Amazon Glacier 中存储的很大比例的数据直接来自使用 S3 生命周期策略将不常用数据移动到 Amazon Glacier 的客户。现在,Amazon Glacier 正式成为 S3 的一部分,将称为 Amazon S3 Glacier (S3 Glacier)。所有现有 Glacier 直接 API 继续像以前一样工作,但现在更容易使用 S3 API 将数据存储在 S3 Glacier 存储类中。

问:Amazon S3 是否能将对象存档到费用更低的存储类?

可以,Amazon S3 让您能够将 Amazon S3 Glacier 的费用极低的存储服务用于数据存档。Amazon S3 Glacier 存储数据的费用低至每月每 GB 0.004 USD。为了保持低廉成本,同时满足各种数据检索需求,Amazon S3 Glacier 提供三种访问存档的选项,各自的检索时间从数分钟到数小时不等。存档使用案例的部分示例包括数字媒体档案、财务和医疗记录、原始基因组序列数据、长期数据库备份,以及依照法规必须保留的数据。

问:如何使用 Amazon S3 Glacier 存储类存储数据?

如果您的存储应无延迟地立即存档,或者您对何时将对象转换到 S3 Glacier 做出了无法通过 Amazon S3 生命周期策略表示的自定义业务决策,S3 PUT to Glacier 允许您使用 S3 API 将对象逐个上传到 S3 Glacier 存储类。没有任何转换延迟,并且由您控制转换时机。​如果您希望应用程序做出存储类决策而不必设置存储桶级别策略,这也是一个好选项。​

您可以根据对象的使用年限,利用生命周期规则自动将 Amazon S3 对象集存档到 S3 Glacier。使用 Amazon S3 管理控制台、AWS 开发工具包或 Amazon S3 API 来定义存档规则。规则将指定前缀和时间期限。前缀(如:“logs/”)识别服从此规格的数据对象。时间期限可指定在该数据对象创建多少天(如 180 天)或在某个日期后应将该数据对象存档。名称以指定前缀开头和超过指定时间期限的所有 S3 标准、S3 标准 – IA 或 S3 单区 – IA 对象都将存档到 S3 Glacier。要检索存储在 S3 Glacier 中的 Amazon S3 数据,您需要通过 Amazon S3 API 或管理控制台启动检索任务。检索任务完成后,您可以通过 Amazon S3 GET 对象请求来访问这些数据。

有关将生命周期规则用于存档到 S3 Glacier 的更多信息,请参阅“Amazon S3 开发人员指南”中的对象存档主题。

问:是否可以使用 Amazon S3 API 或管理控制台来列出已存档到 Amazon S3 Glacier 的对象?

可以,与 Amazon S3 的其他存储类(S3 标准、S3 标准 – IA 和 S3 单区 – IA)类似,使用 Amazon S3 API 或管理控制台存储的 S3 Glacier 对象具有关联的用户定义名称。您可以使用 S3 LIST API 或 S3 清单报告实时获取所有 Amazon S3 对象名称的列表,包括使用 S3 Glacier 存储类进行存储的对象。

问:是否可以使用 Amazon Glacier 直接 API 来访问已存档到 Amazon S3 Glacier 的对象?

由于 Amazon S3 维护着用户定义对象名称和 Amazon S3 Glacier 系统定义标识符之间的映射,所以使用 S3 Glacier 存储类存储的 Amazon S3 对象只能通过 Amazon S3 API 或 Amazon S3 管理控制台来访问。

问:如何检索存档在 Amazon S3 Glacier 中的对象以及在对象还原时是否会通知我?

要检索存储在 S3 Glacier 存储类中的 Amazon S3 数据,您需要使用 Amazon S3 API 或 Amazon S3 管理控制台启动检索请求。检索请求会在 S3 RRS 或 S3 标准 – IA 存储类中创建数据的临时副本,同时已存档数据将原封不动地保留在 S3 Glacier 中。您可以以天为单位指定将临时副本存储在 S3 中的时间。然后,可以通过 Amazon S3 GET 请求从 S3 中访问已存档对象的临时副本。

通过还原通知,现在可在从 S3 Glacier 成功还原对象并且临时副本可供您使用时使用 S3 事件通知通知您。存储桶拥有者(或 IAM 策略允许的其他人)可以安排将通知发送到 Amazon Simple Queue Service (SQS)Amazon Simple Notification Service (SNS)。通知也可传送到 AWS Lambda 以由 Lambda 函数进行处理。

问:还原 S3 Glacier 中存档的对象需要多长时间,以及是否可以将正在处理中的请求升级到更快的还原速度?

处理检索任务时,Amazon S3 首先从 S3 Glacier 检索请求的数据,然后在 S3 中创建所请求数据的临时副本(通常需要数分钟)。请求的访问时间取决于您选择的检索选项:加急、标准或批量检索。除了最大的对象 (250MB+) 以外,对于使用加急检索方式访问的所有数据,通常在 1-5 分钟内即可使用。使用标准检索方式检索的对象通常在 3-5 小时内完成。批量检索通常在 5-12 小时内完成。有关 S3 Glacier 检索选项的更多信息,请参阅 S3 Glacier 常见问题

S3 还原速度升级是在急切需要访问数据时将正在进行的还原替代为更快的还原层。 使用 S3 还原速度升级的方法是使用新的“层”任务参数向同一对象发出另一个还原请求。​在发出 S3 还原速度升级请求时,您必须选择比正在进行的还原更快的还原速度。对象过期时间​等其他参数不会更改。​在还原完成之后,可以更新对象过期时间。​需要支付每个还原请求的费用和更快的还原层的每 GB 检索费用。​例如,如果您发出了批量层还原请求,然后在加速层上发出了 S3 还原速度升级请求以替代正在进行的批量层还原,则需要支付两个请求的费用和加速层的每 GB 检索费用。

问:将对象存档在 Amazon S3 Glacier 中会如何收费?

Amazon S3 Glacier 存储类根据每月存储容量以及转换到 Amazon S3 Glacier 的生命周期转换请求数量定价。存档于 Amazon S3 Glacier 上的对象最短可存储 90 天,同时未满 90 天就被删除的对象所产生的按比例支付的费用等于按剩余天数支付的存储费用。请查看 Amazon S3 定价页面,了解当前定价信息。

问:将 Amazon S3 对象存档到 Amazon S3 Glacier 时,如何计算存储费用?

每月计费的存储容量基于全月内使用的平均存储量,以每月千兆字节计(即:GB 月)。Amazon S3 计算对象大小的方式为:您存储的数据大小,加上额外 32KB 的 Amazon S3 Glacier 数据,再加上额外 8KB 的 S3 标准存储类数据。对于每个对象,Amazon S3 Glacier 需要额外 32KB 的数据用于 Glacier 的索引和元数据,以便您能够识别和检索数据。Amazon S3 需要 8KB 存储空间来存储和维护已存档到 Amazon S# Glacier 的对象的用户定义名称和元数据。这样一来,您便可以使用 Amazon S3 LIST API 或 S3 清单报告实时获取所有 Amazon S3 对象的列表,包括使用 Amazon S3 Glacier 存储类存储的对象。例如,如果您存档了 100000 个数据对象且每个数据对象均为 1GB,那么您的可计费存储应为:

每个对象 1.000032GB x 100000 个对象 = 100003.2GB Amazon S3 Glacier 存储。
每个数据对象 0.000008 GB 字节 x 100000 个数据对象 = 0.8GB Amazon S3 标准存储。

费用根据 Amazon S3 定价页面上您所在 AWS 区域的当前费率计算得出。

问:可以免费从 Amazon S3 Glacier 中检索多少数据?

您可以使用 AWS 免费套餐每月免费检索 10GB 的 Amazon S3 Glacier 数据。免费套餐限额适用于 Amazon S3 Glacier 标准检索,可在当月任何时候使用。

问:删除存储在 Amazon S3 Glacier 中不足 90 天的对象时,如何收费?

Amazon S3 Glacier 经过设计,可用于将数据保留数月、数年甚至数十年的使用案例。如果要删除的对象已存档在 Amazon S3 Glacier 中 90 天或以上,则可以免费删除。如果要删除或覆盖存档在 Amazon S3 Glacier 中不足 90 天的对象,则需要交纳提早删除费。该项费用是按比例收取的。如果您在上传 30 天后删除 1GB 数据,将需要支付后面 60 天的 Amazon S3 Glacier 存储的提早删除费。如果您 60 天后删除 1GB 数据,则需要支付 30 天的 Amazon S3 Glacier 存储费。

问:从 Amazon S3 Glacier 检索数据如何收费?

从 Amazon S3 Glacier 检索数据的方式有三种:加急、标准和批量检索。每种方式具有不同的每 GB 检索费和每存档请求费(即请求一个存档计为一个请求)。有关不同 AWS 区域的 S3 Glacier 定价的详细信息,请访问 Amazon S3 Glacier 定价页面。

随时查询

问:什么是“随时查询”功能?

Amazon S3 允许客户对存储数据运行复杂的查询,无需将数据移动到独立的分析平台。随时查询 Amazon S3 数据的功能可以大大提升性能,降低利用 S3 作为数据湖的分析解决方案的成本。S3 提供多种随时查询选项,包括 S3 Select、Amazon Athena 和 Amazon Redshift Spectrum,使您能够从中选择最适合您的使用案例的选项。您甚至可以将 Amazon S3 Select 与 AWS Lambda 搭配使用,来构建无服务器应用程序,此类应用程序可有效利用 S3 Select 提供的随时处理功能。

问:什么是 S3 Select?

S3 Select 是一项 Amazon S3 功能,可让您使用简单的 SQL 表达式轻松检索对象内容中的具体数据,而无需检索整个对象。您可以使用 S3 Select 通过 SQL 子句(如 SELECT 和 WHERE)从以 CSV、JSON 或 Apache Parquet 格式存储的对象中检索一部分数据。此方法也适用于通过 GZIP 或 BZIP2 压缩的对象(仅对于 CSV 和 JSON 对象)和服务器端加密对象。

问:S3 Select 可以用来做什么?

您可以使用 S3 Select,利用简单的 SQL 语句检索对象内较小且具有针对性的数据集。您可以将 S3 Select 与 AWS Lambda 搭配使用,来构建无服务器应用程序,此类应用程序可使用 S3 Select 有效且轻松地检索 Amazon S3 中的数据,而不是检索和处理整个对象。您也可以将 S3 Select 与大数据框架(例如 Presto、Apache Hive 和 Apache Spark)结合使用,来扫描和筛选 Amazon S3 中的数据。

问:为什么应使用 S3 Select?

S3 Select 提供了一种使用 SQL 语句检索 Amazon S3 存储对象内容中的具体数据的新方法,无需检索整个对象。S3 Select 简化了扫描对象内容并将其筛选成更小且具有针对性的数据集的流程,并将这一性能提升高达 400%。借助 S3 Select,您还可以对 Amazon S3 中的日志文件执行操作调查,无需操作或管理计算集群。

问:什么是 Amazon Athena?

Amazon Athena 是一项交互式查询服务,让您能够轻松使用标准 SQL 查询分析 Amazon S3 中的数据。Athena 是无服务器式服务,因此您无需设置或管理基础设施即可马上开始分析数据。您甚至无需将数据加载到 Athena 中,因为它可以直接处理所有 S3 存储类中存储的数据。要开始使用,您只需登录到 Athena 管理控制台,定义架构,然后开始查询即可。Amazon Athena 使用 Presto 并为标准 SQL 提供了完整的支持,可处理 CSV、JSON、ORC、Apache Parquet 和 Avro 等各种标准数据格式。Athena 不仅是快速、临时查询的理想选择,可与 Amazon QuickSight 集成以轻松实现可视化,而且还能处理复杂的分析,包括大型联接、窗口函数和数组。

问:什么是 Amazon Redshift Spectrum?

Amazon Redshift Spectrum 是 Amazon Redshift 的一项功能,借助这项功能,您可以对 Amazon S3 中的 EB 级的数据运行查询,而无需进行加载或 ETL 操作。当您发布查询时,查询会进入 Amazon Redshift SQL 终端节点,该终端节点会生成查询方案并对其进行优化。Amazon Redshift 会确定哪些数据存储在本地以及哪些数据存储在 Amazon S3 中,然后生成一种方案来尽可能减少需要读取的 Amazon S3 数据量,从共享资源池中请求 Redshift Spectrum 工作线程来读取和处理 Amazon S3 中的数据。

Redshift Spectrum 可根据需要扩展到数千个实例,因此,无论数据大小如何,查询都会快速运行。而且,您可以像现在针对 Amazon Redshift 查询所做的一样,针对 Amazon S3 数据使用完全相同的 SQL,并可使用相同的 BI 工具连接到同一 Amazon Redshift 终端节点。Redshift Spectrum 可以实现单独的存储和计算,从而让您能够逐一单独扩展。您可以根据需要设置多个 Amazon Redshift 群集来查询 Amazon S3 数据湖,从而提供高可用性和无限制的并发度。借助 Redshift Spectrum,您可以灵活地将数据以您想要的格式存储在您想要的位置,并在需要时即时可用。

事件通知

问:什么是 Amazon S3 事件通知?

Amazon S3 事件通知可在响应 Amazon S3 中的操作(如 PUT、POST、COPY 或 DELETE)时发送。通知消息可以通过 Amazon SNSAmazon SQS 发送,也可以直接发送到 AWS Lambda

问:我可以用 Amazon S3 事件通知做什么?

Amazon S3 事件通知可使您运行工作流、发送提醒或执行其他操作来响应 S3 中存储对象的更改。您可以使用 S3 事件通知来设置触发器以执行各种操作,包括在上传媒体文件时对其执行转码、在数据文件可用时对其进行处理以及将 S3 对象与其他数据存储同步。您还可以根据对象名前缀和后缀来设置事件通知。例如,您可以选择接收以“images/”开头的对象名的通知。

问:Amazon S3 事件通知中包含什么?

有关 Amazon S3 事件通知消息中所含信息的详细描述,请参考 Amazon S3 开发人员指南中的配置 Amazon S3 事件通知主题。

问:如何设置 Amazon S3 事件通知?

关于如何配置事件通知的详细描述,请参考 Amazon S3 开发人员指南中的配置 Amazon S3 事件通知主题。您可以在 Amazon SNS 文档Amazon SQS 文档中了解有关 AWS 消息收发服务的更多信息。

问:使用 Amazon S3 事件通知的费用是多少?

使用 Amazon S3 事件通知,无需支付额外费用。发送事件通知时,您只需为 Amazon SNS 或 Amazon SQS 的使用付费,或只需承担运行 AWS Lambda 函数的费用。要查看这些服务的定价详细信息,请访问 Amazon SNSAmazon SQSAWS Lambda 定价页面。

Amazon S3 Transfer Acceleration

问:什么是 S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration 可在客户与您的 Amazon S3 存储桶之间实现快速、轻松、安全的远距离文件传输。S3 Transfer Acceleration 利用了 Amazon CloudFront 遍布全球的 AWS 边缘站点。数据到达某个 AWS 边缘站点时,即被通过优化的网络路径路由至您的 Amazon S3 存储桶。

问:如何开始使用 S3 Transfer Acceleration?

要开始使用 S3 Transfer Acceleration,请使用 Amazon S3 控制台、Amazon S3 API 或 AWS CLI 在 S3 存储桶上启用 S3 Transfer Acceleration。启用 S3 Transfer Acceleration 后,您可以将 Amazon S3 PUT 和 GET 请求指向 s3-accelerate 终端节点的域名。您的数据传输应用程序必须使用以下两种终端节点类型中的一种,以访问用于更快的数据传输的存储桶:“双堆栈”终端节点的 .s3-accelerate.amazonaws.com 或 .s3-accelerate.dualstack.amazonaws.com。如果您想要使用标准数据传输,可以继续使用常规终端节点。

对于支持 S3 Transfer Acceleration 的存储桶有一定限制。有关详情,请参考 Amazon S3 开发人员指南

问:S3 Transfer Acceleration 有多快?

S3 Transfer Acceleration 可帮助您充分利用带宽,最大限度地降低距离对吞吐量的影响。无论客户位于何方,S3 Transfer Acceleration 都能确保数据快速、稳定地传输到 Amazon S3。加速的幅度主要取决于您的可用带宽、源和目标之间的距离以及网络路径上的数据包丢失率。通常,源和目标之间的距离越远、可用带宽越多和/或对象大小越大,加速的幅度越大。

一位客户的测量结果是:从分布在美国、欧洲和部分亚洲地区的全球用户群向亚太地区(悉尼)的存储桶摄入 300MB 的文件,平均传输时间可以缩短 50%。而另一位客户观察到,从东南亚和澳大利亚的用户向美国东部(弗吉尼亚北部)的 S3 存储桶上传 250MB 文件(分成 50MB 大小的几个部分)时,性能提升超过 500%。

试用速度比较工具,预览您所在位置能获得的性能提升!

问:谁应该使用 S3 Transfer Acceleration?

S3 Transfer Acceleration 旨在优化从世界各地向 S3 存储桶传输数据的速度。如果您从多个分散的地点向一个集中的存储桶上传数据,或者如果您经常需要跨各大洲传输 GB 或 TB 级的数据,使用 S3 Transfer Acceleration 节约的数据传输时间可以达到数小时或者数天。

问:S3 Transfer Acceleration 的安全性如何?

S3 Transfer Acceleration 的安全性与 Amazon S3 的常规传输相同。同样支持所有 Amazon S3 安全功能,例如基于客户端的 IP 地址来限制访问。S3 Transfer Acceleration 与客户端通过标准 TCP 通信,无需更改防火墙。AWS 边缘站点不会存储任何数据。

问:如果 S3 Transfer Acceleration 的传输速度不及常规 Amazon S3,怎么办?

每当您使用 S3 Transfer Acceleration 上传对象时,我们都会检查 S3 Transfer Acceleration 的传输速度是否有可能比常规 Amazon S3 传输更快。在将同一对象传输到同一目标 AWS 区域时,如果我们确定 S3 Transfer Acceleration 的传输速度不会快于常规 Amazon S3,那么对于此次使用 S3 Transfer Acceleration 进行的传输,我们将不会收取任何费用,并且可能会绕过该次上传的 S3 Transfer Acceleration 系统。

问:我可以对分段上传使用 S3 Transfer Acceleration 吗?

可以,S3 Transfer Acceleration 支持所有存储桶级别的功能,包括分段上传。

问:在 S3 Transfer Acceleration 和 Amazon CloudFront 的 PUT/POST 之间,我应该如何选择?

S3 Transfer Acceleration 优化了 TCP 协议,并在客户端与 S3 存储桶之间添加了更多智能,因此如果需要更高的吞吐量,S3 Transfer Acceleration 就是更好的选择。如果您的对象小于 1GB,或者如果数据集小于 1GB,则应该考虑使用 Amazon CloudFront 的 PUT/POST 命令来优化性能。

问:在 S3 Transfer Acceleration 和 AWS Snow Family(Snowball、Snowball Edge 和 Snowmobile)之间,我应该如何选择?

要一次性移动大批量数据,AWS Snow Family 就是客户的理想选择。AWS Snowball 的周转时间通常为 5-7 天。一般来说,通过一条充分利用的 1Gbps 线路,S3 Transfer Acceleration 在同样的时间期限内最多可以传输 75TB 数据。总之,如果通过 Internet 传输所需的时间超过一个星期,或者如果需要反复传输任务且可用带宽超过 25Mbps,S3 Transfer Acceleration 就是不错的选择。另一个选择是同时使用两者:利用一个 AWS Snowball(或一系列 AWS Snowball)执行最初繁重的传输任务,然后利用 S3 Transfer Acceleration 传输递增的日常变更。

问:可以使用 S3 Transfer Acceleration 作为 AWS Direct Connect 的补充吗?

如果客户拥有专用联网要求或者能访问 AWS Direct Connect 交换点,AWS Direct Connect 就是不错的选择。S3 Transfer Acceleration 最适合从分散的客户位置通过公共 Internet 提交数据,或者是由于网络条件不断变化而造成吞吐量较低的情况。有些 AWS Direct Connect 客户使用 S3 Transfer Acceleration 帮助远程办公室传输数据,因为远程办公室的 Internet 性能可能会比较差。

问:可以使用 S3 Transfer Acceleration 作为 AWS Storage Gateway 或第三方网关的补充吗?

如果您能够在第三方网关中配置存储桶目标以使用 S3 Transfer Acceleration 终端节点域名,则会看到相应优势。

请访问 Storage Gateway 常见问题的“文件”这一部分,详细了解 AWS 实施。

问:可以使用 S3 Transfer Acceleration 作为第三方集成软件的补充吗?

是。直接连接到 Amazon S3 的软件包在将任务发送到 Amazon S3 时可以利用 S3 Transfer Acceleration。

了解有关存储合作伙伴解决方案的更多信息 »

问:S3 Transfer Acceleration 是否符合 HIPAA 要求?

符合,AWS 已对其 HIPAA 合规性计划进行扩展,其中已将 Amazon S3 Transfer Acceleration 作为一项符合 HIPAA 要求的服务包括进来。如果您已与 AWS 签订商业合伙协议 (BAA),则可以使用 Amazon S3 Transfer Acceleration 在您的客户端和 Amazon S3 存储桶之间快速、轻松且安全地远距离传输文件,包括受保护健康信息 (PHI)。

了解有关 HIPAA 合规性的更多信息 »

存储管理

S3 对象标记

问:什么是 S3 对象标签?

S3 对象标签是适用于 S3 对象的键值对,可在对象的生命周期内随时创建、更新或删除这些标签。借助这些标签,您将能够创建 Identity and Access Management (IAM) 策略,设置 S3 生命周期策略以及自定义存储指标。然后,可以使用这些对象级标签管理后台中存储类别与过期对象之间的转换。

问:如何对对象应用对象标签?

上传新对象时,您可以向其添加标签,也可以向现有对象添加标签。每个 S3 对象最多可添加 10 个标签,您可以使用 AWS 管理控制台、REST API、AWS CLI 或 AWS SDK 添加对象标签。

问:为何应使用对象标签?

借助对象标签这一工具,您可以简化 S3 存储的管理。使用此工具能够在对象的生命周期内随时创建、更新和删除标签,从而使您的存储能够满足您业务的需求。借助这些标签,您可以控制对标记有特殊键值对的对象的访问,从而可以进一步保护机密数据,使之仅供精选组或用户访问。 对象标签也可用于标记属于特定对象或业务单元的对象,对象标签可与 S3 生命周期策略结合使用来管理到其他存储类(S3 标准 – IA、S3 单区 – IA 和 S3 Glacier)的转换或与 S3 跨区域复制功能结合使用来在 AWS 区域之间选择性地复制数据。

问:如何更新对象上的对象标签?

在 S3 对象的生命周期内,您可以随时更改对象标签,您可以使用 AWS 管理控制台、REST API、AWS CLI 或 AWS 开发工具包更改对象标签。请注意,在 AWS 管理控制台之外进行的所有更改均是对整个标签集合进行的更改。如果某个特定对象关联了 5 个标签,您要为其添加第 6 个标签,那么您需要在该请求中包括最初的 5 个标签。

问:如果使用跨区域复制,对象标签也会复制吗?

使用跨区域复制可以跨 AWS 区域复制对象标签。已启用跨区域复制的用户需要具有新的权限才能复制标签。有关设置跨区域复制的更多信息,请访问 Amazon S3 开发人员指南中的如何设置跨区域复制

问:对象标签的费用是多少?

对象标签根据标签的数量和添加标签的请求费用定价。添加和更新对象标签的相关请求的价格与现有请求的价格相同。有关更多信息,请访问 Amazon S3 定价页面。

存储类分析

问:什么是存储类分析?

借助存储类分析,您可以分析存储访问模式并将相应数据传输给正确的存储类。这一新的 S3 功能可自动识别不频繁访问模式,从而帮助您将存储转换为 S3 标准 – IA。您可以配置存储类分析策略来监视整个存储桶、前缀或对象标签。在观察到不频繁访问模式后,您可以根据结果轻松地创建新的 S3 生命周期策略。存储类分析还以可视化方式在 AWS 管理控制台上提供您每天的存储使用情况,您可将这些分析结果导出至 S3 存储桶,以便使用所选 Amazon QuickSight 等商业智能工具进行分析。

问:如何开始使用存储类分析?

您可以使用 AWS 管理控制台或 S3 PUT 存储桶分析 API 配置存储类分析策略,以识别不频繁访问的存储,这些存储可转换到 S3 标准 – IA 或 S3 单区 – IA 存储类或存档到 S3 Glacier 存储类。您可以导航至 S3 控制台中的“管理”选项卡来管理存储类分析、S3 清单和 S3 CloudWatch 指标。

问:使用存储类分析时,如何收费?

请参阅 Amazon S3 定价页面,获取有关存储类分析定价的一般信息。

问:存储类分析多久更新一次?

存储类分析每日将在 S3 管理控制台中进行更新。此外,您可以配置存储类分析以将报告导出到您选择的 S3 存储桶。

S3 清单

问:什么是 S3 清单?

S3 清单报告可为 Amazon S3 的同步列表 API 提供预定的替代方案。您可以通过配置 S3 清单,针对 S3 存储桶或前缀每日或每周提供一次您的对象及其对应元数据的 CSV、ORC 或 Parquet 文件输出。您可以使用 S3 清单简化并加快业务工作流和大数据作业。您还可以使用 S3 清单验证对象的加密和复制状态是否符合业务、合规性和法规要求。 

问:如何开始使用 S3 清单?

您可以使用 AWS 管理控制台或 PUT Bucket Inventory API,为您 S3 存储桶中的所有对象或某个共享前缀下的对象子集配置每日或每周清单报告。在配置过程中,您可以指定 S3 清单报告的目标 S3 存储桶、输出文件的格式(CSV、ORC 或 Parquet)以及您的业务应用程序所需的具体对象元数据,例如:对象名称、大小、上次修改日期、存储类、版本 ID、删除标记、非当前版本标记、分段上传标记、复制状态或加密状态。

问:S3 清单报告文件是否可以进行加密?

是的,您可以通过配置对使用 S3 清单编写的所有文件进行 SSE-S3 或 SSE-KMS 加密。有关更多信息,请参阅用户指南

问:如何使用 S3 清单?

您可以将 S3 清单用作应用程序工作流或大数据任务的直接输入。您还可以使用 Amazon Athena、Amazon Redshift Spectrum 及其他工具(例如,Presto、Hive 和 Spark)通过标准 SQL 语言查询 S3 清单。

了解有关使用 Athena 查询 S3 清单的更多信息 »

问:使用 S3 清单时,如何收费?

请参阅 Amazon S3 定价页面,了解 S3 清单定价的信息。配置 SSE-KMS 加密后,将产生 KMS 加密费,请参阅 KMS 定价页面了解详细信息。

S3 批量操作

问:什么是 S3 批量操作?

S3 批量操作是客户可用于跨存储在 Amazon S3 中的许多对象大规模自动执行、管理和审核特定 S3 API 请求或 AWS Lambda 函数的功能。客户可以使用 S3 批量操作来自动替换 S3 对象上的标签集,更新 S3 对象的访问控制列表 (ACL),在存储桶之间复制对象,启动从 Amazon Glacier 到其他 S3 存储类的还原,或使用 AWS Lambda 函数执行自定义操作。

使用 S3 批量操作,只需在 S3 管理控制台或单个 API 请求中单击几次,即可更改数十亿个对象,而不必为存储管理应用程序编写自定义应用程序代码或运行计算集群。S3 批量操作不仅跨许多对象管理存储操作,还管理重试、显示进度、提供通知、提供完成报告并将在您的目标对象上执行的所有操作的事件发送到 AWS CloudTrail。可从 S3 管理控制台或通过 AWS CLI 和开发工具包来使用 S3 批量操作。在此处注册 S3 批量操作预览版。

问:如何开始使用 S3 批量操作?

您可以通过进入 S3 管理控制台或使用 AWS CLI 或开发工具包来开始使用 S3 批量操作创建第一个 S3 批量操作任务。S3 批量操作任务包括要处理的目标对象的列表和要执行的操作的类型。首先选择 S3 清单报告或提供您自己的、S3 批量操作要处理的目标对象的自定义列表。S3 清单报告是列出了 S3 存储桶或前缀中存储的所有对象的文件。接下来,从 S3 批量操作支持的一组操作中进行选择,例如替换标签集、更改 ACL、将存储从一个存储桶复制到另一个存储桶或启动从 S3 Glacier 到其他 S3 存储类的还原。然后,您可以使用特定参数自定义 ​S3 批量操作任务,例如标签值、ACL 被授权者或还原持续时间。为了进一步自定义存储操作,您可以编写自己的 AWS Lambda 函数并用 S3 批量操作调用该代码。

在创建 S3 批量操作任务后,该任务将处理您的对象列表、等待确认(可选),然后开始执行您指定的操作。您可以通过编程方式或通过 S3 控制台查看任务进度、接收完成通知并查看列出已对存储所做更改明细的完成报告。如果您有兴趣了解有关 S3 批量操作的更多信息,请转到 Amazon S3 功能页面

问:如何管理 S3 批量操作任务? 如何确定其优先级?

您可以通过 S3 管理控制台或使用 AWS API、CLI 或开发工具包来管理 S3 批量操作任务。通过在控制台中选择 AWS 区域或使用 ListJobs 请求,您将能够查看每个 AWS 区域中按任务状态筛选的任务列表(每个请求最多 1000 个任务)。可以使用这些列表查看哪些任务处于活动状态、哪些任务已完成或哪些任务正在等待执行。如果其中某个任务比其他任务更重要或时间更紧迫,则可将其优先级更新为更高级别,以优先执行该任务。要取消任何任务,请使用 CancelJob 请求或在控制台中选择该任务并单击“取消”。

要查看任何活动任务的进度,请使用 DescribeJob 请求或通过 S3 管理控制台单击该任务。选择一个任务后,您将看到该任务的状态、已成功完成的操作数、出错的操作数、剩余操作数以及完成百分比。也可以使用通知来跟踪任务开始时间和完成时间。

S3 对象锁定

问:什么是 Amazon S3 对象锁定?

Amazon S3 对象锁定是 Amazon S3 的一项新功能,可以在客户定义的保留期内阻止删除对象版本,让您能够通过实施保留策略来进一步保护数据或满足监管要求。您可将工作负载从现有“一次写入,多次读取”(WORM) 系统迁移到 Amazon S3,并在对象级别或存储桶级别配置 S3 对象锁定,防止在预定义的保留到期日期或依法保留日期之前删除对象版本。无论对象在哪个存储类中,S3 对象锁定保护都将保留,并且会在存储类之间的整个 S3 生命周期转换期间保留。

问:为什么应该使用 Amazon S3 对象锁定?

仅当法规要求规定您的数据必须能够防蠕虫时,或者您希望在 Amazon S3 中为数据额外添加一层保护时,才应使用 S3 对象锁定。S3 对象锁定可以帮助您满足规定数据应以不可变格式存储的法规要求,还可保护 Amazon S3 中的数据使其免遭意外或恶意删除。

问:Amazon S3 对象锁定的工作原理是什么?

Amazon S3 对象锁定在指定保留期内禁止删除对象。配合可防止对象被覆盖的 S3 版本控制,您将能够确保对象在应用 WORM 保护时始终保持不变。可通过使用 AWS SDK、CLI、REST API 或 S3 管理控制台为对象分配保留到期日期或依法保留日期来应用 WORM 保护。可在 PUT 请求内应用保留设置,或在创建对象后对现有对象应用这些设置。

“保留到期日期”定义对象将保持不变的时间长度。为对象分配“保留到期日期”后,在保留到期日期之前将无法修改或删除该对象。如果用户在对象的“保留到期日期”之前尝试删除该对象,操作将被拒绝。

S3 对象锁定可以在两种模式之一中配置。在监管模式中部署时,具有特定 IAM 权限的 AWS 账户可以从对象上移除 WORM 保护。如果您需要更强的不变性以遵守法规,可以使用合规模式。在合规模式中,任何用户都不能移除 WORM 保护,包括根账户。

或者,您也可以通过对对象应用依法保留来使该对象不可变。依法保留会对对象施加无限期的 S3 对象锁定保护,该保护将一直保留到它被明确删除为止。为了施加和删除依法保留,您的 AWS 账户必须拥有 PutObjectLegalHold 操作的写入权限。依法保留可以应用于启用了 S3 对象锁定的存储桶中的任何对象,无论该对象当前是否在 WORM 保护的保留期内。

问:哪些 AWS 电子存储服务已基于金融服务法规进行了评估?

对于金融服务行业中的客户,S3 对象锁定为必须以不可删除且不可重写的格式保留记录以满足 SEC Rule 17a-4(f)、FINRA Rule 4511 或 CFTC Regulation 1.31 的法规要求的证券经纪商提供了附加支持。您可以轻松地指定记录保留​时间范围来以原始形式将法规存档保留所需的一段时间,还可以实施依法保留以无限期地保留数据,直到撤销保留。

问:哪些 AWS 文档支持有关通知监管机构的 SEC 17a-4(f)(2)(i) 和 CFTC 1.31(c) 要求?

在使用 Amazon S3 进行电子存储之前,向监管机构或所选的“指定审查机关 (DEA)”发送通知,同时提供一份“Cohasset 评估”副本。针对这些要求,AWS 不可作为指定的第三方。请务必选择 D3P,并将此信息添加到发送给 DEA 的通知中。

S3 CloudWatch 指标

问:如何开始使用 S3 CloudWatch 指标?

使用 AWS 管理控制台,可在 1 分钟内为您的 S3 存储桶生成 CloudWatch 请求指标,或使用前缀或对象标签配置指标的筛选条件。此外,还可以通过调用 S3 PUT Bucket Metrics API 来启用 S3 存储指标的发布并对其进行配置。 CloudWatch 请求指标在启用后的 15 分钟内即可在 CloudWatch 中使用。CloudWatch 存储指标默认情况下针对所有存储桶启用,且每天报告一次。

问:我能否使 S3 CloudWatch 请求指标符合我的应用程序或企业组织的需求?

能,您可以配置 S3 CloudWatch 请求指标,使之生成有关您 S3 存储桶的指标,或使用前缀或对象标签配置指标的筛选条件。

问:我可以对我的存储指标设置哪些警报?

您可以使用 CloudWatch 对任何存储指标数量、计时器或等级设置阈值,当值达到此阈值时,就触发相应操作。例如,您对 4xx 错误响应的百分比设置一个阈值,当值超出此阈值至少 3 个数据点时,就触发 CloudWatch 警报以提醒开发运营工程师。

问:使用 S3 CloudWatch 指标时,如何收费?

CloudWatch 存储指标免费提供。CloudWatch 请求指标根据 Amazon CloudWatch 的自定义指标定价。请参阅 Amazon CloudWatch 定价页面,获取有关 S3 CloudWatch 指标定价的一般信息。

S3 生命周期管理

问:什么是 S3 生命周期管理?

S3 生命周期管理可以通过预定义的策略定义对象的生命周期,并降低您的存储成本。您可以设置生命周期转换策略,以根据数据的使用年限自动将存储在 S3 标准存储类中的对象迁移到 S3 标准 – IA、S3 单区 – IA 和/或 S3 Glacier 存储类。基于对象的使用年限,您还可以设置生命周期过期策略,将对象自动移除。您可以设置分段上传过期策略,根据上传的存储时间,使未完成的分段上传过期。

问:如何制定 S3 生命周期管理策略?

您可以在 AWS 管理控制台、S3 REST API、AWS 开发工具包或 AWS 命令行界面 (CLI) 中设置和管理生命周期策略。您可以在前缀或存储桶级别指定策略。

问:使用 S3 生命周期管理如何收费?

生命周期策略的制定和应用无需额外费用。根据生命周期规则,当对象符合转移条件时,每个对象的转移请求都需付费。有关定价信息,请参阅 S3 定价页面。

问:生命周期管理策略有什么作用?

随着数据的不断成熟,它的重要性和价值会不断降低,并且/或者需遵循合规性要求。Amazon S3 包含一个丰富的策略库,可帮助您自动执行存储类间的数据迁移流程。例如,您可以进行设置,让不频繁访问的对象在一段时间后移动到较低费用的存储类(如 S3 标准 – IA 或 S3 单区 – IA)。再过一段时间后,可以将这些对象移动到 Amazon S3 Glacier 中以进行存档并满足合规性要求。如果策略允许,您还可以指定用于对象删除的生命周期策略。这些规则可以无形地降低存储成本并简化管理工作。这些策略还包含出色的管理实践,可移除不再需要的对象和属性,从而控制成本并优化性能。

问:如何利用 Amazon 3 生命周期管理来帮助降低 Amazon S3 存储成本?

利用 Amazon S3 生命周期策略,您可以将对象配置为从 S3 标准存储类迁移到 S3 标准 – IA 或 S3 单区 – IA 并/或存档到 S3 Glacier。您还可以指定一个 S3 生命周期策略,在特定时间段后删除对象。您可以利用此策略驱动的自动化操作来快速而轻松地降低存储成本并节省时间。在每个规则中,您都可以指定前缀、时间段、转移到 S3 标准 – IA、S3 单区 – IA 或 S3 Glacier 和/或过期日期。例如,您可以创建一个规则,规定将带有常见前缀“logs/”且创建后已有 30 天的所有对象存档到 S3 Glacier,并且这些对象将于创建之日起的 365 天后失效。您还可以创建单独的规则,规定仅带有前缀“backups/”且已创建 90 天的所有对象将失效。S3 生命周期策略对现有的和新的 S3 对象都适用,可帮助您针对 S3 中存储的所有当前数据和任何新数据优化存储、最大限度地节省成本,而无需耗时的手动数据检查和迁移。在生命周期规则内,前缀字段用于识别服从该规则的数据对象。要将规则应用于单个数据对象,请指定键名称。要将规则应用于一组数据对象,请指定它们的共同前缀(例如“logs/”)。您可以指定迁移操作和过期操作以存档或删除数据对象。关于时间期限,您可以指定一个创建日期(如 2015 年 1 月 31 日)或自创建之日算起的天数(如 30 天),以便在此日期或超过此天数后将数据对象存档或删除。您可为不同前缀创建多条规则。

问:如何将对象配置为在特定时间段之后删除?

您可以设置 S3 生命周期过期策略,在指定天数之后将对象从存储桶中删除。您可以通过应用于存储桶的生命周期配置策略,为位于存储桶中的对象集定义过期规则。

了解有关 S3 生命周期过期策略的更多信息 »

问:为什么要使用 S3 生命周期策略让未完成的分段上传过期?

使用 S3 生命周期策略让未完成的分段上传过期,可通过限制未完成的分段上传的存储时间,帮助您节省成本。例如,如果您的应用程序上传了若干分段对象部分,但从未提交,那么您仍然需要为其存储付费。此策略可在预定义的天数后自动删除未完成的分段上传及其相关存储,从而降低您的 S3 存储费用。

了解有关使用 S3 生命周期让未完成的分段上传过期的更多信息 »

跨区域复制

问:什么是 Amazon S3 跨区域复制 (CRR)?

CRR 是 Amazon S3 的一项功能,可自动复制 AWS 区域之间的数据。利用 CRR,您可以使用 S3 对象标签设置存储桶级别、共享前缀级别或对象级别的复制。 您可以使用 CRR 在不同的地理区域中提供低延迟的数据访问。如果您需要遵循将数据副本在相距数百公里的不同地点储存的合规性要求,CRR 还可以帮助您达成这一目标。

问:如何启用 CRR?

CRR 在 S3 存储桶级别配置。在不同区域中指定目标存储桶用于复制,这样就可以对来源存储桶启用 CRR 配置。您还可以使用 AWS 管理控制台、REST API、AWS CLI 或 AWS 开发工具包来启用 CRR。要启用 CRR,必须对来源存储桶和目标存储桶都启用版本控制功能。要了解更多信息,请访问 Amazon S3 开发人员指南中的如何设置跨区域复制

问:能否对 CRR 使用 S3 生命周期规则?

能,您可以对来源存储桶和目标存储桶配置单独的 S3 生命周期规则。例如,您可以配置生命周期规则,将数据从 S3 标准存储类迁移到 S3 标准 – IA 或 S3 单区 – IA 存储类,或将数据存档到目标存储桶上的 S3 Glacier。

现在,您可以建立 S3 跨区域复制规则,以直接将数据复制到不同区域的 S3 Glacier 存储类中,从而用于备份或其他用途,而不必管理数据生命周期策略。

问:我可以将 CRR 与 AWS Key Management Service (KMS) 加密的对象一起使用吗?

可以,您可以通过在复制配置中提供目标 KMS 密钥来复制 KMS 加密的对象。

了解有关复制 KMS 加密的对象的更多信息 »

问:在整个复制过程中,对象是否可以安全传输和加密?

是的,在整个 CRR 过程中,对象都保持加密状态。加密对象通过 SSL 从来源区域安全地传输到目标区域。

问:我可以跨 AWS 账户使用 CRR 来防止恶意或意外删除吗?

是的,您可以跨 AWS 账户设置 CRR,将复制的数据存储在目标区域的不同账户中。您可以在复制配置中使用 CRR 所有权覆盖来维护来源和目标之间的不同所有权堆栈,并将目标账户所有权授予复制的存储。 

问:S3 跨区域复制如何定价?

您需要支付 Amazon S3 存储费用(在您选择的 S3 存储类中)、复制请求费用以及已复制数据副本的跨区域数据传输费用。复制请求和跨区域数据传输的费用根据来源区域而定。复制数据存储的费用根据目标区域而定。有关更多信息,请访问 S3 定价页面

如果源对象是通过分段上传功能上传的,则使用相同数量的段和段大小进行复制。例如,通过分段上传功能上传的 100GB 对象(800 个段,每段 128MB)在复制时会产生与 802 个请求(800 个上传段请求 + 1 个初始分段上传请求 + 1 个完成分段上传请求)关联的请求成本。您会产生 0.00401 USD(802 个请求 x 0.005 USD/1000 个请求)的请求费用和 2.00 USD(0.020 USD/GB 传输 x 100GB)的区域间数据传输费用。复制后,该 100GB 数据会产生基于目标区域的存储费用。

Amazon S3 和 IPv6

问:什么是 IPv6?

连接到 Internet 的每个服务器和设备都必须具有一个唯一地址。Internet 协议版本 4 (IPv4) 是原始的 32 位寻址方案。但是,Internet 的持续发展意味着所有可用的 IPv4 地址都将随着时间而被用尽。Internet 协议版本 6 (IPv6) 是新的寻址机制,设计用以克服 IPv4 的全球地址限制。

问:IPv6 可以用来做什么?

使用适用于 Amazon S3 的 IPv6 支持,应用程序无需任何 IPv6 到 IPv4 转换软件或系统即可连接到 Amazon S3。您可以满足合规性要求,更轻松地与基于 IPv6 的现有本地应用程序集成,并且无需购买昂贵的联网设备来处理地址转换。您还可以借助 IPv6 地址利用 IAM 策略和存储桶策略中现有的源地址筛选功能,扩大您的选择范围以确保应用程序与 Amazon S3 安全交互。

问:如何在 Amazon S3 上开始使用 IPv6?

首先,您可以将应用程序指向 Amazon S3 的新“双堆栈”终端节点,该终端节点同时支持通过 IPv4 和 IPv6 访问。在大多数情况下,无需进一步配置即可通过 IPv6 进行访问,因为大多数网络客户端倾向于默认使用 IPv6 地址。

问:使用 IPv6 时,Amazon S3 的性能是否会出现变化?

不会,不论是使用 IPv4 还是 IPv6,Amazon S3 的性能都相同。

问:在使用适用于 Amazon S3 的 IPv6 时,如果我的客户端受到策略、网络或其他限制的影响,我该怎么做?

因使用 IPv6 受到影响的应用程序可以随时切换回仅支持 IPv4 的标准终端节点。

问:IPv6 适用于所有 Amazon S3 功能吗?

否,在使用网站托管和通过 BitTorrent 访问时,暂不提供 IPv6 支持。当使用 IPv6 访问 Amazon S3 时,所有其他功能应该都可以按预期工作。

问:所有 AWS 区域都支持 IPv6 吗?

您可以在除中国(北京)和中国(宁夏)外的所有商业 AWS 区域使用 IPv6 和 Amazon S3。您也可以在 AWS GovCloud(美国)区域使用 IPv6。

Amazon S3 Glacier

问:Amazon Glacier 现在为什么称为 Amazon S3 Glacier?

长期以来,​客户都将我们的备份和存档存储服务 Amazon Glacier 视为 Amazon S3 的一个存储类。事实上,如今​ Amazon Glacier 中存储的很大比例的数据直接来自使用 S3 生命周期策略将不常用数据移动到 Amazon Glacier 的客户。现在,Amazon Glacier 正式成为 S3 的一部分,将称为 Amazon S3 Glacier (S3 Glacier)。所有现有 Glacier 直接 API 继续像以前一样工作,但现在更容易使用 S3 API 将数据存储在 S3 Glacier 存储类中。

问:Amazon S3 是否能将对象存档到费用更低的存储类?

可以,Amazon S3 让您能够将 Amazon S3 Glacier 的费用极低的存储服务用于数据存档。Amazon S3 Glacier 存储数据的费用低至每月每 GB 0.004 USD。为了保持低廉成本,同时满足各种数据检索需求,Amazon S3 Glacier 提供三种访问存档的选项,各自的检索时间从数分钟到数小时不等。存档使用案例的部分示例包括数字媒体档案、财务和医疗记录、原始基因组序列数据、长期数据库备份,以及依照法规必须保留的数据。

问:如何使用 Amazon S3 Glacier 存储类存储数据?

如果您的存储应无延迟地立即存档,或者您对何时将对象转换到 S3 Glacier 做出了无法通过 Amazon S3 生命周期策略表示的自定义业务决策,S3 PUT to Glacier 允许您使用 S3 API 将对象逐个上传到 S3 Glacier 存储类。没有任何转换延迟,并且由您控制转换时机。​如果您希望应用程序做出存储类决策而不必设置存储桶级别策略,这也是一个好选项。​

您可以根据对象的使用年限,利用生命周期规则自动将 Amazon S3 对象集存档到 S3 Glacier。使用 Amazon S3 管理控制台、AWS 开发工具包或 Amazon S3 API 来定义存档规则。规则将指定前缀和时间期限。前缀(如:“logs/”)识别服从此规格的数据对象。时间期限可指定在该数据对象创建多少天(如 180 天)或在某个日期后应将该数据对象存档。名称以指定前缀开头和超过指定时间期限的所有 S3 标准、S3 标准 – IA 或 S3 单区 – IA 对象都将存档到 S3 Glacier。要检索存储在 S3 Glacier 中的 Amazon S3 数据,您需要通过 Amazon S3 API 或管理控制台启动检索任务。检索任务完成后,您可以通过 Amazon S3 GET 对象请求来访问这些数据。

有关将生命周期规则用于存档到 S3 Glacier 的更多信息,请参阅“Amazon S3 开发人员指南”中的对象存档主题。

问:是否可以使用 Amazon S3 API 或管理控制台来列出已存档到 Amazon S3 Glacier 的对象?

可以,与 Amazon S3 的其他存储类(S3 标准、S3 标准 – IA 和 S3 单区 – IA)类似,使用 Amazon S3 API 或管理控制台存储的 S3 Glacier 对象具有关联的用户定义名称。您可以使用 S3 LIST API 或 S3 清单报告实时获取所有 Amazon S3 对象名称的列表,包括使用 S3 Glacier 存储类进行存储的对象。

问:是否可以使用 Amazon Glacier 直接 API 来访问已存档到 Amazon S3 Glacier 的对象?

由于 Amazon S3 维护着用户定义对象名称和 Amazon S3 Glacier 系统定义标识符之间的映射,所以使用 S3 Glacier 存储类存储的 Amazon S3 对象只能通过 Amazon S3 API 或 Amazon S3 管理控制台来访问。

问:如何检索存档在 Amazon S3 Glacier 中的对象以及在对象还原时是否会通知我?

要检索存储在 S3 Glacier 存储类中的 Amazon S3 数据,您需要使用 Amazon S3 API 或 Amazon S3 管理控制台启动检索请求。检索请求会在 S3 RRS 或 S3 标准 – IA 存储类中创建数据的临时副本,同时已存档数据将原封不动地保留在 S3 Glacier 中。您可以以天为单位指定将临时副本存储在 S3 中的时间。然后,可以通过 Amazon S3 GET 请求从 S3 中访问已存档对象的临时副本。

通过还原通知,现在可在从 S3 Glacier 成功还原对象并且临时副本可供您使用时使用 S3 事件通知通知您。存储桶拥有者(或 IAM 策略允许的其他人)可以安排将通知发送到 Amazon Simple Queue Service (SQS)Amazon Simple Notification Service (SNS)。通知也可传送到 AWS Lambda 以由 Lambda 函数进行处理。

问:还原 S3 Glacier 中存档的对象需要多长时间,以及是否可以将正在处理中的请求升级到更快的还原速度?

处理检索任务时,Amazon S3 首先从 S3 Glacier 检索请求的数据,然后在 S3 中创建所请求数据的临时副本(通常需要数分钟)。请求的访问时间取决于您选择的检索选项:加急、标准或批量检索。除了最大的对象 (250MB+) 以外,对于使用加急检索方式访问的所有数据,通常在 1-5 分钟内即可使用。使用标准检索方式检索的对象通常在 3-5 小时内完成。批量检索通常在 5-12 小时内完成。有关 S3 Glacier 检索选项的更多信息,请参阅 S3 Glacier 常见问题

S3 还原速度升级是在急切需要访问数据时将正在进行的还原替代为更快的还原层。 使用 S3 还原速度升级的方法是使用新的“层”任务参数向同一对象发出另一个还原请求。​在发出 S3 还原速度升级请求时,您必须选择比正在进行的还原更快的还原速度。对象过期时间​等其他参数不会更改。​在还原完成之后,可以更新对象过期时间。​需要支付每个还原请求的费用和更快的还原层的每 GB 检索费用。​例如,如果您发出了批量层还原请求,然后在加速层上发出了 S3 还原速度升级请求以替代正在进行的批量层还原,则需要支付两个请求的费用和加速层的每 GB 检索费用。

问:将对象存档在 Amazon S3 Glacier 中会如何收费?

Amazon S3 Glacier 存储类根据每月存储容量以及转换到 Amazon S3 Glacier 的生命周期转换请求数量定价。存档于 Amazon S3 Glacier 上的对象最短可存储 90 天,同时未满 90 天就被删除的对象所产生的按比例支付的费用等于按剩余天数支付的存储费用。请查看 Amazon S3 定价页面,了解当前定价信息。

问:将 Amazon S3 对象存档到 Amazon S3 Glacier 时,如何计算存储费用?

每月计费的存储容量基于全月内使用的平均存储量,以每月千兆字节计(即:GB 月)。Amazon S3 计算对象大小的方式为:您存储的数据大小,加上额外 32KB 的 Amazon S3 Glacier 数据,再加上额外 8KB 的 S3 标准存储类数据。对于每个对象,Amazon S3 Glacier 需要额外 32KB 的数据用于 Glacier 的索引和元数据,以便您能够识别和检索数据。Amazon S3 需要 8KB 存储空间来存储和维护已存档到 Amazon S# Glacier 的对象的用户定义名称和元数据。这样一来,您便可以使用 Amazon S3 LIST API 或 S3 清单报告实时获取所有 Amazon S3 对象的列表,包括使用 Amazon S3 Glacier 存储类存储的对象。例如,如果您存档了 100000 个数据对象且每个数据对象均为 1GB,那么您的可计费存储应为:

每个对象 1.000032GB x 100000 个对象 = 100003.2GB Amazon S3 Glacier 存储。
每个数据对象 0.000008 GB 字节 x 100000 个数据对象 = 0.8GB Amazon S3 标准存储。

费用根据 Amazon S3 定价页面上您所在 AWS 区域的当前费率计算得出。

问:可以免费从 Amazon S3 Glacier 中检索多少数据?

您可以使用 AWS 免费套餐每月免费检索 10GB 的 Amazon S3 Glacier 数据。免费套餐限额适用于 Amazon S3 Glacier 标准检索,可在当月任何时候使用。

问:删除存储在 Amazon S3 Glacier 中不足 90 天的对象时,如何收费?

Amazon S3 Glacier 经过设计,可用于将数据保留数月、数年甚至数十年的使用案例。如果要删除的对象已存档在 Amazon S3 Glacier 中 90 天或以上,则可以免费删除。如果要删除或覆盖存档在 Amazon S3 Glacier 中不足 90 天的对象,则需要交纳提早删除费。该项费用是按比例收取的。如果您在上传 30 天后删除 1GB 数据,将需要支付后面 60 天的 Amazon S3 Glacier 存储的提早删除费。如果您 60 天后删除 1GB 数据,则需要支付 30 天的 Amazon S3 Glacier 存储费。

问:从 Amazon S3 Glacier 检索数据如何收费?

从 Amazon S3 Glacier 检索数据的方式有三种:加急、标准和批量检索。每种方式具有不同的每 GB 检索费和每存档请求费(即请求一个存档计为一个请求)。有关不同 AWS 区域的 S3 Glacier 定价的详细信息,请访问 Amazon S3 Glacier 定价页面。

随时查询

问:什么是“随时查询”功能?

Amazon S3 允许客户对存储数据运行复杂的查询,无需将数据移动到独立的分析平台。随时查询 Amazon S3 数据的功能可以大大提升性能,降低利用 S3 作为数据湖的分析解决方案的成本。S3 提供多种随时查询选项,包括 S3 Select、Amazon Athena 和 Amazon Redshift Spectrum,使您能够从中选择最适合您的使用案例的选项。您甚至可以将 Amazon S3 Select 与 AWS Lambda 搭配使用,来构建无服务器应用程序,此类应用程序可有效利用 S3 Select 提供的随时处理功能。

问:什么是 S3 Select?

S3 Select 是一项 Amazon S3 功能,可让您使用简单的 SQL 表达式轻松检索对象内容中的具体数据,而无需检索整个对象。您可以使用 S3 Select 通过 SQL 子句(如 SELECT 和 WHERE)从以 CSV、JSON 或 Apache Parquet 格式存储的对象中检索一部分数据。此方法也适用于通过 GZIP 或 BZIP2 压缩的对象(仅对于 CSV 和 JSON 对象)和服务器端加密对象。

问:S3 Select 可以用来做什么?

您可以使用 S3 Select,利用简单的 SQL 语句检索对象内较小且具有针对性的数据集。您可以将 S3 Select 与 AWS Lambda 搭配使用,来构建无服务器应用程序,此类应用程序可使用 S3 Select 有效且轻松地检索 Amazon S3 中的数据,而不是检索和处理整个对象。您也可以将 S3 Select 与大数据框架(例如 Presto、Apache Hive 和 Apache Spark)结合使用,来扫描和筛选 Amazon S3 中的数据。

问:为什么应使用 S3 Select?

S3 Select 提供了一种使用 SQL 语句检索 Amazon S3 存储对象内容中的具体数据的新方法,无需检索整个对象。S3 Select 简化了扫描对象内容并将其筛选成更小且具有针对性的数据集的流程,并将这一性能提升高达 400%。借助 S3 Select,您还可以对 Amazon S3 中的日志文件执行操作调查,无需操作或管理计算集群。

问:什么是 Amazon Athena?

Amazon Athena 是一项交互式查询服务,让您能够轻松使用标准 SQL 查询分析 Amazon S3 中的数据。Athena 是无服务器式服务,因此您无需设置或管理基础设施即可马上开始分析数据。您甚至无需将数据加载到 Athena 中,因为它可以直接处理所有 S3 存储类中存储的数据。要开始使用,您只需登录到 Athena 管理控制台,定义架构,然后开始查询即可。Amazon Athena 使用 Presto 并为标准 SQL 提供了完整的支持,可处理 CSV、JSON、ORC、Apache Parquet 和 Avro 等各种标准数据格式。Athena 不仅是快速、临时查询的理想选择,可与 Amazon QuickSight 集成以轻松实现可视化,而且还能处理复杂的分析,包括大型联接、窗口函数和数组。

问:什么是 Amazon Redshift Spectrum?

Amazon Redshift Spectrum 是 Amazon Redshift 的一项功能,借助这项功能,您可以对 Amazon S3 中的 EB 级的数据运行查询,而无需进行加载或 ETL 操作。当您发布查询时,查询会进入 Amazon Redshift SQL 终端节点,该终端节点会生成查询方案并对其进行优化。Amazon Redshift 会确定哪些数据存储在本地以及哪些数据存储在 Amazon S3 中,然后生成一种方案来尽可能减少需要读取的 Amazon S3 数据量,从共享资源池中请求 Redshift Spectrum 工作线程来读取和处理 Amazon S3 中的数据。

Redshift Spectrum 可根据需要扩展到数千个实例,因此,无论数据大小如何,查询都会快速运行。而且,您可以像现在针对 Amazon Redshift 查询所做的一样,针对 Amazon S3 数据使用完全相同的 SQL,并可使用相同的 BI 工具连接到同一 Amazon Redshift 终端节点。Redshift Spectrum 可以实现单独的存储和计算,从而让您能够逐一单独扩展。您可以根据需要设置多个 Amazon Redshift 群集来查询 Amazon S3 数据湖,从而提供高可用性和无限制的并发度。借助 Redshift Spectrum,您可以灵活地将数据以您想要的格式存储在您想要的位置,并在需要时即时可用。

事件通知

问:什么是 Amazon S3 事件通知?

Amazon S3 事件通知可在响应 Amazon S3 中的操作(如 PUT、POST、COPY 或 DELETE)时发送。通知消息可以通过 Amazon SNSAmazon SQS 发送,也可以直接发送到 AWS Lambda

问:我可以用 Amazon S3 事件通知做什么?

Amazon S3 事件通知可使您运行工作流、发送提醒或执行其他操作来响应 S3 中存储对象的更改。您可以使用 S3 事件通知来设置触发器以执行各种操作,包括在上传媒体文件时对其执行转码、在数据文件可用时对其进行处理以及将 S3 对象与其他数据存储同步。您还可以根据对象名前缀和后缀来设置事件通知。例如,您可以选择接收以“images/”开头的对象名的通知。

问:Amazon S3 事件通知中包含什么?

有关 Amazon S3 事件通知消息中所含信息的详细描述,请参考 Amazon S3 开发人员指南中的配置 Amazon S3 事件通知主题。

问:如何设置 Amazon S3 事件通知?

关于如何配置事件通知的详细描述,请参考 Amazon S3 开发人员指南中的配置 Amazon S3 事件通知主题。您可以在 Amazon SNS 文档Amazon SQS 文档中了解有关 AWS 消息收发服务的更多信息。

问:使用 Amazon S3 事件通知的费用是多少?

使用 Amazon S3 事件通知,无需支付额外费用。发送事件通知时,您只需为 Amazon SNS 或 Amazon SQS 的使用付费,或只需承担运行 AWS Lambda 函数的费用。要查看这些服务的定价详细信息,请访问 Amazon SNSAmazon SQSAWS Lambda 定价页面。

Amazon S3 Transfer Acceleration

问:什么是 S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration 可在客户与您的 Amazon S3 存储桶之间实现快速、轻松、安全的远距离文件传输。S3 Transfer Acceleration 利用了 Amazon CloudFront 遍布全球的 AWS 边缘站点。数据到达某个 AWS 边缘站点时,即被通过优化的网络路径路由至您的 Amazon S3 存储桶。

问:如何开始使用 S3 Transfer Acceleration?

要开始使用 S3 Transfer Acceleration,请使用 Amazon S3 控制台、Amazon S3 API 或 AWS CLI 在 S3 存储桶上启用 S3 Transfer Acceleration。启用 S3 Transfer Acceleration 后,您可以将 Amazon S3 PUT 和 GET 请求指向 s3-accelerate 终端节点的域名。您的数据传输应用程序必须使用以下两种终端节点类型中的一种,以访问用于更快的数据传输的存储桶:“双堆栈”终端节点的 .s3-accelerate.amazonaws.com 或 .s3-accelerate.dualstack.amazonaws.com。如果您想要使用标准数据传输,可以继续使用常规终端节点。

对于支持 S3 Transfer Acceleration 的存储桶有一定限制。有关详情,请参考 Amazon S3 开发人员指南

问:S3 Transfer Acceleration 有多快?

S3 Transfer Acceleration 可帮助您充分利用带宽,最大限度地降低距离对吞吐量的影响。无论客户位于何方,S3 Transfer Acceleration 都能确保数据快速、稳定地传输到 Amazon S3。加速的幅度主要取决于您的可用带宽、源和目标之间的距离以及网络路径上的数据包丢失率。通常,源和目标之间的距离越远、可用带宽越多和/或对象大小越大,加速的幅度越大。

一位客户的测量结果是:从分布在美国、欧洲和部分亚洲地区的全球用户群向亚太地区(悉尼)的存储桶摄入 300MB 的文件,平均传输时间可以缩短 50%。而另一位客户观察到,从东南亚和澳大利亚的用户向美国东部(弗吉尼亚北部)的 S3 存储桶上传 250MB 文件(分成 50MB 大小的几个部分)时,性能提升超过 500%。

试用速度比较工具,预览您所在位置能获得的性能提升!

问:谁应该使用 S3 Transfer Acceleration?

S3 Transfer Acceleration 旨在优化从世界各地向 S3 存储桶传输数据的速度。如果您从多个分散的地点向一个集中的存储桶上传数据,或者如果您经常需要跨各大洲传输 GB 或 TB 级的数据,使用 S3 Transfer Acceleration 节约的数据传输时间可以达到数小时或者数天。

问:S3 Transfer Acceleration 的安全性如何?

S3 Transfer Acceleration 的安全性与 Amazon S3 的常规传输相同。同样支持所有 Amazon S3 安全功能,例如基于客户端的 IP 地址来限制访问。S3 Transfer Acceleration 与客户端通过标准 TCP 通信,无需更改防火墙。AWS 边缘站点不会存储任何数据。

问:如果 S3 Transfer Acceleration 的传输速度不及常规 Amazon S3,怎么办?

每当您使用 S3 Transfer Acceleration 上传对象时,我们都会检查 S3 Transfer Acceleration 的传输速度是否有可能比常规 Amazon S3 传输更快。在将同一对象传输到同一目标 AWS 区域时,如果我们确定 S3 Transfer Acceleration 的传输速度不会快于常规 Amazon S3,那么对于此次使用 S3 Transfer Acceleration 进行的传输,我们将不会收取任何费用,并且可能会绕过该次上传的 S3 Transfer Acceleration 系统。

问:我可以对分段上传使用 S3 Transfer Acceleration 吗?

可以,S3 Transfer Acceleration 支持所有存储桶级别的功能,包括分段上传。

问:在 S3 Transfer Acceleration 和 Amazon CloudFront 的 PUT/POST 之间,我应该如何选择?

S3 Transfer Acceleration 优化了 TCP 协议,并在客户端与 S3 存储桶之间添加了更多智能,因此如果需要更高的吞吐量,S3 Transfer Acceleration 就是更好的选择。如果您的对象小于 1GB,或者如果数据集小于 1GB,则应该考虑使用 Amazon CloudFront 的 PUT/POST 命令来优化性能。

问:在 S3 Transfer Acceleration 和 AWS Snow Family(Snowball、Snowball Edge 和 Snowmobile)之间,我应该如何选择?

要一次性移动大批量数据,AWS Snow Family 就是客户的理想选择。AWS Snowball 的周转时间通常为 5-7 天。一般来说,通过一条充分利用的 1Gbps 线路,S3 Transfer Acceleration 在同样的时间期限内最多可以传输 75TB 数据。总之,如果通过 Internet 传输所需的时间超过一个星期,或者如果需要反复传输任务且可用带宽超过 25Mbps,S3 Transfer Acceleration 就是不错的选择。另一个选择是同时使用两者:利用一个 AWS Snowball(或一系列 AWS Snowball)执行最初繁重的传输任务,然后利用 S3 Transfer Acceleration 传输递增的日常变更。

问:可以使用 S3 Transfer Acceleration 作为 AWS Direct Connect 的补充吗?

如果客户拥有专用联网要求或者能访问 AWS Direct Connect 交换点,AWS Direct Connect 就是不错的选择。S3 Transfer Acceleration 最适合从分散的客户位置通过公共 Internet 提交数据,或者是由于网络条件不断变化而造成吞吐量较低的情况。有些 AWS Direct Connect 客户使用 S3 Transfer Acceleration 帮助远程办公室传输数据,因为远程办公室的 Internet 性能可能会比较差。

问:可以使用 S3 Transfer Acceleration 作为 AWS Storage Gateway 或第三方网关的补充吗?

如果您能够在第三方网关中配置存储桶目标以使用 S3 Transfer Acceleration 终端节点域名,则会看到相应优势。

请访问 Storage Gateway 常见问题的“文件”这一部分,详细了解 AWS 实施。

问:可以使用 S3 Transfer Acceleration 作为第三方集成软件的补充吗?

是。直接连接到 Amazon S3 的软件包在将任务发送到 Amazon S3 时可以利用 S3 Transfer Acceleration。

了解有关存储合作伙伴解决方案的更多信息 »

问:S3 Transfer Acceleration 是否符合 HIPAA 要求?

符合,AWS 已对其 HIPAA 合规性计划进行扩展,其中已将 Amazon S3 Transfer Acceleration 作为一项符合 HIPAA 要求的服务包括进来。如果您已与 AWS 签订商业合伙协议 (BAA),则可以使用 Amazon S3 Transfer Acceleration 在您的客户端和 Amazon S3 存储桶之间快速、轻松且安全地远距离传输文件,包括受保护健康信息 (PHI)。

了解有关 HIPAA 合规性的更多信息 »

存储管理

S3 对象标记

问:什么是 S3 对象标签?

S3 对象标签是适用于 S3 对象的键值对,可在对象的生命周期内随时创建、更新或删除这些标签。借助这些标签,您将能够创建 Identity and Access Management (IAM) 策略,设置 S3 生命周期策略以及自定义存储指标。然后,可以使用这些对象级标签管理后台中存储类别与过期对象之间的转换。

问:如何对对象应用对象标签?

上传新对象时,您可以向其添加标签,也可以向现有对象添加标签。每个 S3 对象最多可添加 10 个标签,您可以使用 AWS 管理控制台、REST API、AWS CLI 或 AWS SDK 添加对象标签。

问:为何应使用对象标签?

借助对象标签这一工具,您可以简化 S3 存储的管理。使用此工具能够在对象的生命周期内随时创建、更新和删除标签,从而使您的存储能够满足您业务的需求。借助这些标签,您可以控制对标记有特殊键值对的对象的访问,从而可以进一步保护机密数据,使之仅供精选组或用户访问。 对象标签也可用于标记属于特定对象或业务单元的对象,对象标签可与 S3 生命周期策略结合使用来管理到其他存储类(S3 标准 – IA、S3 单区 – IA 和 S3 Glacier)的转换或与 S3 跨区域复制功能结合使用来在 AWS 区域之间选择性地复制数据。

问:如何更新对象上的对象标签?

在 S3 对象的生命周期内,您可以随时更改对象标签,您可以使用 AWS 管理控制台、REST API、AWS CLI 或 AWS 开发工具包更改对象标签。请注意,在 AWS 管理控制台之外进行的所有更改均是对整个标签集合进行的更改。如果某个特定对象关联了 5 个标签,您要为其添加第 6 个标签,那么您需要在该请求中包括最初的 5 个标签。

问:如果使用跨区域复制,对象标签也会复制吗?

使用跨区域复制可以跨 AWS 区域复制对象标签。已启用跨区域复制的用户需要具有新的权限才能复制标签。有关设置跨区域复制的更多信息,请访问 Amazon S3 开发人员指南中的如何设置跨区域复制

问:对象标签的费用是多少?

对象标签根据标签的数量和添加标签的请求费用定价。添加和更新对象标签的相关请求的价格与现有请求的价格相同。有关更多信息,请访问 Amazon S3 定价页面。

存储类分析

问:什么是存储类分析?

借助存储类分析,您可以分析存储访问模式并将相应数据传输给正确的存储类。这一新的 S3 功能可自动识别不频繁访问模式,从而帮助您将存储转换为 S3 标准 – IA。您可以配置存储类分析策略来监视整个存储桶、前缀或对象标签。在观察到不频繁访问模式后,您可以根据结果轻松地创建新的 S3 生命周期策略。存储类分析还以可视化方式在 AWS 管理控制台上提供您每天的存储使用情况,您可将这些分析结果导出至 S3 存储桶,以便使用所选 Amazon QuickSight 等商业智能工具进行分析。

问:如何开始使用存储类分析?

您可以使用 AWS 管理控制台或 S3 PUT 存储桶分析 API 配置存储类分析策略,以识别不频繁访问的存储,这些存储可转换到 S3 标准 – IA 或 S3 单区 – IA 存储类或存档到 S3 Glacier 存储类。您可以导航至 S3 控制台中的“管理”选项卡来管理存储类分析、S3 清单和 S3 CloudWatch 指标。

问:使用存储类分析时,如何收费?

请参阅 Amazon S3 定价页面,获取有关存储类分析定价的一般信息。

问:存储类分析多久更新一次?

存储类分析每日将在 S3 管理控制台中进行更新。此外,您可以配置存储类分析以将报告导出到您选择的 S3 存储桶。

S3 清单

问:什么是 S3 清单?

S3 清单报告可为 Amazon S3 的同步列表 API 提供预定的替代方案。您可以通过配置 S3 清单,针对 S3 存储桶或前缀每日或每周提供一次您的对象及其对应元数据的 CSV、ORC 或 Parquet 文件输出。您可以使用 S3 清单简化并加快业务工作流和大数据作业。您还可以使用 S3 清单验证对象的加密和复制状态是否符合业务、合规性和法规要求。 

问:如何开始使用 S3 清单?

您可以使用 AWS 管理控制台或 PUT Bucket Inventory API,为您 S3 存储桶中的所有对象或某个共享前缀下的对象子集配置每日或每周清单报告。在配置过程中,您可以指定 S3 清单报告的目标 S3 存储桶、输出文件的格式(CSV、ORC 或 Parquet)以及您的业务应用程序所需的具体对象元数据,例如:对象名称、大小、上次修改日期、存储类、版本 ID、删除标记、非当前版本标记、分段上传标记、复制状态或加密状态。

问:S3 清单报告文件是否可以进行加密?

是的,您可以通过配置对使用 S3 清单编写的所有文件进行 SSE-S3 或 SSE-KMS 加密。有关更多信息,请参阅用户指南

问:如何使用 S3 清单?

您可以将 S3 清单用作应用程序工作流或大数据任务的直接输入。您还可以使用 Amazon Athena、Amazon Redshift Spectrum 及其他工具(例如,Presto、Hive 和 Spark)通过标准 SQL 语言查询 S3 清单。

了解有关使用 Athena 查询 S3 清单的更多信息 »

问:使用 S3 清单时,如何收费?

请参阅 Amazon S3 定价页面,了解 S3 清单定价的信息。配置 SSE-KMS 加密后,将产生 KMS 加密费,请参阅 KMS 定价页面了解详细信息。

S3 批量操作

问:什么是 S3 批量操作?

S3 批量操作是客户可用于跨存储在 Amazon S3 中的许多对象大规模自动执行、管理和审核特定 S3 API 请求或 AWS Lambda 函数的功能。客户可以使用 S3 批量操作来自动替换 S3 对象上的标签集,更新 S3 对象的访问控制列表 (ACL),在存储桶之间复制对象,启动从 Amazon Glacier 到其他 S3 存储类的还原,或使用 AWS Lambda 函数执行自定义操作。

使用 S3 批量操作,只需在 S3 管理控制台或单个 API 请求中单击几次,即可更改数十亿个对象,而不必为存储管理应用程序编写自定义应用程序代码或运行计算集群。S3 批量操作不仅跨许多对象管理存储操作,还管理重试、显示进度、提供通知、提供完成报告并将在您的目标对象上执行的所有操作的事件发送到 AWS CloudTrail。可从 S3 管理控制台或通过 AWS CLI 和开发工具包来使用 S3 批量操作。在此处注册 S3 批量操作预览版。

问:如何开始使用 S3 批量操作?

您可以通过进入 S3 管理控制台或使用 AWS CLI 或开发工具包来开始使用 S3 批量操作创建第一个 S3 批量操作任务。S3 批量操作任务包括要处理的目标对象的列表和要执行的操作的类型。首先选择 S3 清单报告或提供您自己的、S3 批量操作要处理的目标对象的自定义列表。S3 清单报告是列出了 S3 存储桶或前缀中存储的所有对象的文件。接下来,从 S3 批量操作支持的一组操作中进行选择,例如替换标签集、更改 ACL、将存储从一个存储桶复制到另一个存储桶或启动从 S3 Glacier 到其他 S3 存储类的还原。然后,您可以使用特定参数自定义 ​S3 批量操作任务,例如标签值、ACL 被授权者或还原持续时间。为了进一步自定义存储操作,您可以编写自己的 AWS Lambda 函数并用 S3 批量操作调用该代码。

在创建 S3 批量操作任务后,该任务将处理您的对象列表、等待确认(可选),然后开始执行您指定的操作。您可以通过编程方式或通过 S3 控制台查看任务进度、接收完成通知并查看列出已对存储所做更改明细的完成报告。如果您有兴趣了解有关 S3 批量操作的更多信息,请转到 Amazon S3 功能页面

问:如何管理 S3 批量操作任务? 如何确定其优先级?

您可以通过 S3 管理控制台或使用 AWS API、CLI 或开发工具包来管理 S3 批量操作任务。通过在控制台中选择 AWS 区域或使用 ListJobs 请求,您将能够查看每个 AWS 区域中按任务状态筛选的任务列表(每个请求最多 1000 个任务)。可以使用这些列表查看哪些任务处于活动状态、哪些任务已完成或哪些任务正在等待执行。如果其中某个任务比其他任务更重要或时间更紧迫,则可将其优先级更新为更高级别,以优先执行该任务。要取消任何任务,请使用 CancelJob 请求或在控制台中选择该任务并单击“取消”。

要查看任何活动任务的进度,请使用 DescribeJob 请求或通过 S3 管理控制台单击该任务。选择一个任务后,您将看到该任务的状态、已成功完成的操作数、出错的操作数、剩余操作数以及完成百分比。也可以使用通知来跟踪任务开始时间和完成时间。

S3 对象锁定

问:什么是 Amazon S3 对象锁定?

Amazon S3 对象锁定是 Amazon S3 的一项新功能,可以在客户定义的保留期内阻止删除对象版本,让您能够通过实施保留策略来进一步保护数据或满足监管要求。您可将工作负载从现有“一次写入,多次读取”(WORM) 系统迁移到 Amazon S3,并在对象级别或存储桶级别配置 S3 对象锁定,防止在预定义的保留到期日期或依法保留日期之前删除对象版本。无论对象在哪个存储类中,S3 对象锁定保护都将保留,并且会在存储类之间的整个 S3 生命周期转换期间保留。

问:为什么应该使用 Amazon S3 对象锁定?

仅当法规要求规定您的数据必须能够防蠕虫时,或者您希望在 Amazon S3 中为数据额外添加一层保护时,才应使用 S3 对象锁定。S3 对象锁定可以帮助您满足规定数据应以不可变格式存储的法规要求,还可保护 Amazon S3 中的数据使其免遭意外或恶意删除。

问:Amazon S3 对象锁定的工作原理是什么?

Amazon S3 对象锁定在指定保留期内禁止删除对象。配合可防止对象被覆盖的 S3 版本控制,您将能够确保对象在应用 WORM 保护时始终保持不变。可通过使用 AWS SDK、CLI、REST API 或 S3 管理控制台为对象分配保留到期日期或依法保留日期来应用 WORM 保护。可在 PUT 请求内应用保留设置,或在创建对象后对现有对象应用这些设置。

“保留到期日期”定义对象将保持不变的时间长度。为对象分配“保留到期日期”后,在保留到期日期之前将无法修改或删除该对象。如果用户在对象的“保留到期日期”之前尝试删除该对象,操作将被拒绝。

S3 对象锁定可以在两种模式之一中配置。在监管模式中部署时,具有特定 IAM 权限的 AWS 账户可以从对象上移除 WORM 保护。如果您需要更强的不变性以遵守法规,可以使用合规模式。在合规模式中,任何用户都不能移除 WORM 保护,包括根账户。

或者,您也可以通过对对象应用依法保留来使该对象不可变。依法保留会对对象施加无限期的 S3 对象锁定保护,该保护将一直保留到它被明确删除为止。为了施加和删除依法保留,您的 AWS 账户必须拥有 PutObjectLegalHold 操作的写入权限。依法保留可以应用于启用了 S3 对象锁定的存储桶中的任何对象,无论该对象当前是否在 WORM 保护的保留期内。

问:哪些 AWS 电子存储服务已基于金融服务法规进行了评估?

对于金融服务行业中的客户,S3 对象锁定为必须以不可删除且不可重写的格式保留记录以满足 SEC Rule 17a-4(f)、FINRA Rule 4511 或 CFTC Regulation 1.31 的法规要求的证券经纪商提供了附加支持。您可以轻松地指定记录保留​时间范围来以原始形式将法规存档保留所需的一段时间,还可以实施依法保留以无限期地保留数据,直到撤销保留。

问:哪些 AWS 文档支持有关通知监管机构的 SEC 17a-4(f)(2)(i) 和 CFTC 1.31(c) 要求?

在使用 Amazon S3 进行电子存储之前,向监管机构或所选的“指定审查机关 (DEA)”发送通知,同时提供一份“Cohasset 评估”副本。针对这些要求,AWS 不可作为指定的第三方。请务必选择 D3P,并将此信息添加到发送给 DEA 的通知中。

S3 CloudWatch 指标

问:如何开始使用 S3 CloudWatch 指标?

使用 AWS 管理控制台,可在 1 分钟内为您的 S3 存储桶生成 CloudWatch 请求指标,或使用前缀或对象标签配置指标的筛选条件。此外,还可以通过调用 S3 PUT Bucket Metrics API 来启用 S3 存储指标的发布并对其进行配置。 CloudWatch 请求指标在启用后的 15 分钟内即可在 CloudWatch 中使用。CloudWatch 存储指标默认情况下针对所有存储桶启用,且每天报告一次。

问:我能否使 S3 CloudWatch 请求指标符合我的应用程序或企业组织的需求?

能,您可以配置 S3 CloudWatch 请求指标,使之生成有关您 S3 存储桶的指标,或使用前缀或对象标签配置指标的筛选条件。

问:我可以对我的存储指标设置哪些警报?

您可以使用 CloudWatch 对任何存储指标数量、计时器或等级设置阈值,当值达到此阈值时,就触发相应操作。例如,您对 4xx 错误响应的百分比设置一个阈值,当值超出此阈值至少 3 个数据点时,就触发 CloudWatch 警报以提醒开发运营工程师。

问:使用 S3 CloudWatch 指标时,如何收费?

CloudWatch 存储指标免费提供。CloudWatch 请求指标根据 Amazon CloudWatch 的自定义指标定价。请参阅 Amazon CloudWatch 定价页面,获取有关 S3 CloudWatch 指标定价的一般信息。

S3 生命周期管理

问:什么是 S3 生命周期管理?

S3 生命周期管理可以通过预定义的策略定义对象的生命周期,并降低您的存储成本。您可以设置生命周期转换策略,以根据数据的使用年限自动将存储在 S3 标准存储类中的对象迁移到 S3 标准 – IA、S3 单区 – IA 和/或 S3 Glacier 存储类。基于对象的使用年限,您还可以设置生命周期过期策略,将对象自动移除。您可以设置分段上传过期策略,根据上传的存储时间,使未完成的分段上传过期。

问:如何制定 S3 生命周期管理策略?

您可以在 AWS 管理控制台、S3 REST API、AWS 开发工具包或 AWS 命令行界面 (CLI) 中设置和管理生命周期策略。您可以在前缀或存储桶级别指定策略。

问:使用 S3 生命周期管理如何收费?

生命周期策略的制定和应用无需额外费用。根据生命周期规则,当对象符合转移条件时,每个对象的转移请求都需付费。有关定价信息,请参阅 S3 定价页面。

问:生命周期管理策略有什么作用?

随着数据的不断成熟,它的重要性和价值会不断降低,并且/或者需遵循合规性要求。Amazon S3 包含一个丰富的策略库,可帮助您自动执行存储类间的数据迁移流程。例如,您可以进行设置,让不频繁访问的对象在一段时间后移动到较低费用的存储类(如 S3 标准 – IA 或 S3 单区 – IA)。再过一段时间后,可以将这些对象移动到 Amazon S3 Glacier 中以进行存档并满足合规性要求。如果策略允许,您还可以指定用于对象删除的生命周期策略。这些规则可以无形地降低存储成本并简化管理工作。这些策略还包含出色的管理实践,可移除不再需要的对象和属性,从而控制成本并优化性能。

问:如何利用 Amazon 3 生命周期管理来帮助降低 Amazon S3 存储成本?

利用 Amazon S3 生命周期策略,您可以将对象配置为从 S3 标准存储类迁移到 S3 标准 – IA 或 S3 单区 – IA 并/或存档到 S3 Glacier。您还可以指定一个 S3 生命周期策略,在特定时间段后删除对象。您可以利用此策略驱动的自动化操作来快速而轻松地降低存储成本并节省时间。在每个规则中,您都可以指定前缀、时间段、转移到 S3 标准 – IA、S3 单区 – IA 或 S3 Glacier 和/或过期日期。例如,您可以创建一个规则,规定将带有常见前缀“logs/”且创建后已有 30 天的所有对象存档到 S3 Glacier,并且这些对象将于创建之日起的 365 天后失效。您还可以创建单独的规则,规定仅带有前缀“backups/”且已创建 90 天的所有对象将失效。S3 生命周期策略对现有的和新的 S3 对象都适用,可帮助您针对 S3 中存储的所有当前数据和任何新数据优化存储、最大限度地节省成本,而无需耗时的手动数据检查和迁移。在生命周期规则内,前缀字段用于识别服从该规则的数据对象。要将规则应用于单个数据对象,请指定键名称。要将规则应用于一组数据对象,请指定它们的共同前缀(例如“logs/”)。您可以指定迁移操作和过期操作以存档或删除数据对象。关于时间期限,您可以指定一个创建日期(如 2015 年 1 月 31 日)或自创建之日算起的天数(如 30 天),以便在此日期或超过此天数后将数据对象存档或删除。您可为不同前缀创建多条规则。

问:如何将对象配置为在特定时间段之后删除?

您可以设置 S3 生命周期过期策略,在指定天数之后将对象从存储桶中删除。您可以通过应用于存储桶的生命周期配置策略,为位于存储桶中的对象集定义过期规则。

了解有关 S3 生命周期过期策略的更多信息 »

问:为什么要使用 S3 生命周期策略让未完成的分段上传过期?

使用 S3 生命周期策略让未完成的分段上传过期,可通过限制未完成的分段上传的存储时间,帮助您节省成本。例如,如果您的应用程序上传了若干分段对象部分,但从未提交,那么您仍然需要为其存储付费。此策略可在预定义的天数后自动删除未完成的分段上传及其相关存储,从而降低您的 S3 存储费用。

了解有关使用 S3 生命周期让未完成的分段上传过期的更多信息 »

跨区域复制

问:什么是 Amazon S3 跨区域复制 (CRR)?

CRR 是 Amazon S3 的一项功能,可自动复制 AWS 区域之间的数据。利用 CRR,您可以使用 S3 对象标签设置存储桶级别、共享前缀级别或对象级别的复制。 您可以使用 CRR 在不同的地理区域中提供低延迟的数据访问。如果您需要遵循将数据副本在相距数百公里的不同地点储存的合规性要求,CRR 还可以帮助您达成这一目标。

问:如何启用 CRR?

CRR 在 S3 存储桶级别配置。在不同区域中指定目标存储桶用于复制,这样就可以对来源存储桶启用 CRR 配置。您还可以使用 AWS 管理控制台、REST API、AWS CLI 或 AWS 开发工具包来启用 CRR。要启用 CRR,必须对来源存储桶和目标存储桶都启用版本控制功能。要了解更多信息,请访问 Amazon S3 开发人员指南中的如何设置跨区域复制

问:能否对 CRR 使用 S3 生命周期规则?

能,您可以对来源存储桶和目标存储桶配置单独的 S3 生命周期规则。例如,您可以配置生命周期规则,将数据从 S3 标准存储类迁移到 S3 标准 – IA 或 S3 单区 – IA 存储类,或将数据存档到目标存储桶上的 S3 Glacier。

现在,您可以建立 S3 跨区域复制规则,以直接将数据复制到不同区域的 S3 Glacier 存储类中,从而用于备份或其他用途,而不必管理数据生命周期策略。

问:我可以将 CRR 与 AWS Key Management Service (KMS) 加密的对象一起使用吗?

可以,您可以通过在复制配置中提供目标 KMS 密钥来复制 KMS 加密的对象。

了解有关复制 KMS 加密的对象的更多信息 »

问:在整个复制过程中,对象是否可以安全传输和加密?

是的,在整个 CRR 过程中,对象都保持加密状态。加密对象通过 SSL 从来源区域安全地传输到目标区域。

问:我可以跨 AWS 账户使用 CRR 来防止恶意或意外删除吗?

是的,您可以跨 AWS 账户设置 CRR,将复制的数据存储在目标区域的不同账户中。您可以在复制配置中使用 CRR 所有权覆盖来维护来源和目标之间的不同所有权堆栈,并将目标账户所有权授予复制的存储。 

问:S3 跨区域复制如何定价?

您需要支付 Amazon S3 存储费用(在您选择的 S3 存储类中)、复制请求费用以及已复制数据副本的跨区域数据传输费用。复制请求和跨区域数据传输的费用根据来源区域而定。复制数据存储的费用根据目标区域而定。有关更多信息,请访问 S3 定价页面

如果源对象是通过分段上传功能上传的,则使用相同数量的段和段大小进行复制。例如,通过分段上传功能上传的 100GB 对象(800 个段,每段 128MB)在复制时会产生与 802 个请求(800 个上传段请求 + 1 个初始分段上传请求 + 1 个完成分段上传请求)关联的请求成本。您会产生 0.00401 USD(802 个请求 x 0.005 USD/1000 个请求)的请求费用和 2.00 USD(0.020 USD/GB 传输 x 100GB)的区域间数据传输费用。复制后,该 100GB 数据会产生基于目标区域的存储费用。

Amazon S3 和 IPv6

问:什么是 IPv6?

连接到 Internet 的每个服务器和设备都必须具有一个唯一地址。Internet 协议版本 4 (IPv4) 是原始的 32 位寻址方案。但是,Internet 的持续发展意味着所有可用的 IPv4 地址都将随着时间而被用尽。Internet 协议版本 6 (IPv6) 是新的寻址机制,设计用以克服 IPv4 的全球地址限制。

问:IPv6 可以用来做什么?

使用适用于 Amazon S3 的 IPv6 支持,应用程序无需任何 IPv6 到 IPv4 转换软件或系统即可连接到 Amazon S3。您可以满足合规性要求,更轻松地与基于 IPv6 的现有本地应用程序集成,并且无需购买昂贵的联网设备来处理地址转换。您还可以借助 IPv6 地址利用 IAM 策略和存储桶策略中现有的源地址筛选功能,扩大您的选择范围以确保应用程序与 Amazon S3 安全交互。

问:如何在 Amazon S3 上开始使用 IPv6?

首先,您可以将应用程序指向 Amazon S3 的新“双堆栈”终端节点,该终端节点同时支持通过 IPv4 和 IPv6 访问。在大多数情况下,无需进一步配置即可通过 IPv6 进行访问,因为大多数网络客户端倾向于默认使用 IPv6 地址。

问:使用 IPv6 时,Amazon S3 的性能是否会出现变化?

不会,不论是使用 IPv4 还是 IPv6,Amazon S3 的性能都相同。

问:在使用适用于 Amazon S3 的 IPv6 时,如果我的客户端受到策略、网络或其他限制的影响,我该怎么做?

因使用 IPv6 受到影响的应用程序可以随时切换回仅支持 IPv4 的标准终端节点。

问:IPv6 适用于所有 Amazon S3 功能吗?

否,在使用网站托管和通过 BitTorrent 访问时,暂不提供 IPv6 支持。当使用 IPv6 访问 Amazon S3 时,所有其他功能应该都可以按预期工作。

问:所有 AWS 区域都支持 IPv6 吗?

您可以在除中国(北京)和中国(宁夏)外的所有商业 AWS 区域使用 IPv6 和 Amazon S3。您也可以在 AWS GovCloud(美国)区域使用 IPv6。

准备好开始使用了吗?

Product-Page_Standard-Icons_01_Product-Features_SqInk
查看产品功能

了解有关数据管理、安全性、访问管理、分析等功能的更多信息。

了解更多 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
注册免费账户

立即获取 AWS 免费套餐并开始试用 Amazon S3。 

注册 
Product-Page_Standard-Icons_03_Start-Building_SqInk
开始在控制台中构建

在 AWS 控制台中开始使用 Amazon S3 进行构建。

开始使用