AWS DataSync 是一项高速在线数据传输服务,可帮助您轻松安全地将数据移动到所需的任何位置:本地、边缘或云端。DataSync 提供简单、可预测的即用即付定价模式。您需要按 GB 为存储站点之间传输的数据量支付固定费用。配置为增强模式的任务也会按任务执行收取费用。这些费用涵盖移动、验证和同步数据的成本。使用 DataSync,无需预付费用,也没有最低费用。
使用 AWS DataSync 数据查找服务,您可以运行发现作业长达 31 天并免费接收建议。DataSync 数据查找服务将收集的数据和相关建议在作业完成后保留 60 天。
增强模式数据传输
使用增强模式,您可以在存储站点之间传输几乎无限数量的对象,且性能高于基本模式。增强模式任务通过并行列出、准备、传输和验证数据来优化和简化数据传输过程。增强模式目前仅适用于 Amazon S3 站点之间的传输。
基本模式数据传输
基本模式受数据集中文件和对象数量的配额限制。基本模式按顺序准备、传输和验证数据集中的文件和对象,因此对于大多数工作负载来说,它的速度比增强模式慢。 基本模式支持目前可用的所有 DataSync 站点类型。
额外费用
使用 DataSync 复制数据时,对于读取和写入 Amazon Simple Storage Service(Amazon S3)、Amazon Elastic File System(Amazon EFS)、Amazon FSx for Windows File Server、Amazon FSx for Lustre、Amazon FSx for OpenZFS、Amazon FSx for NetApp ONTAP 和 AWS Key Management Service(AWS KMS)等 AWS 服务,您需要按照标准的请求、存储和数据传输费率支付费用。
AWS PrivateLink 将针对您创建的用于管理和控制代理与 DataSync 服务之间通过 AWS PrivateLink 来往的流量的接口 Amazon Virtual Private Cloud(Amazon VPC)端点向您收费。只有控制流量需要支付 PrivateLink 费用。这包括从 DataSync 服务传输到代理的命令,例如 StartTaskExecution。通过 DataSync 传输的文件或对象不用支付 PrivateLink 费用。您还需要按照标准费率支付 Amazon CloudWatch Logs、Amazon CloudWatch Metrics 和 Amazon CloudWatch Events 的费用。
将数据复制到 Amazon S3 或从中复制数据
将数据复制到 S3 或从中复制数据时,您需要为以下 S3 请求支付标准请求费用:LIST、HEAD、GET、PUT 和 COPY。执行的确切操作取决于您的 DataSync 任务的配置。有关更多信息,请阅读我们文档中有关评估 S3 请求成本的内容。请求和存储费用可能因 S3 存储类而异。在不同 S3 存储类中读取和写入对象时,还可能会产生额外费用。在我们的文档中阅读有关使用 Amazon S3 存储类的内容。
将数据复制到 AWS 区域或从中复制数据
从 AWS 将数据复制到本地存储系统时,您需要支付从源 AWS 区域中进行 AWS 数据传出的费用。在区域之间复制数据时,您需要支付区域之间的数据传输费用(按照从源区域到目标区域传输数据计费)。使用 AWS DataSync EC2 代理在 AWS 服务之间复制数据时,您需要为区域之间的数据传输和可用区之间的数据传输付费。要了解更多信息,请参阅数据传输定价。
使用 AWS DataSync Discovery
使用 DataSync Discovery 时,AWS Secrets Manager 将针对为存储本地存储系统凭证而创建的密钥以及 DataSync 为访问密钥而进行的所有 Secrets Manager API 调用向您收费。
增强模式定价示例
以下定价示例假设 DataSync 数据传输任务已配置为增强模式,以实现更高的性能、规模以及增强的监控和指标。
示例 1:使用 S3 Standard 存储类将 50 TB 数据集从一个 S3 存储桶复制到同一区域内的另一个 S3 存储桶
DataSync 会将一个 S3 存储桶中的对象一次性复制到同一区域的目标存储桶。源存储桶和目标存储桶中的对象均使用 S3 Standard 存储类创建。执行 DataSync 任务时,它将扫描源存储桶中的现有对象以确定应该复制哪些对象。扫描过程至少涉及对每个 S3 存储桶中对象的 LIST 和 HEAD 请求,如 AWS DataSync 文档中所述。假设源数据集包含 500 万个对象。
(使用 DataSync 复制的 50TB 数据 * 1024GB * 0.015 USD/GB)+
(5000 个 S3 LIST 请求 * 0.005 USD/1000)+
(500 万个 S3 HEAD 请求 * 0.0004 USD/1000)+
(500 万个 S3 GET 请求 * 0.0004 USD/1000)+
(500 万个 S3 PUT 请求 * 0.005 USD/1000)+
(1 次任务执行 * 0.55 USD)
= 768 USD + 0.025 USD + 2 USD + 2 USD + 25 USD + 0.55 USD
= 797.58 USD
示例 2:使用 S3 Glacier Instant Retrieval 存储类,每天将 5 TB 数据集从一个 S3 存储桶复制到同一区域内的另一个存储桶
DataSync 将使用配置为每天运行一次的计划,将一个 S3 存储桶中的对象复制到同一区域的目标存储桶。源和目标存储桶中的对象都是使用 Glacier Instant Retrieval 存储类创建的。每次执行日常任务时,DataSync 都会扫描源和目标存储桶中的现有对象,以确定应复制哪些对象。扫描过程至少涉及对每个 S3 存储桶中对象的 LIST 和 HEAD 请求,如 AWS DataSync 文档中所述。在这个例子中,我们假设每天的变化率为 5%。
每天使用 DataSync 将 5TB 的 16MB 文件复制到美国东部(俄亥俄州)区域的 Amazon S3 中的成本,假设每个 S3 存储桶中有 4000 个 LIST 请求,每个复制对象一个 GET,S3 存储桶中的每个对象一个 HEAD 请求:
增量复制的数据量是 5TB 的 5% = 256GB
(使用 DataSync 复制的 256GB 数据 * 0.015 USD/GB)+
(从 S3 Glacier Instant Retrieval 检索的 256GB 数据 * 0.03 USD)+
(4000 个 S3 LIST 请求 * 2 * 0.02 USD/1000)+
(5 TB * 1024 GB * 1024 MB / 16 MB S3 HEAD 请求 * 2 * 0.01 USD / 1000)+
(256GB * 1024 MB / 16 MB S3 GET 请求 * 0.01 USD / 1000)+
(256GB * 1024MB / 16MB S3 PUT 请求 * 0.02 USD / 1000)+
(每天执行 1 次任务 * 0.55 USD)
= 3.84 USD + 7.68 USD + 0.16 USD + 6.55 USD + 0.16 USD + 0.32 USD + 0.55 USD
= 19.26 USD/天
基本模式定价示例
以下定价示例假设 DataSync 数据传输任务已配置为基本模式。
示例 1:使用 S3 标准存储类将 50TB 数据从本地存储迁移到一个空的 S3 存储桶
使用 DataSync 将 50TB 的 16MB 文件一次性迁移到美国东部(俄亥俄州)区域一个空的 Amazon S3 存储桶中的成本:
(50TB 复制到 S3 的数据 * 1024GB * 0.0125 USD/GB)+(1 个 S3 LIST 请求 * 0.005 USD/1000)+(50TB/16MB 个 S3 PUT 请求 * 0.005 USD/1000)
= 640 USD + 0 USD + 16.38 USD
= 656.38 USD
示例 2:使用 S3 标准存储类将 10 TB 从本地存储增量复制到具有 50 TB 现有数据的 S3 存储桶
在此示例中,DataSync 将扫描 S3 存储桶中的现有对象以确定应从本地复制哪些数据。扫描过程至少涉及对 S3 存储桶中对象的 LIST 和 HEAD 请求,如 AWS DataSync 文档中所述。
使用 DataSync 将 10 TB 的 16 MB 文件的每个增量副本复制到美国东部(俄亥俄州)区域的 S3 的成本,假设 S3 中每个对象有 500 个 LIST 请求和一个 HEAD 请求:
(使用 DataSync 复制到 S3 的 10 TB 数据 * 1024 GB * 0.0125 USD/GB)+
(500 个 S3 LIST 请求 * 0.005 USD/1000)+
(50 * 1024 *1024 MB / 16 MB S3 HEAD 请求 * 0.0004 USD / 1000)+
(10 * 1024 * 1024 MB / 16 MB S3 PUT 请求 * 0.005 USD / 1000)
= 128 USD + 0 USD + 1.31 USD + 3.28 USD
= 132.59 USD
示例 3:使用 S3 Glacier Instant Retrieval 存储类,每天将 5 TB 数据集从一个 S3 存储桶复制到同一区域内的另一个存储桶
在此示例中,DataSync 会将一个 S3 存储桶中的对象复制到同一区域中的目标存储桶。源和目标存储桶中的对象都是使用 Glacier Instant Retrieval 存储类创建的。每次执行日常任务时,DataSync 都会扫描源和目标存储桶中的现有对象,以确定应复制哪些对象。扫描过程至少涉及对每个 S3 存储桶中对象的 LIST 和 HEAD 请求,如 AWS DataSync 文档中所述。在这个例子中,我们假设每天的变化率为 5%。
每天使用 DataSync 将 5TB 的 16MB 文件复制到美国东部(俄亥俄州)区域的 Amazon S3 中的成本,假设每个 S3 存储桶中有 4000 个 LIST 请求,每个复制对象一个 GET,S3 存储桶中的每个对象一个 HEAD 请求:
增量复制的数据量是 5TB 的 5% = 256 GB
(使用 DataSync 复制的 256GB 数据 * 0.0125 USD/GB)+
(从 S3 Glacier Instant Retrieval 检索的 256GB 数据 * 0.03 USD)+
(4000 个 S3 LIST 请求 * 2 * 0.02 USD/1000)+
(5 TB * 1024 GB * 1024 MB / 16 MB S3 HEAD 请求 * 2 * 0.01 USD / 1000)+
(256 GB * 1024 MB / 16 MB S3 GET 请求 * 0.01 USD / 1000)+
(256 GB * 1024 MB / 16 MB S3 PUT 请求 * 0.02 USD / 1000)
= 3.20 USD + 7.68 USD + 0.16 USD + 6.55 USD + 0.16 USD + 0.32 USD
= 18.07 USD/天
示例 4:从自行管理的服务器向 Amazon FSx for Windows File Server 迁移 100 TB 数据
使用 DataSync 将 100 TB 从本地部署 Windows 文件服务器迁移到 Amazon FSx 的成本:
(复制到 Amazon FSx For Windows File Server 中的 100 TB 数据 * 1024 GB * 0.0125 USD/GB)
= 1280.00 USD
示例 5:云内处理和数据分发工作流程的持续数据传输
假设您每天将 1TB 数据传输到 Amazon EFS。您 31 天的费用将是:
(复制到 EFS 的 1TB 数据 * 1024GB * 0.0125 USD/GB)* 31 天
= 396.80 USD
示例 6:为保证业务连续性而进行的文件系统增量传输复制
假设您有一个数据复制作业,需要将 10TB 的文件系统一次性复制到位于亚太地区(悉尼)区域的 Amazon EFS 中,并且每天复制 1TB 的更改。对于首次复制和后续 31 天的正常使用,费用如下:
10TB * 1024GB * 0.0125 USD/GB = 128 USD(首次传输)
+ 1TB * 1024GB * 0.0125 USD/GB * 31 天(增量传输)
= 每月 396.80 USD