Amazon SageMaker 功能

面向所有数据科学家和开发人员的机器学习服务

Amazon SageMaker 是一项完全托管的服务,可以帮助开发人员和数据科学家快速准备构建、训练和部署机器学习 (ML) 模型。SageMaker 完全消除了机器学习过程中每个步骤的繁重工作,让开发高质量模型变得更加轻松。SageMaker 在单个工具集中提供了用于机器学习的所有组件,因此模型将可以通过更少的工作量和更低的成本更快地投入生产。


收集和准备训练数据

在几分钟内准备数据

借助于 Amazon SageMaker Data Wrangler,您可以快速而轻松地准备数据与创建模型特征。您可以连接到数据源,并使用内置的数据转换设计模型特征。

开始使用 »

透明度

Amazon SageMaker Clarify 会提供数据,通过数据准备期间和训练后的偏差检测来提升模型质量。SageMaker Clarify 还会提供模型可解释性报告,使利益相关者可以了解模型做出相关预测的方法和原因。

了解更多 »

安全性与隐私性

Amazon SageMaker 让您可以从一开始就可以在完全安全的 ML 环境中进行操作。您可以利用全方位的安全功能,帮助为各种行业法规提供支持。

了解更多 »

透明度

Amazon SageMaker Clarify 会提供数据,通过数据准备期间和训练后的偏差检测来提升模型质量。SageMaker Clarify 还会提供模型可解释性报告,使利益相关者可以了解模型做出相关预测的方法和原因。

了解更多 »

安全性与隐私性

Amazon SageMaker 让您可以从一开始就可以在完全安全的 ML 环境中进行操作。您可以利用全方位的安全功能,帮助为各种行业法规提供支持。

了解更多 »

数据标记

Amazon SageMaker Ground Truth 对构建用于机器学习的高准确度培训数据集进行了简化。通过 SageMaker Ground Truth 控制台,您可以使用自定义或内置数据标记工作流,包括 3D 点云、视频、图像和文本等,在几分钟内开始标记数据。

开始使用 »

数据标记

Amazon SageMaker Ground Truth 对构建用于机器学习的高准确度培训数据集进行了简化。通过 SageMaker Ground Truth 控制台,您可以使用自定义或内置数据标记工作流,包括 3D 点云、视频、图像和文本等,在几分钟内开始标记数据。

开始使用 »

Feature Store

Amazon SageMaker Feature Store 是面向实时和批量 ML 特征处理的专用特征存储。您可以安全地存储、发现和共享特征,从而在训练和推理期间持续地获得相同特征,将部署时间缩短数个月。

了解更多 »

大规模数据处理

Amazon SageMaker Processing 将 SageMaker 的易用性、可扩展性和可靠性延伸到运行数据处理工作负载。SageMaker Processing 使您可以连接到现有的存储,增加运行作业所需的资源,将输出保存到持久性存储中,并提供日志和指标。

开始使用 »

3_collect_3@3x
Feature Store

Amazon SageMaker Feature Store 是面向实时和批量 ML 特征处理的专用特征存储。您可以安全地存储、发现和共享特征,从而在训练和推理期间持续地获得相同特征,将部署时间缩短数个月。

了解更多 »

3_collect_4@3x
大规模数据处理

Amazon SageMaker Processing 将 SageMaker 的易用性、可扩展性和可靠性延伸到运行数据处理工作负载。SageMaker Processing 使您可以连接到现有的存储,增加运行作业所需的资源,将输出保存到持久性存储中,并提供日志和指标。

开始使用 »

构建模型

一键式 Jupyter 笔记本

Amazon SageMaker Studio 笔记本是一键式 Jupyter 笔记本,而底层计算资源具有完全弹性,使您可以轻松调高或调低可用资源。只需单击即可共享笔记本,让您的同事获得保存在相同位置的相同的笔记本。

开始使用 »

内置算法

Amazon SageMaker 还在预构建的容器映像中提供超过 15 种可用的算法,这些容器可被用来快速训练与运行推理。

开始使用 »

4_build_1@3x
一键式 Jupyter 笔记本

Amazon SageMaker Studio 笔记本是一键式 Jupyter 笔记本,而底层计算资源具有完全弹性,使您可以轻松调高或调低可用资源。只需单击即可共享笔记本,让您的同事获得保存在相同位置的相同的笔记本。

开始使用 »

4_build_2@3x
内置算法

Amazon SageMaker 还在预构建的容器映像中提供超过 15 种可用的算法,这些容器可被用来快速训练与运行推理。

开始使用 »

预构建解决方案和开源模型

Amazon SageMaker JumpStart 使用预构建解决方案帮助您快速开始使用 ML,而且几次单击即可完成此类解决方案的部署。SageMaker JumpStart 还支持对超过 150 种热门的开源模型进行一键式部署和微调。

开始使用 »

AutoML

Amazon SageMaker Autopilot 可根据您的数据自动构建、训练和调整最佳机器学习模型,同时保持完全控制和可见性。您还可以一键将模型直接部署到生产当中,或进行迭代以提高模型的质量。

了解更多 »

预构建解决方案和开放源模型

Amazon SageMaker JumpStart 使用预构建解决方案帮助您快速开始使用 ML,而且几次单击即可完成此类解决方案的部署。SageMaker JumpStart 还支持对超过 150 种热门的开放源模型进行一键式部署和微调。

开始使用 »

AutoML

Amazon SageMaker Autopilot 可根据您的数据自动构建、训练和调整最佳机器学习模型,同时保持完全控制和可见性。您还可以一键将模型直接部署到生产当中,或进行迭代以提高模型的质量。

了解更多 »

针对主流框架专门优化

Amazon SageMaker 针对许多热门的深度学习框架经过专门优化,例如 TensorFlow、Apache MXNet、PyTorch,等等。框架始终是最新版本,而且针对在 AWS 上的性能经过优化。您无需手动设置这些框架,就可以在内置容器中使用它们。

开始使用 »

4_build_3@3x
针对主流框架专门优化

Amazon SageMaker 针对许多热门的深度学习框架经过专门优化,例如 TensorFlow、Apache MXNet、PyTorch、Chainer,等等。框架始终是最新版本,而且针对在 AWS 上的性能经过优化。您无需手动设置这些框架,就可以在内置容器中使用它们。

开始使用 »

本地模式

Amazon SageMaker 让您可以在本地执行测试和构建原型。SageMaker 中所用的 Apache MXNet 和 TensorFlow Docker 容器可在 GitHub 上获取。您可以在部署至训练或托管前下载此类容器,并使用 Python SDK 对脚本进行测试。

开始使用 »

强化学习

除传统的监督和自主学习外,Amazon SageMaker 还支持强化学习。SageMaker 具有内置、完全托管的强化学习算法,包括学术文献中的一些最新和最佳表现的算法。

开始使用 »

本地模式

Amazon SageMaker 让您可以在本地执行测试和构建原型。SageMaker 中所用的 Apache MXNet 和 TensorFlow Docker 容器可在 GitHub 上获取。您可以在部署至训练或托管前下载此类容器,并使用 Python SDK 对脚本进行测试。

开始使用 »

强化学习

除传统的监督和自主学习外,Amazon SageMaker 还支持强化学习。SageMaker 具有内置、完全托管的强化学习算法,包括学术文献中的一些最新和最佳表现的算法。

开始使用 »

训练和调优模型

实验管理和跟踪

Amazon SageMaker Experiments 通过捕获输入参数、配置和结果并将其存储为“实验”来帮助您跟踪 ML 模型的迭代。在 SageMaker Studio 中,您可以浏览进行中的实验、搜索先前的实验、查看先前的实验及结果,以及比较实验结果。

开始使用 »

实验管理和跟踪

Amazon SageMaker Experiments 通过捕获输入参数、配置和结果并将其存储为“实验”来帮助您跟踪 ML 模型的迭代。在 SageMaker Studio 中,您可以浏览进行中的实验、搜索先前的实验、查看先前的实验及结果,以及比较实验结果。

开始使用 »

调试与分析训练运行

Amazon SageMaker Debugger 会实时捕获指标并分析训练作业,因此您可以在将模型部署到生产前快速纠正性能问题。

了解更多 »

托管的 Spot 训练

Amazon SageMaker 提供托管的 Spot 训练,帮助您将训练成本降低高达 90%。当有可用计算能力时,训练作业将自动运行,并且能在因容量变化而造成中断后恢复。

开始使用 »

5_train_2@3x
调试与分析训练运行

Amazon SageMaker Debugger 会实时捕获指标并分析训练作业,因此您可以在将模型部署到生产前快速纠正性能问题。

了解更多 »

5_train_3@3x
托管的 Spot 训练

Amazon SageMaker 提供托管的 Spot 训练,帮助您将训练成本降低高达 90%。当有可用计算能力时,训练作业将自动运行,并且能在因容量变化而造成中断后恢复。

开始使用 »

自动模型优化

Amazon SageMaker 可以通过调整数千个算法参数组合来自动优化您的模型,从而达到模型能够实现的最精准预测,减少数个星期的工作量。自动模型优化使用机器学习快速优化您的模型。

开始使用 »

自动模型优化

Amazon SageMaker 可以通过调整数千个算法参数组合来自动优化您的模型,从而达到模型能够实现的最精准预测,减少数个星期的工作量。自动模型优化使用机器学习快速优化您的模型。

开始使用 »

一键式训练

只需一键即可指定数据位置、说明 SageMaker 实例的类型,并且开始进行训练。SageMaker 设置分布式计算集群、执行训练、将结果输出至 Amazon S3,然后销毁集群。

开始使用 »

分布式训练

Amazon SageMaker 可以加快执行分布式训练的速度。SageMaker 帮助在多个 GPU 之间分割您的数据,从而实现近线性扩展效率。SageMaker 还可以通过使用不到 10 行代码自动分析以及对您的模型进行分区,帮助在多个 GPU 之间分割您的模型。

开始使用 »

5_train_5@3x
一键式训练

只需一键即可指定数据位置、说明 SageMaker 实例的类型,并且开始进行训练。SageMaker 设置分布式计算集群、执行训练、将结果输出至 Amazon S3,然后销毁集群。

开始使用 »

5_train_6@3x
分布式训练

Amazon SageMaker 可以加快执行分布式训练的速度。SageMaker 帮助在多个 GPU 之间分割您的数据,从而实现近线性扩展效率。SageMaker 还可以通过使用不到 10 行代码自动分析以及对您的模型进行分区,帮助在多个 GPU 之间分割您的模型。

开始使用 »

将模型部署到生产中

一体适用的 CI/CD

借助于 Amazon SageMaker Pipelines,构建完全自动的工作流程,以实现涵盖数据准备、模型训练和模型部署的完整机器学习 (ML) 生命周期。

了解更多 »

持续监控模型

Amazon SageMaker Model Monitor 会自动检测已部署模型中的概念偏差,并提供详细的警报,帮助确定问题的根源,以便您可以随时间推移不断提高模型质量。通过 SageMaker 训练的所有模型都会自动发送关键指标,这些指标可以在 SageMaker Studio 中收集和查看。

开始使用 »

6_deploy_1@3x
一体适用的 CI/CD

借助于 Amazon SageMaker Pipelines,构建完全自动的工作流程,以实现涵盖数据准备、模型训练和模型部署的完整机器学习 (ML) 生命周期。

了解更多 »

6_deploy_2@3x
持续监控模型

Amazon SageMaker Model Monitor 会自动检测已部署模型中的概念偏差,并提供详细的警报,帮助确定问题的根源,以便您可以随时间推移不断提高模型质量。通过 SageMaker 训练的所有模型都会自动发送关键指标,这些指标可以在 SageMaker Studio 中收集和查看。

开始使用 »

人工审核

许多机器学习应用程序都要求人工审核低置信度预测,以确保结果正确无误。Amazon Augmented AI 为常见的机器学习使用案例提供内置的人工审核工作流程。

了解更多 »

人工审核

许多机器学习应用程序都要求人工审核低置信度预测,以确保结果正确无误。Amazon Augmented AI 为常见的机器学习使用案例提供内置的人工审核工作流程。

了解更多 »

批量转换

Amazon SageMaker 批量转换消除了为批量处理作业调整大型数据集大小的必要性。通过批量转换,您可以使用简单的 API 对大批量或小批量数据集运行预测。

开始使用 »

与 Kubernetes 集成

您可以使用 Amazon SageMaker,同时使用 Kubernetes 和 Kubeflow 来编排与管理管道。SageMaker 让您可以在 SageMaker 中使用 Kubernetes 运算符训练与部署模型,而 SageMaker Components for Kubeflow Pipelines 则允许您使用 SageMaker,期间不必为 ML 管理 Kubernetes。

了解更多 »

6_deploy_5@3x
批量转换

Amazon SageMaker 批量转换消除了为批量处理作业调整大型数据集大小的必要性。通过批量转换,您可以使用简单的 API 对大批量或小批量数据集运行预测。

开始使用 »

6_deploy_4@3x
与 Kubernetes 集成

您可以使用 Amazon SageMaker,同时使用 Kubernetes 和 Kubeflow 来编排与管理管道。SageMaker 让您可以在 SageMaker 中使用 Kubernetes 运算符训练与部署模型,而 SageMaker Components for Kubeflow Pipelines 则允许您使用 SageMaker,期间不必为 ML 管理 Kubernetes。

了解更多 »

额外的推理计算

借助 Amazon Elastic Inference,您可向任何 Amazon SageMaker 实例类型连接适当量级的 GPU 推理加速而无需更改代码。

开始使用 »

额外的推理计算

借助 Amazon Elastic Inference,您可向任何 Amazon SageMaker 实例类型连接适当量级的 GPU 推理加速而无需更改代码。

开始使用 »

一键式部署

Amazon SageMaker 可以轻松在生产环境中一键式部署您的受训模型,以便您开始针对实时或批量数据生成预测。您可以跨多个可用区在自动扩展的实例上一键部署模型以实现高冗余。

开始使用 »

多模型终端节点

Amazon SageMaker 提供了一种可扩展且经济高效的方法来部署大量自定义机器学习模型。借助 SageMaker 多模型终端节点,您只需单击一个终端节点即可部署多个模型,并使用单个服务容器提供服务。

开始使用 »

6_deploy_7@3x
一键式部署

Amazon SageMaker 可以轻松在生产环境中一键式部署您的受训模型,以便您开始针对实时或批量数据生成预测。您可以跨多个可用区在自动扩展的实例上一键部署模型以实现高冗余。

开始使用 »

6_deploy_8@3x
多模型终端节点

Amazon SageMaker 提供了一种可扩展且经济高效的方法来部署大量自定义机器学习模型。借助 SageMaker 多模型终端节点,您只需单击一个终端节点即可部署多个模型,并使用单个服务容器提供服务。

开始使用 »

推理管道

Amazon SageMaker 使您可以部署推理管道,从而能传递原始输入数据并对实时和批量推理执行预处理、预测和后处理。您可以构建特征数据处理和特征工程管道,并将其作为推理管道的一部分进行部署。

开始使用 »

推理管道

Amazon SageMaker 使您可以部署推理管道,从而能传递原始输入数据并对实时和批量推理执行预处理、预测和后处理。您可以构建特征数据处理和特征工程管道,并将其作为推理管道的一部分进行部署。

开始使用 »

边缘设备上的机器学习

在任何设备上运行模型

借助于 Amazon SageMaker Neo,您只需对 ML 模型进行一次训练,便可在云端和边缘设备上部署模型。SageMaker Neo 利用 ML 对经过训练的模型进行优化,使其能够以高达两倍的速度运行,而使用不到 1/10 的内存。

了解更多 »

在边缘设备上操作模型

Amazon SageMaker Edge Manager 对监控和管理在边缘设备上运行的模型进行了简化。SageMaker Edge Manager 会自动从设备提取数据样本,将其安全地发送到云以便进行监控、标记和再训练,因此您可以持续改善模型的质量。

了解更多 »

7_machine_learning_at_edge_1@3x
在任何设备上运行模型

借助于 Amazon SageMaker Neo,您只需对 ML 模型进行一次训练,便可在云端和边缘设备上部署模型。SageMaker Neo 利用 ML 对经过训练的模型进行优化,使其能够以高达两倍的速度运行,而使用不到 1/10 的内存。

了解更多 »

7_machine_learning_at_edge_2@3x
在边缘设备上操作模型

Amazon SageMaker Edge Manager 对监控和管理在边缘设备上运行的模型进行了简化。SageMaker Edge Manager 会自动从设备提取数据样本,将其安全地发送到云以便进行监控、标记和再训练,因此您可以持续改善模型的质量。

了解更多 »