亚马逊AWS官方博客

Tag: Amazon SageMaker

利用 AWS SageMaker BlazingText 对不均衡文本进行多分类

本文使用了 SageMaker BlazingText 实现了文本多分类。在样本不均衡问题上,使用了回译和 EDA 两个方法对少类别样本进行了过采样处理,其中回译方法调用了 AWS Translate 服务进行了翻译再翻译,而 EDA 方法主要使用同义词替换、随机插入、随机交换、随机删除对文本数据进行处理。 本文也使用了AWS SageMaker 的自动超参数优化来为 BlazingText 的文本分类算法找到最优超参数。

Read More

在 Amazon SageMaker 管道模式下使用 Horovod 实现多 GPU 分布式训练

在Amazon SageMaker上以管道模式使用Horovod的多GPU或分布式训练方法,能够为数据集的各个分片创建独立的训练通道并在数据通道内访问对应分片,借此实现大规模模型训练。这种方式能够缩短在实际训练开始之前将数据集传输至训练实例所占用的时间,因此特别适用于具有大规模训练数据集的Amazon SageMaker训练场景。

Read More

使用 Amazon SageMaker 在生产环境中对机器学习模型 A/B 测试

Amazon SageMaker可帮助用户在端点之上运行多个生产变体,从而轻松对生产环境中的ML模型进行A/B测试。大家可以使用SageMaker提供的功能配合不同训练数据集、超参数、算法以及ML框架测试由此训练出的模型,了解它们在不同实例类型上的执行性能,并将各项因素整合起来形成不同搭配。我们还可以在端点上的各变体之间进行流量分配,Amazon SageMaker会根据指定的分发方式将推理流量拆分并分发至各个变体。

Read More

SNCF Réseau 和 Olexya 如何将 Caffe2 计算机视觉流水线任务迁移至 Amazon SageMaker 中的 Managed Spot Training

Amazon SageMaker支持从数据注释、到生产部署、再到运营监控的整个ML开发周期。正如Olexya与SNCF Réseau的工作所示,Amazon SageMaker具有良好的框架中立性,能够容纳各类深度学习工作负载及框架。除了预先为Sklearn、TensorFlow、PyTorch、MXNet、XGBoost以及Chainer创建配套Docker镜像与SDK对象以外,您也可以使用自定义Docker容器,几乎任何框架,如PeddlePaddle、Catboost、R以及Caffe2。

Read More

使用 Amazon SageMaker 与 Deep Graph Library 在异构网络中检测欺诈活动

在本文中,我们讲解了如何根据用户交易与活动构建异构图,并使用该图及其他收集到的特征训练GNN模型,最终对交易的欺诈性做出预测。本文还介绍了如何使用DGL与Amazon SageMaker定义并训练具备高预测性能的GNN模型。关于此项目的完整实现以及其他GNN模型详细信息,请参见GitHub repo。

Read More

对 PyTorch BERT 模型进行微调,并将其部署到 Amazon SageMaker 上的 Amazon Elastic Inference

在本文中,我们使用Amazon SageMaker以BERT为起点,训练出一套能够标记句子语法完整性的模型。接下来,我们将模型分别部署在使用Elastic Inference与不使用Elastic Inference的Amazon SageMaker终端节点。您也可以使用这套解决方案对BERT做其他方向的微调,或者使用PyTorch-Transformers提供的其他预训练模型。
Key Messages as Tag

Read More

将 Amazon SageMaker 与 Amazon Augmented AI 结合使用以人工查看表格数据和机器学习预测

本文展示了两个用例,分别通过Amazon A2I将表格数据引入人工审核工作流中,且分别对应不可变静态表与动态表。当然,本文对于Amazon A2I功能的表述只能算是冰山一角。目前Amazon A2I已经在12个AWS区域内正式上线,关于更多详细信息,请参阅区域表。

Read More