亚马逊AWS官方博客

Category: Artificial Intelligence

使用 Amazon SageMaker 标记可疑的医疗保险索赔

此解决方案使用 Amazon SageMaker,它可以帮助开发人员和数据科学家构建、训练和部署 ML 模型。Amazon SageMaker 是一项完全托管的服务,涵盖了 ML 的整个工作流,可以标记和准备数据、选择算法、训练模型、调整和优化模型以便部署、预测和执行操作。
可以使用Amazon SageMaker Jupyter Notebook 端到端应用此解决方案。有关更多信息,请参阅 GitHub 存储库。

发布 Amazon Rekognition 自定义标签

今天,Amazon Web Services (AWS) 宣布推出 Amazon Rekognition 自定义标签。借助 Amazon Rekognition 的这项新功能,客户可以建立自己的基于专业机器学习 (ML) 的图像分析能力,在其特定的用例中鉴别独特的对象和场景。例如,客户无需任何ML专长,在使用 Amazon Rekognition 来识别图像中的机器部件时,可以用少量添加了标签的图像集进行训练,即可鉴别出“涡轮增压器”和“变矩器”。客户不再需要从头开始训练模型,这意味着无需专业的机器学习知识以及数以百万计的高质量带标签图像,只需使用 Amazon Rekognition 自定义标签功能即可快速满足其独特的图像分析需求。

Amazon Web Services 为 BERT 和 Mask R-CNN 实现了最快的训练速度

BERT 和 Mask R-CNN 都是如今最流行的机器学习模型,前者用于自然语言处理 (NLP),后者用于图像识别。过去几个月来,AWS 大幅改进了底层基础设施、网络和机器学习 (ML) 框架和模型代码,从而实现了这两个模型训练速度的提高。现在我们可以宣布在云中实现了迄今最快的 TensorFlow、MXNet 和 PyTorch 框架的训练速度。借助这些硬件和软件优化,您现在可以以同样的速度和效率训练您的模型。

使用 Amazon SageMaker Operator 简化 Kubernetes 上的机器学习推理

创建一个可靠、高效的机器学习推理服务需要做很多的投入。拿一个基于 XGBoost 模型的服务来说,开发人员需要创建一个完善的应用程序,例如通过 Flask 来加载模型,然后运行终端节点。创建这个应用程序,开发人员需要考虑队列管理、无故障部署以及重新加载新训练的模型等等事宜。应用开发好后被打包成容器镜像,然后推送到镜像仓库。Kubernetes 从镜像仓库拉取该镜像在集群上进行部署,部署好后才可以对外提供服务。这些步骤需要您的数据科学家从事与提高模型准确性无关的任务,或引进devops工程师来做这些工作。这些过程加到开发计划中,必然会需要更多的时间进行服务迭代。

使用 Amazon SageMaker 运行分布式 TensorFlow 训练

TensorFlow 是广泛被用于开发大型深度神经网络 (DNN) 的开源机器学习 (ML) 库,此类 DNN 经常会在多个主机上使用多个 GPU进行分布式训练。Amazon SageMaker 是一项托管服务,能够简化 ML 的工作流程,包括集成了主动学习的数据标记、超参数优化、模型分布式训练、监控训练进展、部署模型并提供自动扩展的 RESTful 服务集群、以及对并发 的ML 多项实验进行集中式管理等。
本文将重点讨论如何使用 Amazon SageMaker 进行基于TensorFlow的分布式训练。

通过使用 Amazon SageMaker 多模型终端节点节省推理成本

本博文介绍了 Amazon SageMaker 多模型终端节点,并演示了如何应用这项新功能通过 XGBoost 来预测各个细分市场的房屋价格。本博文演示了在多模型终端节点上同时部署10个模型,也演示了在 10 个独立的终端节点上分别部署 10 个模型,并对这两种使用情形进行了对比。如下图所示,前者相比后者每月节省了 3000 美金的成本。