亚马逊AWS官方博客
Category: Artificial Intelligence
利用 Amazon CodeGuru Profiler 调查性能问题
Amazon CodeGuru(预览版)能够分析应用程序的性能特征,并自动提供性能改善建议。Amazon CodeGuru Profiler 提供交互式可视化图形界面,以显示应用程序的运行时间耗费在什么地方。这些火焰图是功能强大的工具,可帮助您排查哪些代码方法造成延迟或使用过多 CPU 资源。
使用 Amazon SageMaker 标记可疑的医疗保险索赔
此解决方案使用 Amazon SageMaker,它可以帮助开发人员和数据科学家构建、训练和部署 ML 模型。Amazon SageMaker 是一项完全托管的服务,涵盖了 ML 的整个工作流,可以标记和准备数据、选择算法、训练模型、调整和优化模型以便部署、预测和执行操作。
可以使用Amazon SageMaker Jupyter Notebook 端到端应用此解决方案。有关更多信息,请参阅 GitHub 存储库。
发布 Amazon Rekognition 自定义标签
今天,Amazon Web Services (AWS) 宣布推出 Amazon Rekognition 自定义标签。借助 Amazon Rekognition 的这项新功能,客户可以建立自己的基于专业机器学习 (ML) 的图像分析能力,在其特定的用例中鉴别独特的对象和场景。例如,客户无需任何ML专长,在使用 Amazon Rekognition 来识别图像中的机器部件时,可以用少量添加了标签的图像集进行训练,即可鉴别出“涡轮增压器”和“变矩器”。客户不再需要从头开始训练模型,这意味着无需专业的机器学习知识以及数以百万计的高质量带标签图像,只需使用 Amazon Rekognition 自定义标签功能即可快速满足其独特的图像分析需求。
玩转 GPU 实例 – 我的 Linux 工具箱之二 – 基础设置
本文是教您如何优化GPU实例的第二篇博文。
Amazon Web Services 为 BERT 和 Mask R-CNN 实现了最快的训练速度
BERT 和 Mask R-CNN 都是如今最流行的机器学习模型,前者用于自然语言处理 (NLP),后者用于图像识别。过去几个月来,AWS 大幅改进了底层基础设施、网络和机器学习 (ML) 框架和模型代码,从而实现了这两个模型训练速度的提高。现在我们可以宣布在云中实现了迄今最快的 TensorFlow、MXNet 和 PyTorch 框架的训练速度。借助这些硬件和软件优化,您现在可以以同样的速度和效率训练您的模型。
AWS DeepComposer – 现已全面开放并增加新的功能
AWS DeepComposer 是一种创新的机器学习入门方法,在 AWS re:Invent 2019 大会上推出了预览版。今天AWS 宣布,DeepComposer 现已向所有 AWS 客户开放并增加了多项新功能。
AWS DeepRacer League:虚拟赛道开放,2020 赛季如火如荼!
AWS DeepRacer League 是全球首个面向所有人的自动驾驶赛车联赛。2019 年,来自世界各地的上万开发人员参加了一场极速计时赛,为争夺最快模型竞逐。最终,来自日本的 SOLA 成为大奖得主,并在 re:Invent 2019 大会现场举起了冠军奖杯!
使用 Amazon Athena 从您的 SageMaker 笔记本运行 SQL 查询
本博文将引导您完成构建数据管道所需的全部步骤—从使用 AWS Glue,为您在 Amazon S3 中的数据创建元数据爬取程序,进行数据发现与编目;到使用 Amazon Athena 检索表数据,以及通过 Amazon SageMaker Notebooks查询 Athena 表。
使用 Amazon SageMaker Operator 简化 Kubernetes 上的机器学习推理
创建一个可靠、高效的机器学习推理服务需要做很多的投入。拿一个基于 XGBoost 模型的服务来说,开发人员需要创建一个完善的应用程序,例如通过 Flask 来加载模型,然后运行终端节点。创建这个应用程序,开发人员需要考虑队列管理、无故障部署以及重新加载新训练的模型等等事宜。应用开发好后被打包成容器镜像,然后推送到镜像仓库。Kubernetes 从镜像仓库拉取该镜像在集群上进行部署,部署好后才可以对外提供服务。这些步骤需要您的数据科学家从事与提高模型准确性无关的任务,或引进devops工程师来做这些工作。这些过程加到开发计划中,必然会需要更多的时间进行服务迭代。
使用 Amazon SageMaker 运行分布式 TensorFlow 训练
TensorFlow 是广泛被用于开发大型深度神经网络 (DNN) 的开源机器学习 (ML) 库,此类 DNN 经常会在多个主机上使用多个 GPU进行分布式训练。Amazon SageMaker 是一项托管服务,能够简化 ML 的工作流程,包括集成了主动学习的数据标记、超参数优化、模型分布式训练、监控训练进展、部署模型并提供自动扩展的 RESTful 服务集群、以及对并发 的ML 多项实验进行集中式管理等。
本文将重点讨论如何使用 Amazon SageMaker 进行基于TensorFlow的分布式训练。