亚马逊AWS官方博客
Tag: machine learning
使用 Amazon SageMaker 运行基于 TensorFlow 的中文命名实体识别
利用业内数据构建知识图谱是很多客户正在面临的问题,其中中文命名实体识别(Named Entity Recognition,简称NER)是构建知识图谱的一个重要环节。我们在与客户的交流中发现,现有的NER工具(比如Jiagu)对于特定领域的中文命名实体识别效果难以满足业务需求,而且这些工具很难使用自定义数据集训练。因此客户迫切想使用业内最先进的算法在行业内数据集上进行训练,以改进现有NER工具的不足。本文将介绍如何使用Amazon SageMaker运行基于TensorFlow的中文命名实体识别。
在 Amazon SageMaker 中使用 XGBoost 来实现商业赋能
毋庸置疑,机器学习,在商业中有着广泛的应用场景,但是通常来讲我们却只能看到只有一些高级玩家、大公司才能在他们的业务场景中真正的使用机器学习(Machine Learning,后面用ML简写)来解决业务问题。这背后是有各种各样的原因的,其中最主要的两个原因:一个在于,相比传统的业务系统,机器学习的硬件价格高,一块v100的显卡价格昂贵,中小公司难以负担;另外一个难点在于,相比传统的业务系统,机器学习对于工程师的要求不同,专注于机器学习的数据科学家需要掌握特殊的技能,相关人才在市场上炙手可热,而且对于企业来说,即便找到了数据科学家,搭建和维护用于机器学习的相关系统也并非易事。
利用深度强化学习实现金融决策自动化
机器学习 (ML) 已经常态化应用于各个行业,但除了简单的预测场景之外,还有更为复杂的决策制定场景,为了支持长期的战略性目标,人们有时会选择,甚至必须作出非最优的短期决策。利用一种叫做强化学习 (RL) 的 ML 模型,可以学习如何优化策略,从而根据长期目标制定系列决策。
轻松构建 PyTorch 生成对抗网络(GAN)
本文将引领读者,从工程实践角度出发,借助 AWS 机器学习相关云计算服务,基于 PyTorch 机器学习框架,构建第一个生成对抗网络,开启全新的、有趣的机器学习和人工智能体验。
利用 SageMaker Operator 简化 Kubernetes 上的机器学习任务管理
Amazon SageMaker Operator 可以帮助数据科学家以及开发人员利用Kubernetes的接口来创建和管理SageMaker的任务,如机器学习的模型训练、超参优化、批量转换以及实时推理等。如图所示,SageMaker Operator可以让 开发与运维人员可以通过kubectl命令行或者kubernetes api接口调用的方式来管理和使用SageMaker服务,它就像翻译器一样,在Kubernetes平台与AWS SageMaker 服务之间搭建了一座桥梁,让那些已经很很熟悉Kubenretes 的开发、运维人员在无需投入过多精力的情况下,即可快速地使用SageMaker服务。
使用 AWS Neuron SDK 在 AWS Inferentia 芯片上进行机器学习推理
本文主要关于使用AWS Neuron SDK在AWS Inferentia芯片上进行机器学习推理。
Cinnamon AI 使用 Amazon SageMaker 托管 Spot 训练可节省 70% 的 ML 模型训练成本
开发人员需要不断对机器学习 (ML) 模型进行反复训练,才能够持续优化模型预测效果。模型训练时间在数分钟至数小时不等,也可能会花费多天才能完成,具体时长根据数据集大小而定。ML 开发是一个复杂、成本高的迭代过程。使用低成本的方式开展计算密集型工作对 ML 开发来说至关重要,这也是实现规模化的关键因素。
使用 Trinity Audio WordPress 插件将您的内容免费转换为音频
本博文由 Trinity Audio 的联合创始人兼首席执行官 Ron Jaworski 特约发表。用他们自己的话说,“Trinity Audio 是一个音频内容解决方案平台,可满足世界各地各种类型和规模的出版商和内容创建者,并且能够通过将读者转变为听众来帮助他们加入持续进行的音频革命行列中,从而创造当代受众非常期待的体验。”
利用 Amazon CodeGuru Profiler 调查性能问题
Amazon CodeGuru(预览版)能够分析应用程序的性能特征,并自动提供性能改善建议。Amazon CodeGuru Profiler 提供交互式可视化图形界面,以显示应用程序的运行时间耗费在什么地方。这些火焰图是功能强大的工具,可帮助您排查哪些代码方法造成延迟或使用过多 CPU 资源。
利用 Amazon Elastic Inference 设置工具在几分钟内快速加载 EI 加速器
Elastic Inference使得您可以将低成本的以GPU为动力的计算加速附加到 Amazon EC2 和 Amazon SageMaker 实例,从而将运行深度学习推理的成本降低多达 75%。如果您是第一次使用 EI,必须设置若干依赖项:Amazon Web Services (AWS) PrivateLink VPC 终端节点、IAM 策略和安全组规则。您可以使用 EI 设置工具来加速这一过程,它能够在几分钟内创建所需的资源帮助您启动 EI 加速器,使您快速上手。本文阐述了如何使用脚本、脚本的功能以及运行脚本时的情况。