亚马逊AWS官方博客

Category: Artificial Intelligence

使用 Amazon Transcribe 为视频增加中文字幕

Amazon Transcribe 是一项自动语音识别 (ASR) 服务,使开发人员能够轻松地为其应用程序添加语音转文本功能。自从在 re:Invent 2017 发布以来,越来越多的用户将语音识别功能添加到其应用程序和设备中。
Transcribe计划于2019年9月在中国的北京区域(BJS)和宁夏区域(ZHY)支持该项服务。在本文中,作者分享一个使用Amazon Transcribe为视频自动增加字幕的示例。

利用 Amazon Elastic Inference 设置工具在几分钟内快速加载 EI 加速器

Elastic Inference使得您可以将低成本的以GPU为动力的计算加速附加到 Amazon EC2 和 Amazon SageMaker 实例,从而将运行深度学习推理的成本降低多达 75%。如果您是第一次使用 EI,必须设置若干依赖项:Amazon Web Services (AWS) PrivateLink VPC 终端节点、IAM 策略和安全组规则。您可以使用 EI 设置工具来加速这一过程,它能够在几分钟内创建所需的资源帮助您启动 EI 加速器,使您快速上手。本文阐述了如何使用脚本、脚本的功能以及运行脚本时的情况。

现已在 Amazon SageMaker 上推出:EC2 P3dn GPU 实例

今天,我很高兴宣布最大型号的 P3 实例 p3dn.24xlarge 现已可在 Amazon SageMaker 上用于训练模型。此型号的实例于去年推出,专为加速大型复杂的分布式训练作业而设计:它的 GPU 内存是其他 P3 实例的两倍,vCPU 数量增加了 50%,具有超快速的本地 NVMe 存储和高达 100Gb 的网络带宽。

托管 Spot 训练:最高可节省 90% 的 Amazon SageMaker 训练作业成本

Amazon SageMaker 是一种完全托管的模块化机器学习 (ML) 服务,它可帮助开发人员和数据科学家轻松构建、训练和部署任意规模的模型。您可以使用内置的算法,也可以自带算法,或者使用来自 AWS Marketplace 的算法,让 ML 模型从试验走向大规模生产从未变得如此简单、快速。

使用AWS Sagemaker训练因子分解机模型并应用于推荐系统

本博客中的实验采用国内用户对大量国内外电影的评论作为训练数据集,利用AWS SageMaker自带的因子分解机算法构建模型,通过SageMaker的超参调优服务观察参数调整对模型表现的影响。最后,以实际应用中经常会遇到的用法演示模型的预测结果。本次实验全部使用Python3.6完成,在SageMaker中选用conda_python3的Kernel。

使用 EC2 C5 实例和 BigDL 来利用低精度和量化进行深度学习

在本博客中,我们将演示 BigDL,适用于 Apache Spark 的开源分布式深度学习框架,它可以利用 AWS C5 实例中提供的新功能,这些功能可以显着改善大型深度学习工作负载。具体来说,我们将展示 BigDL 如何使用 C5 实例来利用低精度和量化,以便最多将模型大小缩小 4 倍,使推理速度提升近 2 倍。

Amazon EC2 R5实例更新 – 更快的处理器,更多内存

最近,AWS 发布了基于最新一代 Intel Xeon Scalable Platinum 处理器的全新计算密集型 Amazon EC2 C5 实例。这些实例专为计算量大的应用程序设计,并且与 C4 实例相比,性能明显改进。它们还为每个 vCPU 提供更多内存,是矢量和浮点工作负载的两倍。
在本博客中,我们将演示 BigDL,适用于 Apache Spark 的开源分布式深度学习框架,它可以利用 AWS C5 实例中提供的新功能,这些功能可以显着改善大型深度学习工作负载。具体来说,我们将展示 BigDL 如何使用 C5 实例来利用低精度和量化,以便最多将模型大小缩小 4 倍,使推理速度提升近 2 倍。

使用 Amazon SageMaker 通过自定义数据集训练模型

对于刚上手机器学习的从业人员而言,业务需求所需要呈现的结果,往往不仅是用公开数据集就能够训练出合适的模型。我们往往只有少量的业务相关数据,甚至这些数据也需要从零开始收集整合,而这之后还需要进行数据清洗、数据打标签、特定数据格式转化等复杂的制作特定数据集的步骤,这些工作会阻塞住我们前进的脚步。除了容易在数据集上举步不前外,对于所需要数据量的误解也是另外一大阻碍因素。我们总认为进行机器学习需要“大量”的数据,究竟需要多少数据?在仅有少量数据时就不能训练出准确率较高的模型?本文试图从零开始,从制作自己的数据集开始,来探讨上面提出的问题。