亚马逊AWS官方博客

Category: Artificial Intelligence

平民数据科学在企业的落地实践(一)

本文主要介绍来自AWS APN合作伙伴KNIME的数据科学和机器学习平台,这是一个平民化的机器学习平台,可以帮助企业低门槛的快速落地机器学习的能力。KINME的平台和AWS的数据服务有很好的结合,无论是数据源还是数据处理。同时KNIME在Gartner 2019数据科学和机器学习平台的魔力象限中处于领导者地位,技术领先行业。
本文作为系列文章的第一篇,用Kaggle上的泰坦尼克号幸存预测案例向读者介绍KNIME平台的使用。

Amazon Aurora 新功能 – 直接通过数据库使用机器学习

今天,若要将机器学习与关系数据库中的数据结合使用,您需要开发一个自定义应用程序来读取数据库中的数据,然后再应用机器学习模型。开发此应用程序需要多种技能才能与数据库进行交互和使用机器学习。这是一个新的应用程序,现在,您必须管理其性能、可用性和安全性。

使用 Amazon Transcribe 为视频增加中文字幕

Amazon Transcribe 是一项自动语音识别 (ASR) 服务,使开发人员能够轻松地为其应用程序添加语音转文本功能。自从在 re:Invent 2017 发布以来,越来越多的用户将语音识别功能添加到其应用程序和设备中。
Transcribe计划于2019年9月在中国的北京区域(BJS)和宁夏区域(ZHY)支持该项服务。在本文中,作者分享一个使用Amazon Transcribe为视频自动增加字幕的示例。

利用 Amazon Elastic Inference 设置工具在几分钟内快速加载 EI 加速器

Elastic Inference使得您可以将低成本的以GPU为动力的计算加速附加到 Amazon EC2 和 Amazon SageMaker 实例,从而将运行深度学习推理的成本降低多达 75%。如果您是第一次使用 EI,必须设置若干依赖项:Amazon Web Services (AWS) PrivateLink VPC 终端节点、IAM 策略和安全组规则。您可以使用 EI 设置工具来加速这一过程,它能够在几分钟内创建所需的资源帮助您启动 EI 加速器,使您快速上手。本文阐述了如何使用脚本、脚本的功能以及运行脚本时的情况。

现已在 Amazon SageMaker 上推出:EC2 P3dn GPU 实例

今天,我很高兴宣布最大型号的 P3 实例 p3dn.24xlarge 现已可在 Amazon SageMaker 上用于训练模型。此型号的实例于去年推出,专为加速大型复杂的分布式训练作业而设计:它的 GPU 内存是其他 P3 实例的两倍,vCPU 数量增加了 50%,具有超快速的本地 NVMe 存储和高达 100Gb 的网络带宽。

托管 Spot 训练:最高可节省 90% 的 Amazon SageMaker 训练作业成本

Amazon SageMaker 是一种完全托管的模块化机器学习 (ML) 服务,它可帮助开发人员和数据科学家轻松构建、训练和部署任意规模的模型。您可以使用内置的算法,也可以自带算法,或者使用来自 AWS Marketplace 的算法,让 ML 模型从试验走向大规模生产从未变得如此简单、快速。

使用AWS Sagemaker训练因子分解机模型并应用于推荐系统

本博客中的实验采用国内用户对大量国内外电影的评论作为训练数据集,利用AWS SageMaker自带的因子分解机算法构建模型,通过SageMaker的超参调优服务观察参数调整对模型表现的影响。最后,以实际应用中经常会遇到的用法演示模型的预测结果。本次实验全部使用Python3.6完成,在SageMaker中选用conda_python3的Kernel。