亚马逊AWS官方博客

Category: Artificial Intelligence

谈金融服务领域的机器学习最佳实践

《金融服务中的机器学习最佳实践》白皮书旨在帮助大家了解如何建立起安全且具有良好治理水平的机器学习工作流,大家也可以结合实际疑问与作者取得联系。在您的机器学习探索之旅中,不妨随时参阅另一份白皮书以了解适用于机器学习工作负载的AWS架构设计原则。

Amazon Personalize 现将快速变化的新产品与全新内容目录的个性化推荐效果提升达50%

Amazon Personalize提供的全新aws-user-personalization recipe能够在推荐结果中引入交互量较少的新项目,并在重新训练期间通过用户反馈学习项目属性,有效地缓解了项目冷启动问题。关于使用Amazon Personalize优化用户体验的更多详细信息,请参阅Amazon Personalize文档。

深度解析 TalkingData 使用 DJL 进行大规模深度学习打分应用

TalkingData发现了AWS基于Java开发的深度学习框架DJL(Deep Java Library)可以很好解决Spark在深度学习运算中的一些困境。在这个博客中,我们将带领大家了解TalkingData部署的模型,以及他们是如何利用DJL在Apache Spark上实现生产环境部署深度学习模型。这个解决方案最终将之前的生产架构简化,一切任务都可以在Apache Spark轻松运行,总时间也减少了66%。从长远角度上,这显著节省了维护成本。

利用 AWS SageMaker BlazingText 对不均衡文本进行多分类

本文使用了 SageMaker BlazingText 实现了文本多分类。在样本不均衡问题上,使用了回译和 EDA 两个方法对少类别样本进行了过采样处理,其中回译方法调用了 AWS Translate 服务进行了翻译再翻译,而 EDA 方法主要使用同义词替换、随机插入、随机交换、随机删除对文本数据进行处理。 本文也使用了AWS SageMaker 的自动超参数优化来为 BlazingText 的文本分类算法找到最优超参数。

在 Amazon SageMaker 管道模式下使用 Horovod 实现多 GPU 分布式训练

在Amazon SageMaker上以管道模式使用Horovod的多GPU或分布式训练方法,能够为数据集的各个分片创建独立的训练通道并在数据通道内访问对应分片,借此实现大规模模型训练。这种方式能够缩短在实际训练开始之前将数据集传输至训练实例所占用的时间,因此特别适用于具有大规模训练数据集的Amazon SageMaker训练场景。

通过 Amazon SageMaker R 内核访问数据源

在本文中,我们演示了如何在您的运行环境中接入各类数据源,包括Amazon EMR上的Hive与PrestoDB、Amazon Athena、Amazon Redshift以及MySQL兼容型Amazon Aurora集群等,并借此经由Amazon SageMaker实现分析、剖析并运行统计计算。您也可以通过JDBC将同一方法扩展到其他数据源。

通过置信评分与更高准确率,在 Amazon Lex 上构建高质量对话服务

虽然人们在与机器人交互时,使用的词语往往不那么精确,但我们仍然需要努力提供自然顺畅的用户体验。Amazon Lex此次推出的一系列自然语言理解改进与置信度评分,将帮助大家结合更多上下文信息设计出智能度更高的对话过程。您可以将Amazon Lex当中基于机器学习的intent区域功能与自有业务逻辑结合在用户intent当中,也可以在机器人开发过程中通过测试确定准确的置信度得分阈值,借此确定针对特定intent的样本话语更改是否能够实现预期效果。这些改进将帮助您设计出更加高效的对话流程。

通过 Amazon CodeGuru Profiler 简化应用程序的性能优化

我们很高兴能够帮助您使用 CodeGuru Profiler 已更快、更轻松地方式将性能优化能力集成到您的应用程序中。在这篇文章中,我们回顾并学习了如何使用CodeGuru Profiler 的两个最近的增强功能:基于资源的权限设置 和 使用 -javaagent 开关启动探查器代理,而无需修改应用程序的代码。