亚马逊AWS官方博客

Category: Industries

利用大模型 embedding 结合 Aurora PostgreSQL 实现医疗术语检索增强生成的解决方案

在这篇博客中,我们将讨论使用双路召回的方式来优化医疗文献检索。其一是利用大模型对所有医疗文献的摘要进行 embedding,输出的向量数据存储到向量数据库;用户检索时,把用户输入的医疗术语进行 embedding 向量化,在向量数据库中进行相似性检索,找到最相似的文档。其二是通过对文献的摘要提取关键字,存入 Aurora PostgreSQL 中并创建倒排索引,实现对用户输入进行全文检索。两种方法结合,提高文档召回的精确度,缩小上图中的 Medical data 的范围和尺寸,达到减少幻觉并降低 token 数的诉求。

借助 Amazon Personalize 提升电商个性化推荐效果的最佳实践

本文介绍了如何利用 Amazon Personalize 机器学习服务快速构建高效的电商个性化推荐系统。重点阐述了数据 Schema 设计、算法配方选择、游客/匿名用户推荐、推荐策略优化等最佳实践,以及防止推荐重复商品、处理下架商品、利用 Context 信息等技巧,旨在帮助电商企业提升推荐系统的营销转化率。Amazon Personalize 作为完全托管的推荐服务,降低了算法工程门槛,是构建个性化推荐系统的优选方案。

基于 AWS Step Functions 和 AWS Batch 服务构建宏基因分析工作负载

本文旨在介绍一个在 AWS 上构建宏基因分析工作负载的方案,该方案对常用的一些宏基因分析软件完成了容器化,并以批量计算服务 AWS Batch 为核心,构建容器化的宏基因分析集群和自动化工作流。本方案已经在多个客户的实际宏基因分析业务中得到应用,如土壤微生物/病毒宏基因分析,海洋微生物宏基因分析等。根据客户的实际业务场景,本方案也可以扩展到通用的基因分析场景。

基于 Amazon MWAA 和 Amazon Batch,实现载荷仿真任务弹性调度和计算

本文将介绍如何利用 Amazon Managed Workflows for Apache Airflow(MWAA)和 Amazon Batch,构建一个弹性、高效的系统,用于管理和执行 Bladed 载荷仿真任务。Bladed 是一种用于风能和风力涡轮机的仿真软件,对于模拟风力涡轮机在不同工况下的性能至关重要。通过结合 MWAA 和 Batch,我们可以实现任务的灵活调度和计算资源的高效利用,从而提高 Bladed 仿真的整体效率。