亚马逊AWS官方博客
Alluxio 本地缓存 + EMR Presto 即席查询加速
对于大数据平台的 OLAP 查询引擎来说,天下武功唯快不破,Presto 做为大数据生态的业界知名的查询引擎和平台,首当其冲承载了业务查询分析的实时响应的需求。 对于 Presto 集群而言,横向扩展,加机器资源固然可以解决绝大多数性能问题,但成本也是客户考虑的重要因素。本文详细介绍了在 Amazon EMR 上集成 Alluxio 本地缓存做为 Presto 即席查询加速的具体实现,包括 Alluxio Presto 本地缓存整体架构原理,在 Amazon EMR 上 Alluxio 缓存相关的配置及对比测试。
使用 Amazon Kendra、LangChain 和大型语言模型根据企业数据快速构建高精度的生成式人工智能应用程序
在这篇文章中,我们将演示如何通过将 Amazon Kendra 的功能与 LLM 相结合来实现 RAG 工作流,从而创建最先进的 GenAI 应用程序来提供有关企业内容的对话体验。
使用 Amazon CodeWhisperer 和 Amazon CodeGuru 在 Amazon SageMaker notebook 中提供人工智能驱动的代码建议和安全防御工具扫描
在这篇博文中,我们将展示如何在 Studio 和 SageMaker notebook 实例中开始使用 Amazon CodeGuru 安全防御工具和 CodeWhisperer。
基于大语言模型知识问答应用落地实践 – 知识召回调优(上)
本文是本系列的第三篇,对 RAG 场景中的知识召回展开介绍,对比和分析了向量召回和倒排召回的优劣势,并基于一些实践总结了倒排召回问题分析和优化的经验。
技术领导者如何为生成式 AI 做好准备
作为企业信息部门、技术部门、以及数据部门的领导者,面对生成式 AI,你应该思考些什么?你能做些什么准备?本文说明了几个比较主要的方向。
使用 QLoRA 在 Amazon SageMaker Studio notebook 上对 Falcon-40B 和其他 LLM 进行交互式微调
在这篇文章中,我们展示了如何使用 Hugging Face PEFT 和 bitsandbtyes 在 SageMaker Studio notebook 上通过 QLoRA 微调 Falcon-40B 模型。
使用 Amazon SageMaker、Amazon OpenSearch Service、Streamlit 和 LangChain 构建功能强大的问答机器人
在这篇博文中,我们展示了如何结合使用 AWS 服务、开源 LLM 和开源 Python 软件包,来创建企业级 RAG 解决方案。
生成式 AI 对企业来说意味着什么?
尽管生成式 AI 是一项十分让人兴奋的新技术,最重要还是看你如何将这项技术和你现有的技术、员工技能、价值观、竞争力、愿景相结合。
4 vCPU 实例达成 100 万 JSON API 请求/秒的优化实践
“性能工程” (Performance engineering)是个日渐流行的概念。顾名思义“性能工程”是包含 […]
在 Amazon SageMaker 上使用 OpenChatkit 模型构建自定义聊天机器人应用程序
在这篇文章中,我们将展示如何使用 DJL Serving 以及 DeepSpeed 和 Hugging Face Accelerate 等开源模型并行库,在 Amazon SageMaker 上部署 OpenChatKit 模型(GPT-NeXT-Chat-Base-20B 和 GPT-JT-Moderation-6B 模型)。