亚马逊AWS官方博客
基于大语言模型知识问答应用落地实践 – 知识召回调优(上)
本文是本系列的第三篇,对 RAG 场景中的知识召回展开介绍,对比和分析了向量召回和倒排召回的优劣势,并基于一些实践总结了倒排召回问题分析和优化的经验。
技术领导者如何为生成式 AI 做好准备
作为企业信息部门、技术部门、以及数据部门的领导者,面对生成式 AI,你应该思考些什么?你能做些什么准备?本文说明了几个比较主要的方向。
新功能 — 基于 Apple Silicon M2 Pro Mac Mini 计算机构建的 Amazon EC2 M2 Pro Mac 实例
今天,我们宣布 Amazon EC2 M2 Pro Mac 实例正式发布。在为 Apple 平台构建和测试应用 […]
新增功能 – 适用于 Amazon Elastic Block Store io2 卷的 NVMe 预留
Amazon Elastic Block Store(Amazon EBS)io2 和 io2 Block E […]
使用 QLoRA 在 Amazon SageMaker Studio notebook 上对 Falcon-40B 和其他 LLM 进行交互式微调
在这篇文章中,我们展示了如何使用 Hugging Face PEFT 和 bitsandbtyes 在 SageMaker Studio notebook 上通过 QLoRA 微调 Falcon-40B 模型。
使用 Amazon SageMaker、Amazon OpenSearch Service、Streamlit 和 LangChain 构建功能强大的问答机器人
在这篇博文中,我们展示了如何结合使用 AWS 服务、开源 LLM 和开源 Python 软件包,来创建企业级 RAG 解决方案。
生成式 AI 对企业来说意味着什么?
尽管生成式 AI 是一项十分让人兴奋的新技术,最重要还是看你如何将这项技术和你现有的技术、员工技能、价值观、竞争力、愿景相结合。
4 vCPU 实例达成 100 万 JSON API 请求/秒的优化实践
“性能工程” (Performance engineering)是个日渐流行的概念。顾名思义“性能工程”是包含 […]
在 Amazon SageMaker 上使用 OpenChatkit 模型构建自定义聊天机器人应用程序
在这篇文章中,我们将展示如何使用 DJL Serving 以及 DeepSpeed 和 Hugging Face Accelerate 等开源模型并行库,在 Amazon SageMaker 上部署 OpenChatKit 模型(GPT-NeXT-Chat-Base-20B 和 GPT-JT-Moderation-6B 模型)。
通过 Amazon SageMaker JumpStart 在基础模型中使用检索式增强生成实现问答
在这篇文章中,我们将说明 RAG 及其优势,并演示如何快速使用示例 notebook,通过 Jumpstart 在 LLM 中使用 RAG 实现来解决问答任务。