亚马逊AWS官方博客
Category: Artificial Intelligence
基于大语言模型知识问答应用落地实践 – 知识召回调优(上)
本文是本系列的第三篇,对 RAG 场景中的知识召回展开介绍,对比和分析了向量召回和倒排召回的优劣势,并基于一些实践总结了倒排召回问题分析和优化的经验。
技术领导者如何为生成式 AI 做好准备
作为企业信息部门、技术部门、以及数据部门的领导者,面对生成式 AI,你应该思考些什么?你能做些什么准备?本文说明了几个比较主要的方向。
使用 QLoRA 在 Amazon SageMaker Studio notebook 上对 Falcon-40B 和其他 LLM 进行交互式微调
在这篇文章中,我们展示了如何使用 Hugging Face PEFT 和 bitsandbtyes 在 SageMaker Studio notebook 上通过 QLoRA 微调 Falcon-40B 模型。
使用 Amazon SageMaker、Amazon OpenSearch Service、Streamlit 和 LangChain 构建功能强大的问答机器人
在这篇博文中,我们展示了如何结合使用 AWS 服务、开源 LLM 和开源 Python 软件包,来创建企业级 RAG 解决方案。
生成式 AI 对企业来说意味着什么?
尽管生成式 AI 是一项十分让人兴奋的新技术,最重要还是看你如何将这项技术和你现有的技术、员工技能、价值观、竞争力、愿景相结合。
在 Amazon SageMaker 上使用 OpenChatkit 模型构建自定义聊天机器人应用程序
在这篇文章中,我们将展示如何使用 DJL Serving 以及 DeepSpeed 和 Hugging Face Accelerate 等开源模型并行库,在 Amazon SageMaker 上部署 OpenChatKit 模型(GPT-NeXT-Chat-Base-20B 和 GPT-JT-Moderation-6B 模型)。
通过 Amazon SageMaker JumpStart 在基础模型中使用检索式增强生成实现问答
在这篇文章中,我们将说明 RAG 及其优势,并演示如何快速使用示例 notebook,通过 Jumpstart 在 LLM 中使用 RAG 实现来解决问答任务。
使用 Amazon SageMaker Hugging Face 估计器和模型并行库微调 GPT-J
在这篇文章中,我们将介绍使用 Amazon SageMaker 分布式模型并行库训练大型语言模型(LLM)的指南和最佳实践,以减少训练时间和成本。您将学习如何轻松地在 SageMaker 上训练 60 亿个参数的 GPT-J 模型。最后,我们将分享 SageMaker 分布式模型并行性的主要特征,这些特征有助于加快训练时间。
在由 AWS Trainium 实例支持的 Amazon ECS 上,扩展机器学习工作负载
在这篇博文中,我们将向您展示如何使用 Amazon ECS 来部署、管理和扩展机器学习工作负载,以便在容器中运行机器学习训练作业。
预览版 – 使用 Amazon Bedrock 代理将基础模型连接到公司的数据源
我们在 7 月宣布推出 Amazon Bedrock 代理的预览版,这是让开发人员能够创建生成式 AI 应用程 […]