亚马逊AWS官方博客
Category: Artificial Intelligence
使用 Amazon SageMaker 高效地训练、调整和部署自定义集成
在这篇文章中,我们介绍了一种训练、优化和部署自定义集成的方法。我们详细介绍了使用单个训练作业训练多个模型的过程、如何使用自动模型调整来优化集成超参数,以及如何部署一个融合多个模型推理的无服务器端点。
使用 AWS CDK 从 Amazon SageMaker JumpStart 部署生成式人工智能模型
我们展示了使用由 Streamlit、Lambda 和 API Gateway 提供支持的用户界面的图像生成示例和文本生成示例。现在,您可以在 JumpStart 中使用预训练的人工智能模型来构建生成式人工智能项目。您还可以扩展此项目,针对自己的使用案例对根基模型进行微调,并控制对 API Gateway 端点的访问。
人工智能愿景落地指南
许多公司知道他们需要人工智能,但却不知道从何入手。在这篇博文中,我将分享五项行动,帮助您超越行业术语的空谈,真正落实人工智能驱动的数字转型,重塑企业的未来。
通过 Optimum Neuron 加速 Llama 2 和 SDXL 在 Inf2 和 Trn1 上部署推理
Hugging Face 生态体系中的 Transformers 库为 state-of-the-art 预训练模型提供了非常方便的 API 和工具集,帮助用户轻松下载模型并完成训练,是工程师手边的必备神器。为了在更多加速硬件上(如亚马逊云科技的 Trainium 和 Inferentia)训练和运行 Transformers 模型,提升整体的效率,Hugging Face 推出了开源项目 Optimum 对其进行扩展,它提供了一套性能优化工具,可以最大效率地在目标硬件上训练和运行模型。
使用 Amazon Kendra、LangChain 和大型语言模型根据企业数据快速构建高精度的生成式人工智能应用程序
在这篇文章中,我们将演示如何通过将 Amazon Kendra 的功能与 LLM 相结合来实现 RAG 工作流,从而创建最先进的 GenAI 应用程序来提供有关企业内容的对话体验。
使用 Amazon CodeWhisperer 和 Amazon CodeGuru 在 Amazon SageMaker notebook 中提供人工智能驱动的代码建议和安全防御工具扫描
在这篇博文中,我们将展示如何在 Studio 和 SageMaker notebook 实例中开始使用 Amazon CodeGuru 安全防御工具和 CodeWhisperer。
基于大语言模型知识问答应用落地实践 – 知识召回调优(上)
本文是本系列的第三篇,对 RAG 场景中的知识召回展开介绍,对比和分析了向量召回和倒排召回的优劣势,并基于一些实践总结了倒排召回问题分析和优化的经验。
技术领导者如何为生成式 AI 做好准备
作为企业信息部门、技术部门、以及数据部门的领导者,面对生成式 AI,你应该思考些什么?你能做些什么准备?本文说明了几个比较主要的方向。
使用 QLoRA 在 Amazon SageMaker Studio notebook 上对 Falcon-40B 和其他 LLM 进行交互式微调
在这篇文章中,我们展示了如何使用 Hugging Face PEFT 和 bitsandbtyes 在 SageMaker Studio notebook 上通过 QLoRA 微调 Falcon-40B 模型。
使用 Amazon SageMaker、Amazon OpenSearch Service、Streamlit 和 LangChain 构建功能强大的问答机器人
在这篇博文中,我们展示了如何结合使用 AWS 服务、开源 LLM 和开源 Python 软件包,来创建企业级 RAG 解决方案。

