亚马逊AWS官方博客
Category: Artificial Intelligence
基于 Amazon Bedrock 和 Amazon Connect 打造智能客服自助服务 – 设计篇
本文探讨亚马逊云科技 Amazon Connect 与 Amazon Bedrock 构建智能呼叫中心方案,通过提示词工程和 RAG 知识库提升客户体验,利用 Connect 随路数据简化提示词缓存机制。方案从技术实现与成本效益双维度出发,结合模型选型分析及详细费用测算,为搭建兼顾性能与成本的智能化呼叫中心提供最佳实践参考,特别优化了系统架构的实用性和经济性。
使用 Amazon Q Developer 构建企业自动化代码审核流程
本文使用 Amazon Q Developer 的人工智能开发助手,构建了自动化的企业代码审核流程。
Apache Seatunnel & Amazon Bedrock 助力生成式 AI 应用规模化生产实践
在本方案中,我们以 SeaTunnel 为数据处理主干,利用其 Source 模块从业务数据库/对象存储中实时提取原始数据,使用 Transform 模块调用Amazon Bedrock 接口完成文本向量化,最终通过 Sink 模块将结果写入 Amazon OpenSearch,构建支持语义检索的向量索引。
AWS 一周综述:Amazon S3 Express One Zone 存储类降价、Pixtral Large 在 Amazon Bedrock 中推出、Amazon Nova Sonic 发布等(2025 年 4 月 14 日)
2025 年 AWS Summit 本周正式开启,首站巴黎 Summit 率先拉开帷幕。这些免费活动汇聚全球云 […]
Amazon Inf2 上的 DeepSeek-R1 蒸馏模型:监控与评估实践
客户部署自己的大模型时,常常会遇到如何评估模型部署的性能和如何调优的问题, 本篇主要针对如何评估性能进行讨论。 基于 vllm 部署的模型, 通过 Prometheus 和 Grafana 如何取得模型推理的性能参数,以及如何解读这些参数进行讨论。 本文采用 inferentia2 作为测试环境, 因为本篇的目的主要是解读性能参数, 在这篇里不会讨论 inferentia2 的规格和运行配置进行优化。
一键部署 Ollama 与 OpenWebUI 至 Amazon EC2
本文将介绍如何通过一键操作,在 Amazon EC2 实例上部署 Ollama 与 OpenWebUI,实现本地大语言模型(LLM)环境的快速启动。
使用 SageMaker InferenceComponent 和 LiteLLM 构建自己的 MaaS 平台
通过 liteLLM,Sagemaker Inference Component 推理端点,构建一个统一的 MaaS 中台,客户不仅能够集成多种模型,还能充分利用高性能硬件,实现资源的高效管理。这种灵活且高效的架构,将为客户在人工智能领域的应用打下坚实的基础,助力其在竞争中脱颖而出。
企业级 AI 平台建设思路
这篇文章探讨了构建企业级AI平台的重要性和方法。它提出了四步法:识别关键业务流程、评估所需 AI 能力、设计灵活可扩展的技术架构、培养人才并整合团队。文章详细介绍了一个七层架构框架,从基础设施到应用层。同时,提供了实施路线图,建议采用案例驱动、迭代式方法,逐步建立全面的 AI 生态系统,同时确保法律合规和风险管理。
推出 Amazon Nova Sonic:为生成式 AI 应用程序带来类似人类的语音对话体验
语音界面对于在客户支持呼叫自动化、游戏、互动式教育和语言学习等不同领域提升客户体验至关重要。然而,在构建支持语 […]
Amazon Bedrock 现已提供 Pixtral Large 25.02 模型
现在,我们宣布,Pixtral Large 25.02 模型现已作为完全托管式无服务器产品在 Amazon B […]


