亚马逊AWS官方博客
Category: Artificial Intelligence
《针对智能摄像头与智能家居厂商的视频分析》之典型应用场景和核心特性
使用 Claude 赋能智能摄像头与智能家居厂商的视频分析场景
基于大模型的多意图增强搜索
本文将会以传统业务系统非常普遍的数据匹配检索为例,深入剖析如何利用 Claude 的强大语义分析能力,改变传统应用的交互模式并快速实现搜索性能的优化。
AWS 一周综述 – LlamaIndex 对 Amazon Neptune 的支持、强制删除 AWS CloudFormation 堆栈等(2024 年 5 月 27 日)
上周,Matt Wood 博士,Amazon Web Services(AWS)人工智能产品副总裁,在洛杉 […]
LLM Inference on Amazon EKS
LLM on AWS EKS 方案主要关注客户在自有账号部署大语言模型的需求,基于云原生 K8S 的解决方案,兼具了大语言模型推理的功能完备性、服务的扩展性和应用层面的可观测性等,帮助客户快速打造大语言模型在 AWS 平台上的推理能力。
Bedrock 多模型接入 – Bedrock Connector 部署与使用指南
在 Claude 3 发布之后,其强大的多模态推理、视觉能力、翻译、总结、写作、编码等能力,再次激发生成式 AI 的热潮。Amazon Bedrock 也是首个 Claude 3 全托管且正式可用的服务。如何通过 API Key 调用 Bedrock Claude,如何多模型接入,多租户计费等需求,一直是很多人关注的问题。为此我们开发了 Bedrock Connector 并开源,供大家测试使用和代码参考。
面向 GPU 服务器的 SageMaker 无痛使用指南(三)—SageMaker HyperPod 集群
SageMaker HyperPod 集群是一种基于 Slurm 的高性能弹性计算集群,可以实现跨机器跨 GPU 的大规模并行训练。 它提供了原生的 IaaS 基础设施服务器,可以自由操控和部署各种模型和框架,充分发挥亚马逊云端可伸缩的计算能力,显著缩短了大模型在海量数据集上的训练时间。 本文详细介绍了 SageMaker Hyperpod 集群的启动、配置、连接、管理和在其上进行分布式训练的方法。
面向 GPU 服务器的 SageMaker 无痛使用指南(二)—SageMaker TrainingJob
本文是面向 GPU 服务器的 SageMaker 系列博客的一部分,文中我们将介绍如何像使用 EC2 GPU 服务器一样,在 SageMaker training Job 中进行 GenAI 模型的微调训练开发及调试,及训练完成后使用 SageMaker Endpoint 推理实例进行模型部署和即时推理。
面向 GPU 服务器的 SageMaker 无痛使用指南(一)—SageMaker Notebook 笔记本实例
本系列博客旨在整理面向原生 GPU 服务器的 SageMaker 使用方法,包括 SageMaker Notebook 实例、Training Job 训练任务、Inference Endpoint 推理端点、SageMaker Hyperpod HPC 高性能集群等各种 SageMaker 功能组件。本文介绍 SageMaker Notebook 笔记本实例上 GPU 服务器的使用方法。
基于 LLM 构建企业专属用户助手:PingCAP 在 TiDB Bot 上的探索和实践
本文将会介绍 PingCAP 在使用 LLM 构建 TiDB 社区智能助手 TiDB bot 的实践和探索经验。
Bedrock 大语言模型智能解题
关于学生使用大语言模型和其他人工智能聊天机器人的好处和风险的讨论一直在进行。虽然大语言模型如何融入教育以提高学习成果,但正确使用 LLM 提升解题效率的重要性毋庸置疑。在这篇博客中,我们将以数学与语言学习的三个问题为例探讨大语言模型的准确性。
