亚马逊AWS官方博客
《针对智能摄像头与智能家居厂商的视频分析》之典型应用场景和核心特性
使用 Claude 赋能智能摄像头与智能家居厂商的视频分析场景
基于大模型的多意图增强搜索
本文将会以传统业务系统非常普遍的数据匹配检索为例,深入剖析如何利用 Claude 的强大语义分析能力,改变传统应用的交互模式并快速实现搜索性能的优化。
TLS 1.3 与适用于 Java 的 AWS SDK 版本 1.9.5 至 1.10.31 不兼容
本博客旨在告知您,适用于 Java 的 AWS SDK 的旧版本(从版本 1.9.5 到 1.10.31)与 TLS 1.3 不兼容。如果您使用的是这些版本,要想继续能够连接到 AWS 端点,您将需要执行我们在下面概述的三种可能的操作之一。
使用 TLS 1.3 加快 AWS 云连接
为了提高连接的整体性能,我们已经开始跨全球各个 AWS 服务 API 端点启用 TLS 1.3 版,并将在 2023 年 12 月 31 日之前完成这项工作。
使用 AWS Application Migration Service Replication Agent 将 VMware 虚拟机迁移到 Amazon EC2
将 VMWare 虚机快速迁移至 EC2,体验全面云原生及生成式 AI 的无缝扩展
LLM Inference on Amazon EKS
LLM on AWS EKS 方案主要关注客户在自有账号部署大语言模型的需求,基于云原生 K8S 的解决方案,兼具了大语言模型推理的功能完备性、服务的扩展性和应用层面的可观测性等,帮助客户快速打造大语言模型在 AWS 平台上的推理能力。
数据保护的守门员
本文分享数据保护的理念和最佳实践,介绍了 Backup 服务的多种安全机制如何助力客户的数据保护。
Bedrock 多模型接入 – Bedrock Connector 部署与使用指南
在 Claude 3 发布之后,其强大的多模态推理、视觉能力、翻译、总结、写作、编码等能力,再次激发生成式 AI 的热潮。Amazon Bedrock 也是首个 Claude 3 全托管且正式可用的服务。如何通过 API Key 调用 Bedrock Claude,如何多模型接入,多租户计费等需求,一直是很多人关注的问题。为此我们开发了 Bedrock Connector 并开源,供大家测试使用和代码参考。
面向 GPU 服务器的 SageMaker 无痛使用指南(三)—SageMaker HyperPod 集群
SageMaker HyperPod 集群是一种基于 Slurm 的高性能弹性计算集群,可以实现跨机器跨 GPU 的大规模并行训练。 它提供了原生的 IaaS 基础设施服务器,可以自由操控和部署各种模型和框架,充分发挥亚马逊云端可伸缩的计算能力,显著缩短了大模型在海量数据集上的训练时间。 本文详细介绍了 SageMaker Hyperpod 集群的启动、配置、连接、管理和在其上进行分布式训练的方法。
面向 GPU 服务器的 SageMaker 无痛使用指南(二)—SageMaker TrainingJob
本文是面向 GPU 服务器的 SageMaker 系列博客的一部分,文中我们将介绍如何像使用 EC2 GPU 服务器一样,在 SageMaker training Job 中进行 GenAI 模型的微调训练开发及调试,及训练完成后使用 SageMaker Endpoint 推理实例进行模型部署和即时推理。