亚马逊AWS官方博客
使用 TLS 1.3 加快 AWS 云连接
为了提高连接的整体性能,我们已经开始跨全球各个 AWS 服务 API 端点启用 TLS 1.3 版,并将在 2023 年 12 月 31 日之前完成这项工作。
使用 AWS Application Migration Service Replication Agent 将 VMware 虚拟机迁移到 Amazon EC2
将 VMWare 虚机快速迁移至 EC2,体验全面云原生及生成式 AI 的无缝扩展
AWS 分析服务简化了用户对数据的访问、权限设置和审计
我很高兴地向大家介绍一个基于可信身份传播(AWS IAM Identity Center 最近推出的一项功 […]
适用于大型内存数据库的 Amazon EC2 大内存 U7i 实例
在 re:Invent 2023 上以预览版形式发布的 Amazon Elastic Compute Cl […]
AWS 一周综述 – LlamaIndex 对 Amazon Neptune 的支持、强制删除 AWS CloudFormation 堆栈等(2024 年 5 月 27 日)
上周,Matt Wood 博士,Amazon Web Services(AWS)人工智能产品副总裁,在洛杉 […]
Mistral Small 针对低延迟工作负载进行了优化,现已在 Amazon Bedrock 中推出
今天,我很高兴地宣布,来自 Mistral AI 的 Mistral Small 基础模型(FM)现已在 […]
LLM Inference on Amazon EKS
LLM on AWS EKS 方案主要关注客户在自有账号部署大语言模型的需求,基于云原生 K8S 的解决方案,兼具了大语言模型推理的功能完备性、服务的扩展性和应用层面的可观测性等,帮助客户快速打造大语言模型在 AWS 平台上的推理能力。
数据保护的守门员
本文分享数据保护的理念和最佳实践,介绍了 Backup 服务的多种安全机制如何助力客户的数据保护。
Bedrock 多模型接入 – Bedrock Connector 部署与使用指南
在 Claude 3 发布之后,其强大的多模态推理、视觉能力、翻译、总结、写作、编码等能力,再次激发生成式 AI 的热潮。Amazon Bedrock 也是首个 Claude 3 全托管且正式可用的服务。如何通过 API Key 调用 Bedrock Claude,如何多模型接入,多租户计费等需求,一直是很多人关注的问题。为此我们开发了 Bedrock Connector 并开源,供大家测试使用和代码参考。
面向 GPU 服务器的 SageMaker 无痛使用指南(三)—SageMaker HyperPod 集群
SageMaker HyperPod 集群是一种基于 Slurm 的高性能弹性计算集群,可以实现跨机器跨 GPU 的大规模并行训练。 它提供了原生的 IaaS 基础设施服务器,可以自由操控和部署各种模型和框架,充分发挥亚马逊云端可伸缩的计算能力,显著缩短了大模型在海量数据集上的训练时间。 本文详细介绍了 SageMaker Hyperpod 集群的启动、配置、连接、管理和在其上进行分布式训练的方法。
