亚马逊AWS官方博客
本地 NVMe 存储高达 22.8TB 的 Amazon EC2 C8id、M8id 和 R8id 实例正式发布
今天,我们宣布推出新的 Amazon EC2 C8id、M8id 和 R8id 实例,这些实例由通过物理方式连接到主机服务器的基于 NVMe 的 SSD 块级实例存储(高达 22.8 TB)提供支持。与之前的第六代实例相比,这些实例的 vCPU、内存和本地存储容量提升了 3 倍。
AWS IAM Identity Center 现在支持适用于 AWS 账户访问和应用程序使用的多区域复制功能
今日,我们宣布 AWS IAM Identity Center 多区域支持功能正式发布,该功能让您能够在更多 AWS 区域实现 AWS 账户访问以及托管应用程序的使用。
宣布推出由 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU 加速的 Amazon EC2 G7e 实例
今天,我们宣布 Amazon Elastic Compute Cloud(Amazon EC2)G7e 实例正式发布,该实例可为生成式人工智能推理工作负载提供经济高效的性能,并为图形工作负载提供极高的性能。
由定制英特尔至强 6 处理器提供支持的 Amazon EC2 X8i 实例正式发布,适用于内存密集型工作负载
继在 AWS re:Invent 2025 上发布预览版后,我们进一步宣布,全新的内存优化型 Amazon Elastic Compute Cloud(Amazon EC2)X8i 实例正式发布。该实例由定制的英特尔至强 6 处理器提供支持,可实现 3.9 GHz 全核持续睿频,这一规格仅在 AWS 上提供。这些通过 SAP 认证的实例是云端同类型英特尔处理器中性能极强、内存带宽极高的产品。
在 Amazon SageMaker HyperPod 上推出无检查点和弹性训练
今天,我们宣布在 Amazon SageMaker HyperPod 中推出两项全新的 AI 模型训练功能:无检查点训练 和 弹性训练。前者通过启用点对点状态恢复,减少了对传统基于检查点的恢复方式的依赖;后者则使 AI 工作负载能够基于资源可用性自动扩展。
Amazon SageMaker AI 中的新无服务器定制加速模型微调
今天,我很高兴宣布,Amazon SageMaker AI 针对 Amazon Nova、DeepSeek、GPT-OSS、Llama、Qwen 等热门 AI 模型,推出了全新的无服务器模型定制功能。这项新的定制能力提供了易于使用的界面,支持强化学习等最新的微调技术,使您能够将 AI 模型定制流程从数月缩短至数天。
介绍适用于内存密集型工作负载的 Amazon EC2 X8aedz 实例(由第 5 代 AMD EPYC 处理器提供支持)
今天,我们宣布推出由第五代 AMD EPYC 处理器提供支持的全新内存优化型高频 Amazon Elastic Compute Cloud(Amazon EC2)X8aedz 实例。这些实例提供最高的 CPU 频率,云端为 5GHz。与上一代 X2iezn 实例相比,这些实例的计算性能提高了两倍,性价比高达 31%。
Amazon Bedrock 新增 18 个完全托管式开放权重模型,包括新的 Mistral Large 3 和 Ministral 3 模型
今天,我们宣布在 Amazon Bedrock 中正式推出来自 Google、Moonshot AI、MiniMax AI、Mistral AI、NVIDIA、OpenAI 和 Qwen 的 18 个完全托管式开放权重模型,其中包括新的 Mistral Large 3 和 Ministral 3 3B、8B 和 14B 模型。
Amazon OpenSearch Service 通过 GPU 加速和自动优化提升向量数据库性能并降低成本
今天我们宣布在 Amazon OpenSearch Service 中推出无服务器 GPU 加速和向量索引自动优化功能,帮助您以更低成本快速构建大规模向量数据库,并自动优化向量索引,在搜索质量、速度与成本之间实现最佳平衡。
Amazon CloudWatch 推出面向运营、安全和合规的统一数据管理与分析功能
今天我们扩展了 Amazon CloudWatch 功能,通过灵活强大的分析能力,在一个地方统一管理运营、安全和合规应用场景的日志数据,同时减少数据重复和成本。



