亚马逊AWS官方博客

Channy Yun (윤석찬)

Author: Channy Yun (윤석찬)

Channy is a Lead Blogger of AWS News Blog and Principal Developer Advocate for AWS Cloud. As an open web enthusiast and blogger at heart, he loves community-driven learning and sharing of technology.

由定制英特尔至强 6 处理器提供支持的 Amazon EC2 X8i 实例正式发布,适用于内存密集型工作负载

继在 AWS re:Invent 2025 上发布预览版后,我们进一步宣布,全新的内存优化型 Amazon Elastic Compute Cloud(Amazon EC2)X8i 实例正式发布。该实例由定制的英特尔至强 6 处理器提供支持,可实现 3.9 GHz 全核持续睿频,这一规格仅在 AWS 上提供。这些通过 SAP 认证的实例是云端同类型英特尔处理器中性能极强、内存带宽极高的产品。

在 Amazon SageMaker HyperPod 上推出无检查点和弹性训练

今天,我们宣布在 Amazon SageMaker HyperPod 中推出两项全新的 AI 模型训练功能:无检查点训练 和 弹性训练。前者通过启用点对点状态恢复,减少了对传统基于检查点的恢复方式的依赖;后者则使 AI 工作负载能够基于资源可用性自动扩展。

Amazon SageMaker AI 中的新无服务器定制加速模型微调

今天,我很高兴宣布,Amazon SageMaker AI 针对 Amazon Nova、DeepSeek、GPT-OSS、Llama、Qwen 等热门 AI 模型,推出了全新的无服务器模型定制功能。这项新的定制能力提供了易于使用的界面,支持强化学习等最新的微调技术,使您能够将 AI 模型定制流程从数月缩短至数天。

介绍适用于内存密集型工作负载的 Amazon EC2 X8aedz 实例(由第 5 代 AMD EPYC 处理器提供支持)

今天,我们宣布推出由第五代 AMD EPYC 处理器提供支持的全新内存优化型高频 Amazon Elastic Compute Cloud(Amazon EC2)X8aedz 实例。这些实例提供最高的 CPU 频率,云端为 5GHz。与上一代 X2iezn 实例相比,这些实例的计算性能提高了两倍,性价比高达 31%。

Amazon Bedrock 新增 18 个完全托管式开放权重模型,包括新的 Mistral Large 3 和 Ministral 3 模型

今天,我们宣布在 Amazon Bedrock 中正式推出来自 Google、Moonshot AI、MiniMax AI、Mistral AI、NVIDIA、OpenAI 和 Qwen 的 18 个完全托管式开放权重模型,其中包括新的 Mistral Large 3 和 Ministral 3 3B、8B 和 14B 模型。