亚马逊AWS官方博客

DeepSeek-R1 模型现已在 AWS 上可用

在刚刚过去的 AWS re:Invent 上,Amazon 首席执行官 Andy Jassy 分享了 Amazon 在全公司开发近 1000 个生成式人工智能应用程序的过程中收获的宝贵经验。Jassy 从如此大规模的人工智能部署中汲取灵感,并提出了影响 Amazon 企业人工智能实施方法的三个关键观点。

第一,在生成式人工智能应用程序规模化的过程中,计算成本至关重要。人们迫切需要更高性价比的方案。第二,构建一款真正出色的生成式人工智能应用程序其实非常困难。第三,当我们赋予开发者自由选择的权利时,所使用模型的多样性就会体现出来。这对我们来说并不意外,因为我们反复领悟到一个道理:绝不会会有哪款工具能适用于所有场景。

正如 Andy 所强调的,Amazon 提供的广泛而深入的模型,使客户能够选择最符合其独特需求的精确功能。通过密切关注客户需求和技术进步,AWS 会定期扩充我们精心挑选的模型库,纳入有潜力的新模型以及业内备受青睐的成熟模型。这种不断扩充高性能、差异化模型产品的做法,有助于客户始终站在人工智能创新的前沿。

这就使我们想到了中国 AI 初创企业 DeepSeek。DeepSeek 在 2024 年 12 月推出了 DeepSeek-V3,随后于 2025 年 1 月 20 日发布了拥有 6710 亿参数的 DeepSeek-R1、DeepSeek-R1-Zero,以及参数在 15 亿至 700 亿之间的 DeepSeek-R1-Distill 模型。2025 年 1 月 27 日,他们又新增了基于视觉的 Janus-Pro-7B 模型。这些模型已正式发布,据报道,与同类模型相比,它们的成本要低 90%-95%,性价比更高。据 DeepSeek 称,他们的模型凭借推理能力脱颖而出,这是通过强化学习等创新训练技术实现的。

如今,您可以在 Amazon BedrockAmazon SageMaker AI 中部署 DeepSeek-R1 模型。Amazon Bedrock 最适合希望通过 API 快速集成预训练基础模型的团队。Amazon SageMaker AI 则是那些需要高级自定义、训练和部署,并访问底层基础设施的组织的理想选择。此外,您还可以使用 AWS TrainiumAWS Inferentia,通过 Amazon Elastic Compute Cloud(Amazon EC2)或 Amazon SageMaker AI,以经济高效的方式部署 DeepSeek-R1-Distill 模型。

借助 AWS,只需最低的基础设施投资即可使用 DeepSeek-R1 这一强大且经济高效的模型来构建、实验和负责任地扩展您的生成式人工智能创意。您还可以依托专为安全设计的 AWS 服务,自信地推动生成式人工智能创新。我们强烈建议将 DeepSeek-R1 模型的部署与 Amazon Bedrock 防护机制集成,为您的生成式人工智能应用程序(Amazon Bedrock 和 Amazon SageMaker AI 的客户均可使用该应用程序)增添一层保护。

现在,您可以通过以下几种方式在 AWS 上部署 DeepSeek-R1 模型:1/ 在 Amazon Bedrock 市场部署 DeepSeek-R1 模型2/ 在 Amazon SageMaker JumpStart 部署 DeepSeek-R1 模型3/ 使用 Amazon Bedrock 自定义模型导入功能部署 DeepSeek-R1-Distill 模型4/ 使用 Amazon EC2 Trn1 实例部署 DeepSeek-R1-Distill 模型

接下来,让我带您了解在 AWS 上开始使用 DeepSeek-R1 模型的各种途径。无论是构建第一个人工智能应用程序,还是扩展现有解决方案,这些方法都能根据团队的专业知识和需求提供灵活的起点。

1.Amazon Bedrock 市场中的 DeepSeek-R1 模型
除了提供当前 Amazon Bedrock 中领先行业的模型,Amazon Bedrock 市场还提供 100 多种热门、新兴和专业的基础模型。您可以在一个统一目录中轻松发现模型,订阅模型,然后在托管端点上部署模型。

要在 Amazon Bedrock 市场中访问 DeepSeek-R1 模型,请前往 Amazon Bedrock 控制台,在基础模型部分下选择模型目录。可以通过搜索或按模型提供商筛选,快速找到 DeepSeek。

查看包括模型功能和实施指南在内的模型详情页面后,只需提供端点名称、选择实例数量并选择实例类型,即可直接部署模型。

您还可以配置高级选项,以便为 DeepSeek-R1 模型自定义安全和基础设施设置,包括 VPC 网络、服务角色权限和加密设置。对于生产部署,您应该查看这些设置,以符合所在组织的安全和合规要求。

借助 Amazon Bedrock 防护机制,您可以独立评估用户输入和模型输出。可以使用自定义策略集,通过在生成式人工智能应用中过滤不良和有害内容来控制用户与 DeepSeek-R1 的交互。Amazon Bedrock 市场中的 DeepSeek-R1 模型只能与 Bedrock 的 ApplyGuardrail API 配合使用,以评估用户输入和模型对 Amazon Bedrock 之外可用的自定义和第三方基础模型的响应。要了解更多信息,请阅读使用 Amazon Bedrock 防护机制实施与模型无关的安全措施

Amazon Bedrock 防护机制还可以与 Amazon Bedrock 代理Amazon Bedrock 知识库等其他 Bedrock 工具集成,以构建更安全、更可靠且符合负责任的人工智能策略的生成式人工智能应用程序。要了解更多信息,请访问 AWS 负责任的人工智能页面。

请参与这份关于如何在 Amazon Bedrock 市场中部署 DeepSeek-R1 模型的分步指南。要了解更多信息,请访问在 Amazon Bedrock 市场中部署模型

2.Amazon SageMaker JumpStart 中的 DeepSeek-R1 模型
Amazon SageMaker JumpStart 是一个机器学习(ML)中心,提供基础模型、内置算法和预构建的 ML 解决方案,只需点击几下即可部署。要在 SageMaker JumpStart 中部署 DeepSeek-R1,可以在 SageMaker Unified StudioSageMaker StudioSageMaker AI 控制台中,或通过 SageMaker Python SDK 以编程方式发现 DeepSeek-R1 模型。

Amazon SageMaker AI 控制台中,打开 SageMaker Unified Studio 或 SageMaker Studio。如果是 SageMaker Studio,请选择 JumpStart,并在所有公共模型页面中搜索 DeepSeek-R1

您可以选择该模型,然后选择“部署”,以使用默认设置创建端点。当端点进入 InService 状态后,可以通过向其端点发送请求进行推理。

您可以利用 Amazon SageMaker AI 的功能(如 Amazon SageMaker PipelinesAmazon SageMaker Debugger 或容器日志),推导模型性能和 ML 操作控制。该模型部署在 AWS 安全环境中,并受虚拟私有云(VPC)控制,有助于保障数据安全。

与 Bedrock 市场一样,您也可以在 SageMaker JumpStart 中使用 ApplyGuardrail API,将生成式人工智能应用的安全保障措施与 DeepSeek-R1 模型分离。现在,无需调用基础模型即可使用防护机制,这样,无论采用何种模型,都能在应用程序流程中更多地集成标准化且经过充分测试的企业安全保障措施。

请参考这份关于如何在 Amazon SageMaker JumpStart 中部署 DeepSeek-R1 的分步指南。要了解更多信息,请访问在 SageMaker Unified Studio 中发现 SageMaker JumpStart 模型在 SageMaker Studio 中部署 SageMaker JumpStart 模型

3.使用 Amazon Bedrock 自定义模型导入功能部署 DeepSeek-R1-Distill 模型
Amazon Bedrock 自定义模型导入功能使您能够通过单个无服务器的统一 API 导入自定义模型,并将其与现有基础模型一起使用,而无需管理底层基础设施。借助 Amazon Bedrock 自定义模型导入功能,您可以导入参数在 15 亿至 700 亿之间的 DeepSeek-R1-Distill Llama 模型。正如我在关于 Amazon Bedrock 模型蒸馏的博客文章中所强调的,蒸馏过程是将拥有 6710 亿参数的大型 DeepSeek-R1 模型作为教师模型,训练更小、更高效的模型,使其模仿大型模型的行为和推理模式。

将这些公开发布的模型存储在 Amazon Simple Storage Service(Amazon S3)存储桶或 Amazon SageMaker 模型注册表中后,前往 Amazon Bedrock 控制台基础模型下的导入模型,通过 Amazon Bedrock 在完全托管的无服务器环境中导入并部署这些模型。这种无服务器方法无需进行基础设施管理,同时可提供企业级的安全性和可扩展性。

请参考这份关于如何使用 Amazon Bedrock 自定义模型导入功能部署 DeepSeek-R1 模型的分步指南。要了解更多信息,请访问将自定义模型导入 Amazon Bedrock

4.使用 AWS Trainium 和 AWS Inferentia 部署 DeepSeek-R1-Distill 模型
AWS Deep Learning AMI(DLAMI)提供定制的机器映像,您可以在各种 Amazon EC2 实例(从仅含 CPU 的小型实例到最新的高性能多 GPU 实例)中使用这些映像进行深度学习。您可以在 AWS Trainuim1 或 AWS Inferentia2 实例上部署 DeepSeek-R1-Distill 模型,以获得最佳性价比。

要开始使用,前往 Amazon EC2 控制台,使用名为“深度学习 AMI Neuron(Ubuntu 22.04)”的 Neuron 多框架 DLAMI 启动一个 trn1.32xlarge EC2 实例。

连接到已启动的 ec2 实例后,安装 vLLM(一个用于部署大型语言模型(LLM)的开源工具),并从 Hugging Face 下载 DeepSeek-R1-Distill 模型。您可以使用 vLLM 部署模型并调用模型服务器。

要了解更多信息,请参考这份关于如何在 AWS Inferentia 和 Trainium 上部署 DeepSeek-R1-Distill Llama 模型的分步指南

您也可以在 Hugging Face 上访问 DeepSeek-R1-Distill-Llama-8Bdeepseek-ai/DeepSeek-R1-Distill-Llama-70B 模型卡片。选择部署,然后选择 Amazon SageMaker。在 AWS Inferentia 和 Trainium 选项卡中,复制部署 DeepSeek-R1-Distill Llama 模型的示例代码。

自 DeepSeek-R1 发布以来,已经发布了各种适用于 Amazon EC2 和 Amazon Elastic Kubernetes Service(Amazon EKS)的部署指南。这里还提供了一些额外资料供您查看:

注意事项
这里需要牢记以下几点:

  • 定价 — 对于像 DeepSeek-R1 这样的公开发布的模型,在 Amazon Bedrock 市场、Amazon SageMaker JumpStart 和 Amazon EC2 中,您只需根据所选推理实例时长支付基础设施费用。对于 Bedrock 自定义模型导入,您只需根据处于活动状态的自定义模型副本数量支付模型推理费用(以 5 分钟为单位计费)。如需了解更多信息,请查看 Amazon Bedrock 定价Amazon SageMaker AI 定价Amazon EC2 定价页面。
  • 数据安全 — 可以使用 Amazon Bedrock 和 Amazon SageMaker 中的企业级安全功能,确保数据和应用程序的安全性和私密性。这意味着您的数据不会与模型提供商共享,也不会用于改进模型。这适用于所有模型,包括专有模型和公开可用的模型,如 Amazon Bedrock 和 Amazon SageMaker 上的 DeepSeek-R1 模型。要了解更多信息,请访问 Amazon Bedrock 的安全性与隐私性Amazon SageMaker AI 中的安全性

现已推出
DeepSeek-R1 现已在 Amazon Bedrock 市场和 Amazon SageMaker JumpStart 正式发布。您还可以通过 Amazon Bedrock 自定义模型导入功能以及配备 AWS Trainum 和 Inferentia 芯片的 Amazon EC2 实例来使用 DeepSeek-R1-Distill 模型。

立即在 Amazon Bedrock 控制台Amazon SageMaker AI 控制台Amazon EC2 控制台中试用 DeepSeek-R1 模型,并通过 AWS re:Post for Amazon BedrockAWS re:Post for SageMaker AI,或通过您常用的 AWS 支持联系人发送反馈。大中华区用户可通过售前服务联系技术专家进线咨询!

Channy