亚马逊AWS官方博客

Amazon Bedrock 新增 18 个完全托管式开放权重模型,包括新的 Mistral Large 3 和 Ministral 3 模型

今天,我们宣布在 Amazon Bedrock 中正式推出来自 Google、Moonshot AI、MiniMax AI、Mistral AI、NVIDIA、OpenAIQwen 的 18 个完全托管式开放权重模型,其中包括新的 Mistral Large 3 和 Ministral 3 3B、8B 和 14B 模型。

此次发布后,Amazon Bedrock 将提供近 100 个无服务器模型,涵盖来自领先人工智能公司的众多模型,客户可以根据自身独特需求选择最合适的功能。通过密切关注客户需求和技术进步,我们会根据客户需求和和技术进步,定期扩充我们精心挑选的模型库,纳入有潜力的新模型以及业内备受青睐的成熟模型。

这种不断扩充高性能、差异化模型产品的做法,有助于客户始终站在人工智能创新的前沿。您可以通过统一的 API 在 Amazon Bedrock 上访问这些模型,无需重写应用程序或更改基础设施,即可评估、切换和采用新模型。

全新 Mistral AI 模型
以下四款 Mistral AI 模型现已在 Amazon Bedrock 中首次可用,每种模型均针对不同的性能和成本要求进行了优化:

  • Mistral Large 3:这款开放权重模型针对长上下文、多模态和指令可靠性进行了优化。它擅长长文档理解、代理和工具使用工作流程、企业知识工作、编程辅助、高级工作负载(例如数学和编程任务)、多语言分析和处理,以及基于视觉的多模态推理。
  • Ministral 3 3B:Ministral 3 系列中规模最小的模型,针对单 GPU 部署进行了边缘优化,并具备强大的语言和视觉处理能力。它在图像标注、文本分类、实时翻译、数据提取、短内容生成以及边缘或低资源设备上的轻量级实时应用程序方面均具有卓越性能。
  • Ministral 3 8B:一流的 Ministral 3 文本和视觉模型,针对单 GPU 部署进行了边缘优化,兼备高性能和资源占用最少两个优点。该模型非常适合用于资源受限环境下的聊天界面、图像和文档描述与理解、特定的代理式使用案例,以及满足本地或嵌入式系统的均衡性能需求。
  • Ministral 3 14B:性能最强的 Ministral 3 模型,提供一流的文本和视觉性能,并针对单 GPU 部署进行了优化。您可以将其用于高级本地代理式使用案例和私有人工智能部署,利用高级功能应对实际硬件限制。

更多开放权重模型选项
您可以将这些开放权重模型用于各行各业的各种使用案例:

模型提供商 模型名称 描述 使用案例
Google Gemma 3 4B 高效的文本和图像模型,可在笔记本电脑本地运行。针对设备端人工智能应用程序提供多语言功能。 适用于移动和边缘应用程序的设备端人工智能,隐私敏感的本地推理,多语言聊天助手,图像标注和描述,以及轻量级内容生成。
Gemma 3 12B 适用于工作站的文本和图像平衡型模型。支持多语言理解,并可在本地部署,适合用于隐私敏感的应用程序。 基于工作站的人工智能应用程序,企业本地部署,多语言文档处理,图像分析和问答,以及符合隐私规定的人工智能助手。
Gemma 3 27B 功能强大的文本和图像模型,适用于企业级应用。支持多语言,并可本地部署,以便保障隐私和控制权。 企业本地部署,高性能多模态应用程序,高级图像理解,多语言客户服务和数据敏感型人工智能工作流程。
Moonshot AI Kimi K2 Thinking 深度推理模型,能够在使用工具的同时进行思考。能够处理研究、编程以及需要数百个顺序操作的复杂工作流程。 需要规划的复杂编程项目,多步骤工作流程,数据分析和计算,以及需要进行研究的长篇内容创作。
MiniMax AI MiniMax M2 专门用于编程代理和自动化。擅长多文件编辑、终端操作以及高效执行长工具调用链。 编程代理和集成式开发环境(IDE)集成,多文件代码编辑,终端自动化和 DevOps,长链工具编排,以及代理式软件开发。
Mistral AI Magistral Small 1.2 擅长数学、编程、多语言任务和多模态推理,并具备视觉功能,可高效进行本地部署。 数学和编程任务,多语言分析和处理,以及多模态视觉推理。
Voxtral Mini 1.0 具备转录、多语言支持、问答、摘要和函数调用功能的高级音频理解模型。 语音控制应用程序,快速语音转文本和离线语音助手。
Voxtral Small 1.0 具备最先进的音频输入功能和一流的文本性能;在语音转录、翻译和理解方面表现出色。 企业语音转录,多语言客户服务,以及音频内容摘要。
NVIDIA NVIDIA Nemotron Nano 2 9B 采用 Transformer Mamba 混合设计的高效大语言模型,在推理和代理任务方面表现出色。 推理,工具调用,数学,编程和指令遵循。
NVIDIA Nemotron Nano 2 VL 12B 适用于视频理解和文档智能的高级多模态推理模型,可为检索增强生成(RAG)和多模态代理式应用程序提供支持。 多图像和视频理解,视觉问答和摘要。
OpenAI gpt-oss-safeguard-20b 可应用您自定义策略的内容安全模型。可对有害内容进行分类,并为信任与安全工作流程提供解释。 内容审核和安全分类,自定义策略执行,用户生成内容过滤,信任与安全工作流程,以及自动内容分类。
gpt-oss-safeguard-120b 更强大的内容安全模型,适用于复杂的审核。为企业信任与安全团队应用自定义策略,并提供详细推理。 大规模企业内容审核,复杂政策解读,多层安全分类,监管合规性检查,高风险内容审查。
Qwen Qwen3-Next-80B-A3B 可利用混合注意力机制快速推理超长文档。针对 RAG 管道、工具使用和代理工作流程进行了优化,响应迅速。 包含长文档的 RAG 管道,涉及工具调用的代理工作流程,代码生成和软件开发,具有扩展上下文的多轮对话,多语言内容生成。
Qwen3-VL-235B-A22B 可理解图像和视频。可从文档中提取文本,将屏幕截图转换为可运行的代码,以及自动执行界面点击操作。 从图像和 PDF 中提取文本,将 UI 设计或屏幕截图转换为可运行的代码,自动执行应用程序中的点击和导航操作,视频分析和理解,阅读图表和示意图。

实施公开可用的模型时,需重点关注生产环境中的数据隐私要求,检查输出中是否存在偏见,并监控结果以确保数据安全,遵守负责任的人工智能政策,以及进行模型评测

您可以访问 Amazon Bedrock 的企业级安全功能,并使用 Amazon Bedrock 护栏实施根据您的应用程序要求和负责任的人工智能政策定制的安全措施。您还可以使用 Amazon Bedrock 模型评测工具评测和比较模型,为您的使用案例确定最佳模型。

要快速上手,您可以在 Amazon Bedrock 控制台的操场中通过几个提示快速测试这些模型,或者使用任何 AWS SDK 来访问 Bedrock InvokeModelConverse API。此外,您还可以将这些模型与所有支持 Amazon Bedrock 的代理框架配合使用,并通过 Amazon Bedrock AgentCoreStrands Agents 部署代理。要了解更多信息,请访问《Amazon Bedrock User Guide》中的 Code examples for Amazon Bedrock using AWS SDKs

现已推出
查看完整区域列表,了解新模型的可用性和未来更新,或在按区域列出的 AWS 功能AWS CloudFormation 资源选项卡中搜索模型名称。要了解更多信息,请查看 Amazon Bedrock 产品页面Amazon Bedrock 定价页面

立即在 Amazon Bedrock 控制台中试用这些模型,并将反馈发送至 AWS re:Post for Amazon Bedrock 或通过您常用的 AWS Support 联系人发送反馈。

Channy