Amazon Bedrock ajoute la prise en charge de six modèles à poids ouvert entièrement gérés

Publié le: 10 févr. 2026

Amazon Bedrock prend désormais en charge six nouveaux modèles couvrant le raisonnement frontalier et le codage agentique : DeepSeek V3.2, MiniMax M2.1, GLM 4.7, GLM 4.7 Flash, Kimi K2.5 et Qwen3 Coder Next. Ces six modèles permettent aux clients d’accéder aux modèles à poids ouvert les plus performants disponibles aujourd’hui, offrant des performances de pointe à des coûts d’inférence nettement inférieurs. Ensemble, ils couvrent l’éventail complet des charges de travail d’IA d’entreprise : DeepSeek V3.2 et Kimi K2.5 repoussent les limites du raisonnement et de l’intelligence agentique, GLM 4.7 et Minimax 2.1 établissent de nouvelles normes en matière de codage autonome avec des fenêtres de sortie massives, et Qwen3 Coder Next et GLM 4.7 Flash proposent des alternatives légères et rentables, spécialement conçues pour le déploiement en production.

Ces modèles sur Amazon Bedrock sont alimentés par Project Mantle, un nouveau moteur d’inférence distribué pour un modèle de machine learning à grande échelle utilisé sur Amazon Bedrock. Project Mantle simplifie et accélère l'intégration de nouveaux modèles sur Amazon Bedrock, fournit une inférence sans serveur hautement performante et fiable avec des contrôles de qualité de service sophistiqués, débloque des quotas de clients par défaut plus élevés grâce à une gestion automatisée des capacités et à des groupes unifiés, et fournit une compatibilité prête à l'emploi avec les spécifications de l'API OpenAI.

Pour en savoir plus et commencer, consultez la console Amazon Bedrock ou consultez la documentation du service ici. Pour commencer à utiliser les points de terminaison de service compatibles avec l’API Amazon Bedrock OpenAI, consultez la documentation ici.