Amazon Bedrock suma compatibilidad con seis modelos de ponderaciones abiertas completamente administrados

Publicado en: 10 de feb de 2026

Amazon Bedrock ahora admite seis nuevos modelos que abarcan el razonamiento de vanguardia y la codificación basada en agentes: DeepSeek V3.2, MiniMax M2.1, GLM 4.7, GLM 4.7 Flash, Kimi K2.5 y Qwen3 Coder Next. Estos seis modelos brindan a los clientes acceso a los modelos de ponderaciones abiertas más capaces disponibles en la actualidad, lo que brinda un rendimiento de primera clase con costos de inferencia significativamente más bajos. En conjunto, cubren todo el espectro de cargas de trabajo de IA empresarial: DeepSeek V3.2 y Kimi K2.5 amplían la frontera en razonamiento e inteligencia basada en agentes, GLM 4.7 y Minimax 2.1 establecen nuevos estándares para la codificación autónoma con enormes ventanas de contexto de salida, y Qwen3 Coder Next y GLM 4.7 Flash ofrecen alternativas ligeras y rentables diseñadas específicamente para la implementación en producción.

Estos modelos en Amazon Bedrock funcionan con Project Mantle, un nuevo motor de inferencia distribuida para modelos de machine learning a gran escala que funciona en Amazon Bedrock. Project Mantle simplifica y acelera la incorporación de nuevos modelos en Amazon Bedrock, proporciona inferencias sin servidor de gran fiabilidad y alto rendimiento con controles sofisticados de calidad del servicio, permite límites de uso predeterminados más altos con una administración de capacidad automatizada y grupos unificados, además de compatibilidad lista para usar con las especificaciones de la API de OpenAI.

Para obtener más información y comenzar, visite la consola de Amazon Bedrock o la documentación del servicio aquí. Para empezar a utilizar los puntos de conexión de servicio compatibles con la API de OpenAI de Amazon Bedrock, visite la documentación aquí.