Amazon Bedrock fügt Support für sechs vollständig verwaltete Open-Weights-Modelle hinzu

Veröffentlicht am: 10. Feb. 2026

Amazon Bedrock unterstützt jetzt sechs neue Modelle, die Frontier-Reasoning und Agent-Coding umfassen: DeepSeek V3.2, MiniMax M2.1, GLM 4.7, GLM 4.7 Flash, Kimi K2.5 und Qwen3 Coder Next. Diese sechs Modelle bieten Kunden Zugang zu den aktuell leistungsfähigsten Open-Weight-Modellen und ermöglichen eine erstklassige Performance zu deutlich niedrigeren Inferenzkosten. Zusammen decken sie das gesamte Spektrum der Unternehmens-KI-Workloads ab: DeepSeek V3.2 und Kimi K2.5 verschieben die Grenzen in den Bereichen Reasoning und Agent-Intelligenz, GLM 4.7 und Minimax 2.1 setzen neue Maßstäbe für autonomes Programmieren mit massiven Output-Fenstern und Qwen3 Coder Next und GLM 4.7 Flash bieten leichte, kosteneffiziente Alternativen, die speziell für die Bereitstellung entwickelt wurden.

Diese Modelle auf Amazon Bedrock werden von Project Mantle unterstützt, einer neuen verteilten Inferenz-Engine für groß angelegte Machine-Learning-Modelle, die auf Amazon Bedrock bereitgestellt werden. Project Mantle vereinfacht und beschleunigt das Onboarding neuer Modelle auf Amazon Bedrock. Es bietet hochleistungsfähige und zuverlässige serverlose Inferenz mit ausgeklügelten Qualitätskontrollen und ermöglicht höhere Standardkundenkontingente mit automatisiertem Kapazitätsmanagement und vereinheitlichten Pools. Zudem bietet es sofort einsatzbereite Kompatibilität mit OpenAI-API-Spezifikationen.

Um mehr zu erfahren und loszulegen, besuchen Sie die Amazon-Bedrock-Konsole oder lesen Sie die Servicedokumentation. Informationen zu den ersten Schritten mit Amazon-Bedrock-OpenAI-API-kompatiblen Service-Endpunkten finden Sie in der Dokumentation hier.