AWS Germany – Amazon Web Services in Deutschland

Amazon Bedrock fügt 18 vollständig verwaltete Open-Weight-Modelle hinzu, darunter die neuen Modelle Mistral Large 3 und Ministral 3

Hiermit geben wir die allgemeine Verfügbarkeit von weiteren 18 vollständig verwalteten Open-Weight-Modellen in Amazon Bedrock von Google, MiniMax AI, Mistral AI, Moonshot AI, NVIDIA, OpenAI und Qwen bekannt, darunter die neuen Modelle Mistral Large 3 und Ministral 3 3B, 8B und 14B.

Mit dieser Einführung bietet Amazon Bedrock nun fast 100 serverlose Modelle und damit eine breite und tiefe Auswahl an Modellen führender KI-Unternehmen, sodass Kunden die präzisen Funktionen auswählen können, die ihren individuellen Anforderungen am besten entsprechen. Durch die enge Beobachtung sowohl der Kundenbedürfnisse als auch der technologischen Fortschritte erweitern wir regelmäßig unsere kuratierte Modellauswahl basierend auf Kundenbedürfnissen und technologischen Fortschritten, um vielversprechende neue Modelle neben etablierten Branchenfavoriten aufzunehmen.

Diese kontinuierliche Erweiterung leistungsstarker und differenzierter Modellangebote hilft Kunden, an der Spitze der KI-Innovation zu bleiben. Sie können über die einheitliche API auf diese Modelle in Amazon Bedrock zugreifen, Modelle evaluieren, wechseln und neue Modelle übernehmen, ohne Anwendungen neu zu schreiben oder die Infrastruktur zu ändern.

Neue Mistral AI Modelle
Diese vier Mistral AI Modelle sind jetzt zuerst auf Amazon Bedrock verfügbar, jedes optimiert für unterschiedliche Leistungs- und Kostenanforderungen:

  • Mistral Large 3 – Dieses Open-Weight-Modell ist für langen Kontext, Multimodalität und Anweisungszuverlässigkeit optimiert. Es zeichnet sich aus beim Verstehen langer Dokumente, agentischen Workflows und Tool-Nutzung, Unternehmens-Wissensarbeit, Programmierassistenz, fortgeschrittenen Aufgaben wie Mathematik und Programmierung, mehrsprachiger Analyse und Verarbeitung sowie multimodalem Reasoning mit Vision.
  • Ministral 3 3B – Das kleinste Modell der Ministral 3 Familie ist für Edge-Einsatz mit Single-GPU-Deployment und starken Sprach- und Vision-Fähigkeiten optimiert. Es zeigt robuste Leistung bei Bildbeschriftung, Textklassifizierung, Echtzeit-Übersetzung, Datenextraktion, kurzer Content-Generierung und leichtgewichtigen Echtzeit-Anwendungen auf Edge- oder ressourcenbeschränkten Geräten.
  • Ministral 3 8B – Das beste Ministral 3 Modell seiner Klasse für Text und Vision ist für Single-GPU-Deployment mit hoher Leistung und minimalem Footprint optimiert. Dieses Modell ist ideal für Chat-Schnittstellen in eingeschränkten Umgebungen, Bild- und Dokumentbeschreibung und -verständnis, spezialisierte agentische Anwendungsfälle und ausgewogene Leistung für lokale oder eingebettete Systeme.
  • Ministral 3 14B – Das leistungsfähigste Ministral 3 Modell liefert State-of-the-Art Text- und Vision-Leistung, optimiert für Single-GPU-Deployment. Sie können fortgeschrittene lokale agentische Anwendungsfälle und private KI-Deployments nutzen, bei denen fortgeschrittene Fähigkeiten auf praktische Hardware-Einschränkungen treffen.

Weitere Open-Weight-Modelloptionen
Sie können diese Open-Weight-Modelle für eine breite Palette von Anwendungsfällen über verschiedene Branchen hinweg nutzen:

Modellanbieter Modellname Beschreibung Anwendungsfälle
Google Gemma 3 4B Effizientes Text- und Bildmodell, das lokal auf Laptops läuft. Mehrsprachige Unterstützung für On-Device-KI-Anwendungen. On-Device-KI für mobile und Edge-Anwendungen, datenschutzsensitive lokale Inferenz, mehrsprachige Chat-Assistenten, Bildbeschriftung und -beschreibung sowie leichtgewichtige Content-Generierung.
Gemma 3 12B Ausgewogenes Text- und Bildmodell für Workstations. Mehrsprachiges Verständnis mit lokalem Deployment für datenschutzsensitive Anwendungen. Workstation-basierte KI-Anwendungen; lokales Deployment für Unternehmen; mehrsprachige Dokumentenverarbeitung, Bildanalyse und Q&A; sowie datenschutzkonforme KI-Assistenten.
Gemma 3 27B Leistungsstarkes Text- und Bildmodell für Unternehmensanwendungen. Mehrsprachige Unterstützung mit lokalem Deployment für Datenschutz und Kontrolle. Lokales Enterprise-Deployment, hochleistungsfähige multimodale Anwendungen, fortgeschrittenes Bildverständnis, mehrsprachiger Kundenservice und datensensitive KI-Workflows.
Moonshot AI Kimi K2 Thinking Deep-Reasoning-Modell, das beim Einsatz von Tools mitdenkt. Bewältigt Recherche, Programmierung und komplexe Workflows, die Hunderte sequenzieller Aktionen erfordern. Komplexe Programmierprojekte mit Planung, mehrstufige Workflows, Datenanalyse und Berechnungen sowie Langform-Content-Erstellung mit Recherche.
MiniMax AI MiniMax M2 Entwickelt für Programmier-Agenten und Automatisierung. Zeichnet sich aus bei Multi-File-Bearbeitungen, Terminal-Operationen und effizienter Ausführung langer Tool-Calling-Ketten. Programmier-Agenten und IDE-Integration, Multi-File-Code-Bearbeitung, Terminal-Automatisierung und DevOps, Long-Chain-Tool-Orchestrierung sowie agentische Softwareentwicklung.
Mistral AI Magistral Small 1.2 Zeichnet sich aus bei Mathematik, Programmierung, mehrsprachigen Aufgaben und multimodalem Reasoning mit Vision-Fähigkeiten für effizientes lokales Deployment. Mathematik- und Programmieraufgaben, mehrsprachige Analyse und Verarbeitung sowie multimodales Reasoning mit Vision.
Voxtral Mini 1.0 Fortgeschrittenes Audio-Verständnis-Modell mit Transkription, mehrsprachiger Unterstützung, Q&A, Zusammenfassung und Function-Calling. Sprachgesteuerte Anwendungen, schnelle Speech-to-Text-Konvertierung und Offline-Sprachassistenten.
Voxtral Small 1.0 Bietet State-of-the-Art Audio-Input mit erstklassiger Textleistung; zeichnet sich aus bei Sprachtranskription, Übersetzung und Verständnis. Enterprise-Sprachtranskription, mehrsprachiger Kundenservice und Audio-Content-Zusammenfassung.
NVIDIA NVIDIA Nemotron Nano 2 9B Hocheffizientes LLM mit Hybrid-Transformer-Mamba-Design, das sich bei Reasoning und agentischen Aufgaben auszeichnet. Reasoning, Tool-Calling, Mathematik, Programmierung und Befolgung von Anweisungen.
NVIDIA Nemotron Nano 2 VL 12B Fortgeschrittenes multimodales Reasoning-Modell für Videoverständnis und Dokumentenintelligenz, das RAG- und multimodale agentische Anwendungen antreibt. Multi-Bild- und Videoverständnis, visuelles Q&A und Zusammenfassung.
OpenAI gpt-oss-safeguard-20b Content-Safety-Modell, das Ihre benutzerdefinierten Richtlinien anwendet. Klassifiziert schädliche Inhalte mit Erklärungen für Trust- und Safety-Workflows. Content-Moderation und Sicherheitsklassifizierung, Durchsetzung benutzerdefinierter Richtlinien, Filterung nutzergenerierter Inhalte, Trust- und Safety-Workflows sowie automatisierte Content-Triage.
gpt-oss-safeguard-120b Größeres Content-Safety-Modell für komplexe Moderation. Wendet benutzerdefinierte Richtlinien mit detailliertem Reasoning für Enterprise-Trust- und Safety-Teams an. Enterprise-Content-Moderation im großen Maßstab, komplexe Richtlinieninterpretation, mehrschichtige Sicherheitsklassifizierung, Compliance-Prüfung und hochsensible Content-Überprüfung.
Qwen Qwen3-Next-80B-A3B Schnelle Inferenz mit Hybrid-Attention für ultralange Dokumente. Optimiert für RAG-Pipelines, Tool-Nutzung & agentische Workflows mit schnellen Antworten. RAG-Pipelines mit langen Dokumenten, agentische Workflows mit Tool-Calling, Code-Generierung und Softwareentwicklung, Multi-Turn-Konversationen mit erweitertem Kontext, mehrsprachige Content-Generierung.
Qwen3-VL-235B-A22B Versteht Bilder und Videos. Extrahiert Text aus Dokumenten, konvertiert Screenshots in funktionierenden Code und automatisiert das Klicken durch Schnittstellen. Extraktion von Text aus Bildern und PDFs, Konvertierung von UI-Designs oder Screenshots in funktionierenden Code, Automatisierung von Klicks und Navigation in Anwendungen, Videoanalyse und -verständnis, Lesen von Diagrammen und Schaubildern.

Bei der Implementierung öffentlich verfügbarer Modelle sollten Sie die Datenschutzanforderungen in Ihren Produktionsumgebungen sorgfältig berücksichtigen, die Ausgabe auf Verzerrungen überprüfen und Ihre Ergebnisse auf Datensicherheit, verantwortungsvolle KI und Modellevaluierung überwachen.

Sie können auf die Sicherheitsfunktionen auf Enterprise-Niveau von Amazon Bedrock zugreifen und Schutzmaßnahmen implementieren, die auf Ihre Anwendungsanforderungen und verantwortungsvollen KI-Richtlinien zugeschnitten sind, mit Amazon Bedrock Guardrails. Sie können auch Modelle evaluieren und vergleichen, um die optimalen Modelle für Ihre Anwendungsfälle zu identifizieren, indem Sie die Amazon Bedrock Modellevaluierungstools verwenden.

Um zu beginnen, können Sie diese Modelle schnell mit einigen Prompts im Playground der Amazon Bedrock Konsole testen oder beliebige AWS SDKs verwenden, um Zugriff auf die Bedrock InvokeModel und Converse APIs einzuschließen. Sie können diese Modelle auch mit jedem agentischen Framework verwenden, das Amazon Bedrock unterstützt, und die Agenten mit Amazon Bedrock AgentCore und Strands Agents bereitstellen. Um mehr zu erfahren, besuchen Sie Codebeispiele für Amazon Bedrock mit AWS SDKs im Amazon Bedrock Benutzerhandbuch.

Jetzt verfügbar
Überprüfen Sie die vollständige Regionsliste für Verfügbarkeit und zukünftige Updates neuer Modelle oder suchen Sie Ihren Modellnamen im AWS CloudFormation Ressourcen-Tab von AWS Capabilities by Region. Um mehr zu erfahren, besuchen Sie die Amazon Bedrock Produktseite und die Amazon Bedrock Preisseite.

Probieren Sie diese Modelle noch heute in der Amazon Bedrock Konsole aus und senden Sie uns Feedback an AWS re:Post für Amazon Bedrock oder über Ihre üblichen AWS Support-Kontakte.

Channy

Channy Yun (윤석찬)

Channy Yun (윤석찬)

Channy ist Lead Blogger des AWS News Blog und Principal Developer Advocate für die AWS Cloud. Als Open-Web-Enthusiast und Blogger aus Leidenschaft liebt er das von der Community getriebene Lernen und den Austausch über Technologie.


Dieser Inhalt wurde aus dem ursprünglichen Blogbeitrag übersetzt, der hier zu finden ist.