Amazon Bedrock bietet ausgewählte FMs für Batch-Inferenz zu 50 % des On-Demand-Preises
Im vergangenen Jahr haben wir die Unterstützung für Batch-Inferenz in der Vorschau eingeführt, mit der Sie Prompts in Batches verarbeiten können, um Antworten für die Modellbewertung, für Experimente und die Offline-Verarbeitung zu erhalten. Ab heute ist die Unterstützung der Batch-Inferenz durch Amazon Bedrock in allen unterstützten AWS-Regionen für unterstützte Modelle allgemein verfügbar. Verwenden Sie Batch-Inferenz, um die unterschiedlichen Inferenzanfragen asynchron auszuführen und die Leistung der Modellinferenz bei großen Datensätzen zu verbessern. Amazon Bedrock bietet ausgewählte Basismodelle (FMs) von führenden KI-Anbietern wie Anthropic, Meta, Mistral AI und Amazon für Batch-Inferenz zu 50 % des On-Demand-Preises. Die Fertigstellungszeit der Batch-Inferenz hängt von mehreren Faktoren ab, z. B. der Größe des Auftrags. Sie können aber damit rechnen, dass die Zeit bis zur Fertigstellung eines typischen Auftrags 24 Stunden nicht überschreitet. Weitere Informationen finden Sie in der Batch-Inferenz-Dokumentation und in unserer API-Referenzdokumentation.
Amazon Bedrock ist ein vollständig verwalteter Service, der eine Auswahl an leistungsstarken Basismodellen (FMs) von führenden KI-Unternehmen wie AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI und Amazon mit einer einzigen API bietet. Amazon Bedrock bietet auch eine breite Palette von Funktionen, die Kunden benötigen, um generative KI-Anwendungen mit integrierter Sicherheit, Privatsphäre und verantwortungsvoller KI zu entwickeln. Diese Funktionen helfen Ihnen, maßgeschneiderte Anwendungen für verschiedene Anwendungsfälle in unterschiedlichen Branchen zu entwickeln und unterstützen Unternehmen darin, ein nachhaltiges Wachstum durch generative KI zu generieren und gleichzeitig Kundenvertrauen und Data Governance zu gewährleisten.
Weitere Informationen über Amazon Bedrock finden Sie auf der Seite zu Amazon Bedrock und in der Amazon-Bedrock-Dokumentation.