Amazon-Bedrock-Wissensdatenbanken verarbeitet jetzt multimodale Daten

Veröffentlicht am: 4. Dez. 2024

Amazon-Bedrock-Wissensdatenbanken ermöglicht es Entwicklern jetzt, generative KI-Anwendungen zu entwickeln, die Erkenntnisse aus textuellen und visuellen Daten wie Images, Charts, Diagrammen und Tabellen analysieren und nutzen können. Bedrock-Wissensdatenbanken bietet einen durchgängig verwalteten RAG-Workflow (Retrieval-Augmented Generation), mit dem Kunden hochgenaue, sichere und benutzerdefinierte generative KI-Anwendungen mit niedriger Latenz erstellen können, indem sie kontextuelle Informationen aus ihren eigenen Datenquellen integrieren. Mit der Markteinführung extrahiert Bedrock-Wissensdatenbanken Inhalte aus textuellen und visuellen Daten, generiert semantische Einbettungen mit dem ausgewählten Einbettungsmodell und speichert diese im ausgewählten Vektorspeicher. Dies ermöglicht es Benutzern Antworten auf Fragen abzurufen und zu generieren, die nicht nur aus Text, sondern auch aus visuellen Daten abgeleitet werden. Zusätzlich enthalten die abgerufenen Ergebnisse nun Quellenzuordungen für visuelle Daten, wodurch die Transparenz erhöht und das Vertrauen in die generierten Ergebnisse gestärkt wird.

Zu Beginn bietet sich Kunden die Wahl zwischen: Amazon Bedrock Data Automation, einem verwalteten Service, der automatisch Inhalte aus multimodalen Daten extrahiert (derzeit in der Vorschau), oder FMs wie Claude 3.5 Sonnet oder Claude 3 Haiku, mit der Flexibilität Standard-Prompts individuell anzupassen

Die multimodale Datenverarbeitung mit Bedrock Data Automation ist in der Vorschauversion in der Region USA West (Oregon) verfügbar. FM-basiertes Parsing wird in allen Regionen unterstützt, in denen Bedrock-Wissensdatenbanken verfügbar sind. Die genauen Preise für die Nutzung von Bedrock Data Automation oder FM als Parser entnehmen Sie bitte der Preisseite.

Weitere Informationen finden Sie in der Produktdokumentation für Amazon-Bedrock-Wissensdatenbanken.