Die multimodale Abruffunktion für Bedrock Knowledge Bases jetzt allgemein verfügbar
Heute kündigt AWS die allgemeine Verfügbarkeit des multimodalen Abrufs in den Bedrock Knowledge Bases an. Amazon Bedrock Knowledge Bases bietet verwaltete, durchgängige RAG-Workflows (Retrieval Augmented Generation) zur Erstellung genauer, benutzerdefinierter generativer KI-Anwendungen mit niedriger Latenz, durch die Integration kontextbezogener Informationen aus den Datenquellen Ihrer Organisation. Die multimodale Abruffunktion in Knowledge Bases ermöglicht es Entwicklern, Anwendungen für die KI-gestützte Suche und Beantwortung von Fragen zu erstellen und dafür Text-, Bild-, Audio- und Videodateien zu unterstützen. Beispielsweise könnte ein Benutzer den Assistenten bitten, „Umsatzprognosen für Amazon Bedrock für das erste Quartal“ anzuzeigen. Bedrock Knowledge Bases würde dann die relevanten Texte aus Dokumenten, Grafiken, Video- und Audioschnippseln abrufen, die sich auf Umsatzprognosen für Bedrock beziehen, sodass der Assistent eine genauere und umfassendere Antwort für den Endbenutzer generieren kann. Bisher konnten nur Textdokumente und Bilder durchsucht werden. Jetzt können Kunden mithilfe eines einheitlichen, vollständig verwalteten Workflows Erkenntnisse aus allen Datenformaten im Unternehmen gewinnen.
Unternehmen fällt es schwer, Erkenntnisse aus der wachsenden Menge von Multimediadaten – Videos, Audioaufzeichnungen, Bilder und Dokumente – zu extrahieren, da die Entwicklung von KI-Anwendungen, die alle diese Formate durchsuchen können, komplex ist. Infolgedessen bleiben wertvolle Informationen, die in Terabytes an Besprechungsaufzeichnungen, Trainingsvideos und Bilddokumenten enthalten sind, unzugänglich, was Unternehmen daran hindert, schnelle, präzise datengestützte Entscheidungen zu treffen. Mit der multimodalen Abruffunktion für Knowledge Bases können Entwickler multimodale Inhalte verarbeiten und haben dabei die volle Kontrolle über Parsing, Chunking, Embedding (z. B. Amazon Nova multimodal) und Vektorspeicher-Optionen. Sie können sie eine Textabfrage oder ein Bild als Eingabedaten senden und erhalten relevante Text-, Bild-, Audio- und Videosegmente zurück, um in ihren generativen KI-Anwendungen mithilfe des LLM ihrer Wahl eine Antwort zu generieren.
Weitere Informationen zur Erstellung multimodaler Wissensdatenbanken in Bedrock finden Sie in der Dokumentation. Die regionale Verfügbarkeit hängt von den multimodalen Features ab, die ausgewählt werden. Weitere Informationen finden Sie in der Dokumentation.