Veröffentlicht am: Dec 18, 2023
Amazon OpenSearch Service bietet multimodale Unterstützung für Neural Search for OpenSearch 2.11-Bereitstellungen. Dies ermöglicht es Entwicklern, multimodale Suchanwendungen zu erstellen und zu operationalisieren, wobei der undifferenzierte Aufwand erheblich reduziert wird. Jahrelang haben Kunden Vektor-Suchanwendungen auf OpenSearch k-NN entwickelt, aber sie mussten Middleware entwickeln, um Texteinbettungsmodelle in Such- und Aufnahme-Pipelines zu integrieren. OpenSearch-Entwickler können jetzt die multimodale Suche durch sofort einsatzbereite Integrationen mit multimodalen Text- und Bild-APIs von Amazon Bedrock unterstützen, um Such-Pipelines anzutreiben, die im Cluster ausgeführt werden.
Die multimodale Unterstützung ermöglicht es Entwicklern, Suchanfragen über OpenSearch-APIs mit Bild, Text oder beidem auszuführen. Auf diese Weise können Kunden Bilder finden, indem sie visuelle Merkmale beschreiben, ein Bild verwenden, um andere visuell ähnliche Bilder zu entdecken, oder Bild- und Textpaare verwenden, um sowohl die semantische als auch die visuelle Ähnlichkeit abzugleichen.
Dieses neue Feature ist in allen AWS-Regionen verfügbar, die OpenSearch 2.11+ auf Amazon OpenSearch Service und Amazon Bedrock unterstützen. Weitere Informationen zur multimodalen Unterstützung für Neural Search finden Sie in der Dokumentation.