Publié le: Dec 18, 2023
Amazon OpenSearch Service ajoute une prise en charge multimodale à Neural Search pour les déploiements d'OpenSearch 2.11. Cela permet aux créateurs de mettre au point et rendre opérationnelles des applications de recherche multimodale avec une réduction significative des tâches indifférenciées fastidieuses. Pendant des années, les clients ont créé des applications de recherche vectorielle sur OpenSearch k-NN, mais ils étaient contraints de développer des intergiciels pour intégrer des modèles d'intégration de texte dans les pipelines de recherche et d'ingestion. Les créateurs sur OpenSearch peuvent désormais alimenter la recherche multimodale grâce à des intégrations prêtes à l'emploi avec les API multimodales de texte et d'image d’Amazon Bedrock pour alimenter les pipelines de recherche qui s'exécutent sur un cluster.
La prise en charge multimodale permet aux créateurs d'exécuter des requêtes de recherche via les API OpenSearch en utilisant une image, du texte ou les deux. Cela permet aux clients de trouver des images en décrivant les caractéristiques visuelles, en utilisant une image pour découvrir d'autres images visuellement similaires ou en utilisant des paires d'images et de textes pour obtenir une similarité sémantique et visuelle.
Cette nouvelle fonctionnalité est disponible dans toutes les régions AWS qui prennent en charge OpenSearch 2.11+ sur Amazon OpenSearch Service et Amazon Bedrock. Pour en savoir plus sur la prise en charge multimodale de Neural Search, consultez la documentation.