Publicado: Dec 18, 2023
O Amazon OpenSearch Service adiciona suporte multimodal a pesquisas neurais para implantações do OpenSearch 2.11. O novo recurso permite que os criadores desenvolvam e operacionalizem aplicações de pesquisa multimodais, reduzindo significativamente o trabalho pesado genérico. Os clientes criam aplicações de pesquisa vetorial no OpenSearch k-NN há anos, mas isso exigia a sobrecarga de desenvolver middleware para integrar modelos de incorporação de texto em pipelines de pesquisa e ingestão. Agora, os criadores do OpenSearch podem sofisticar a pesquisa multimodal por meio de integrações prontas para uso com as APIs multimodais de texto e imagem do Amazon Bedrock para apoiar pipelines de pesquisa executados nos clusters.
O suporte multimodal permite que os criadores executem consultas de pesquisa por meio de APIs do OpenSearch usando imagem, texto ou ambos. Dessa forma, os clientes podem encontrar imagens descrevendo características visuais, usando uma imagem para descobrir outras imagens visualmente semelhantes ou usando pares de imagem e texto para combinar semelhanças semânticas e visuais.
Esse novo recurso está disponível em todas as regiões da AWS que oferecem suporte ao OpenSearch 2.11 ou superior no Amazon OpenSearch Service e no Amazon Bedrock. Para saber mais sobre o suporte multimodal para pesquisas neurais, consulte a documentação.