Publicado en: Dec 18, 2023
Amazon OpenSearch Service añade soporte multimodal a la búsqueda neuronal para los despliegues de OpenSearch 2.11. Esto permite a los desarrolladores crear y poner en funcionamiento aplicaciones de búsqueda multimodales con una reducción significativa del trabajo pesado indiferenciado. Durante años, los clientes han creado aplicaciones de búsqueda vectorial en OpenSearch k-NN, pero se han visto obligados a crear middleware para integrar modelos de incrustación de texto en las canalizaciones de búsqueda e incorporación. Los desarrolladores de OpenSearch ahora pueden impulsar la búsqueda multimodal mediante integraciones listas para usar con las API multimodales de texto e imágenes de Amazon Bedrock para impulsar las canalizaciones de búsqueda que se ejecutan en clústeres.
El soporte multimodal permite a los desarrolladores ejecutar consultas de búsqueda a través de las API de OpenSearch utilizando imágenes, texto o ambos. Esto permite a los clientes encontrar imágenes mediante la descripción de las características visuales, el uso de una imagen para descubrir otras imágenes visualmente similares o el uso de pares de imágenes y texto para hacer coincidir la similitud semántica y visual.
Esta característica nueva está disponible en todas las regiones de AWS que admiten OpenSearch 2.11+ en Amazon OpenSearch Service y Amazon Bedrock. Para obtener más información sobre la compatibilidad multimodal con la búsqueda neuronal, consulte la documentación.