Ingestão do Amazon OpenSearch agora oferece suporte à inferência de IA em lote
Agora você pode realizar inferências de IA em lote nos pipelines da Ingestão do Amazon OpenSearch para enriquecer e ingerir com eficiência grandes conjuntos de dados para domínios do Amazon OpenSearch Service.
Anteriormente, os clientes usavam os conectores de IA do OpenSearch para o Amazon Bedrock, o Amazon SageMaker e serviços de terceiros para inferência em tempo real. As inferências geram enriquecimentos, como incorporações vetoriais, previsões, traduções e recomendações para potencializar os casos de uso de IA. A inferência em tempo real é ideal para requisitos de baixa latência, como enriquecimentos de streaming. A inferência em lote é ideal para enriquecer grandes conjuntos de dados offline, proporcionando maior performance e eficiência de custos. Agora você pode usar os mesmos conectores de IA com os pipelines de Ingestão do Amazon OpenSearch como um trabalho de inferência em lote assíncrono para enriquecer grandes conjuntos de dados, como gerar e ingerir até bilhões de incorporações vetoriais.
Esse atributo está disponível em todas as regiões que oferecem suporte à Ingestão do Amazon OpenSearch e aos domínios 2.17+. Saiba mais na documentação.