Marengo Embed 2.7 da TwelveLabs já pode ser usado para inferência síncrona no Amazon Bedrock
Agora, o Amazon Bedrock oferece suporte à inferência síncrona para o Marengo 2.7 da TwelveLabs, expandindo os recursos desse modelo de incorporação multimodal para oferecer incorporações de texto e imagem de baixa latência diretamente na resposta da API. Essa atualização permite que os desenvolvedores criem experiências de busca e recuperação mais responsivas e interativas, mantendo os mesmos recursos poderosos de compreensão de vídeo que fizeram do Marengo 2.7 um grande avanço na IA multimodal.
Desde sua introdução no Amazon Bedrock no início deste ano, o Marengo 2.7 transformou a forma como as organizações trabalham com conteúdo de vídeo por meio de inferência assíncrona, um recurso ideal para processar grandes arquivos de vídeo, áudio e imagem. O modelo gera incorporações multivetoriais sofisticadas, permitindo a recuperação temporal e semântica precisa em conteúdo de formato longo. Agora, com o suporte à inferência síncrona, os usuários podem aproveitar esses recursos avançados de incorporação para entradas de texto e imagem com latência significativamente reduzida. Isso o torna perfeito para aplicações como pesquisa instantânea de vídeo, na qual os usuários encontram cenas específicas usando consultas em linguagem natural, ou descoberta interativa de produtos por meio da pesquisa por similaridade de imagens. Para gerar incorporações a partir de arquivos de vídeo, áudio e imagem em grande escala, continue usando a inferência assíncrona para obter uma performance ideal.
O Marengo 2.7 com inferência síncrona já está disponível no Amazon Bedrock nas regiões Leste dos EUA (Norte da Virgínia), Europa (Irlanda) e Ásia-Pacífico (Seul). Para começar a usar, acesse o console do Amazon Bedrock e solicite acesso ao modelo. Para saber mais, leia o blog, a página do produto, os preços e a documentação do Amazon Bedrock.