Pular para o conteúdo principal

Amazon Bedrock

TwelveLabs no Amazon Bedrock

Desbloqueie todo o potencial dos ativos de vídeo corporativos

Apresentação da TwelveLabs

O TwelveLabs usa modelos de base (FMs) multimodal para proporcionar uma compreensão humana aos dados de vídeo. Os FMs da empresa entendem o que está acontecendo nos vídeos, incluindo ações, objetos e sons de fundo, permitindo que os desenvolvedores criem aplicações que possam pesquisar em vídeos, classificar cenas, resumir e extrair insights com precisão e confiabilidade.

Modelos de compreensão de vídeo de última geração

Marengo 2.7

Obtenha resultados rápidos e contextualizados que revelam exatamente o que você está procurando em seus vídeos - indo além das etiquetas básicas e entrando em uma dimensão totalmente nova de compreensão multimodal.

Leia o blog

Pegasus 1.2

Transforme seus vídeos com o poder da linguagem. Gere tudo o que você precisa a partir do vídeo - desde resumos concisos e destaques cativantes até hashtags eficazes e relatórios personalizados. Descubra insights mais profundos e desbloqueie possibilidades totalmente novas com seu conteúdo.

Leia o blog
 

Benefícios

Identifique momentos precisos em seus vídeos usando consultas de linguagem simples, eliminando a necessidade de depuração tediosa e revisão manual.

Extraia insights profundos de seu conteúdo sem rótulos ou categorias predefinidas, permitindo a descoberta de padrões e informações inesperados.

Converta extensas bibliotecas de vídeo em recursos de conhecimento acessíveis e pesquisáveis com tecnologia desenvolvida para escalar e garantir a segurança da empresa.

Processe simultaneamente elementos visuais, conteúdo de áudio e texto para obter uma compreensão abrangente que capture todas as dimensões de seus vídeos.

Conecte eventos relacionados ao longo do tempo, identificando padrões e relacionamentos que podem ser desafiadores e demorados para rastrear manualmente.

Casos de uso

Transforme os fluxos de trabalho de produção encontrando, resumindo e conectando instantaneamente os momentos de vídeo, ajudando os contadores de histórias a se concentrarem na criatividade em vez de ficarem procurando nas filmagens.

Acelere a análise de conteúdo e a eficiência do fluxo de trabalho por meio da compreensão de vídeo com tecnologia de IA, ajudando as marcas a se conectarem de forma mais eficaz com seu público e reduzindo o tempo e os custos de produção.

Aprimore a percepção situacional identificando rapidamente eventos e padrões críticos em todas as fontes de vídeo, permitindo o monitoramento proativo da segurança e a tomada de decisões mais rápidas e bem informadas.

Desde a detecção de perigos para o motorista até a previsão do comportamento dos pedestres, a IA da TwelveLabs analisa vídeos com compreensão humana, transformando a segurança e a eficiência do transporte.

Visão geral da TwelveLabs no Amazon Bedrock

Com o Marengo e o Pegasus no Amazon Bedrock, você pode usar os modelos do TwelveLabs para criar e escalar aplicações de IA generativa sem precisar gerenciar a infraestrutura subjacente. Também é possível acessar um amplo conjunto de recursos e, ao mesmo tempo, manter controle total sobre seus dados, segurança de nível empresarial e recursos de controle de custos que são essenciais para a implantação responsável de IA em escala.

Versões do modelo

Marengo 2.7

Modelo de incorporação de vídeo proficiente na execução de tarefas como pesquisa e classificação, permitindo uma melhor compreensão do vídeo.

Pegasus 1.2

Modelo de linguagem de vídeo que pode gerar texto com base nos dados do seu vídeo.