Saltar al contenido principal

Amazon Bedrock

TwelveLabs en Amazon Bedrock

Aproveche al máximo el potencial de los activos de video empresariales

Presentamos TwelveLabs

TwelveLabs utiliza modelos fundacionales multimodales (FM) para ofrecer una comprensión similar a la humana de los datos de video. Los modelos fundacionales de la compañía comprenden lo que ocurre en los videos, incluidos acciones, objetos y sonidos de fondo. Esto permite a los desarrolladores crear aplicaciones que buscan en videos, clasifican escenas, generan resúmenes y extraen información con precisión y fiabilidad.

Modelos avanzados de comprensión de video

Marengo 2.7

Obtenga resultados rápidos y contextualizados que revelan con precisión lo que busca en los videos, y vaya más allá de las etiquetas básicas hacia una nueva dimensión de comprensión multimodal.

Lea el blog

Pegasus 1.2

Transforme los videos a través del poder del lenguaje. Genere todo lo que necesita a partir del video: desde resúmenes concisos y momentos destacados impactantes hasta etiquetas efectivas e informes personalizados. Descubra información más profunda y aproveche posibilidades completamente nuevas con el contenido.

Lea el blog
 

Beneficios

Identifique momentos precisos en los videos mediante consultas en lenguaje natural, sin necesidad de desplazarse manualmente ni revisar el contenido de forma tediosa.

Extraiga información profunda del contenido sin necesidad de definir previamente etiquetas o categorías, lo que permite descubrir patrones e información inesperados.

Convierta extensas bibliotecas de video en recursos de conocimiento accesibles y consultables, mediante tecnología diseñada para brindar escalabilidad empresarial y seguridad.

Procese de forma simultánea los elementos visuales, el contenido de audio y el texto para lograr una comprensión integral que capture cada dimensión de los videos.

Conecte eventos relacionados a lo largo del tiempo e identifique patrones y relaciones que resultan difíciles y requieren mucho tiempo si se rastrean manualmente.

Casos de uso

Transforme los flujos de trabajo de producción al encontrar, resumir y conectar de inmediato los momentos clave en video, lo que permite a los creadores centrarse en la creatividad en lugar de buscar entre el material grabado.

Acelere el análisis de contenido y la eficiencia de los flujos de trabajo mediante comprensión de video impulsada por inteligencia artificial, lo que ayuda a las marcas a conectar de forma más efectiva con su audiencia y a reducir el tiempo y los costos de producción.

Mejore el entendimiento del entorno al identificar con rapidez eventos críticos y patrones en múltiples fuentes de video, lo que permite una supervisión de seguridad proactiva y una toma de decisiones más ágil y fundamentada.

Desde la detección de riesgos para conductores hasta la predicción del comportamiento de los peatones, la inteligencia artificial de TwelveLabs analiza video con comprensión similar a la humana y transforma la seguridad y la eficiencia en el transporte.

Información general sobre TwelveLabs en Amazon Bedrock

Gracias a Marengo y Pegasus en Amazon Bedrock, puede utilizar los modelos de TwelveLabs para crear y escalar aplicaciones de IA generativa sin necesidad de administrar la infraestructura subyacente. También puede acceder a un amplio conjunto de capacidades, tener control total sobre sus datos, contar con seguridad de nivel empresarial y aplicar características de control de costos esenciales para implementar IA a escala de forma responsable.

Versiones del modelo

Marengo 2.7

Modelo de incrustación de video competente para realizar tareas como búsqueda y clasificación, lo que permite una mejor comprensión del video.

Pegasus 1.2

Modelo de lenguaje de video que puede generar texto a partir de los datos de video.