Passer au contenu principal

Amazon Bedrock

TwelveLabs dans Amazon Bedrock

Exploitez tout le potentiel des ressources vidéo d’entreprise

Présentation de TwelveLabs

TwelveLabs utilise des modèles de fondation (FM) multimodaux pour apporter une compréhension humaine des données vidéo. Les FM de l’entreprise comprennent ce qui se passe dans les vidéos, y compris les actions, les objets et les sons de fond, ce qui permet aux développeurs de créer des applications capables de rechercher dans les vidéos, de classer des scènes, de résumer et d’extraire des informations avec précision et fiabilité.

Modèles de compréhension vidéo de pointe

Marengo 2.7

Obtenez des résultats rapides et contextuels qui révèlent exactement ce que vous recherchez dans vos vidéos, en allant au-delà des balises basiques pour entrer dans une toute nouvelle dimension de compréhension multimodale.

Lire le blog

Pegasus 1.2

Transformez vos vidéos grâce au pouvoir du langage. Générez tout ce dont vous avez besoin à partir de vidéos, qu’il s’agisse de résumés concis, de points forts captivants, de hashtags efficaces ou de rapports personnalisés. Découvrez des informations plus approfondies et ouvrez de toutes nouvelles possibilités grâce à votre contenu.

Lire le blog
 

Avantages

Identifiez des moments précis de vos vidéos à l’aide de simples requêtes en langage naturel, ce qui vous évite d’avoir à les passer au peigne fin et les examiner manuellement.

Extrayez des informations détaillées de votre contenu sans prédéfinir d’étiquettes ou de catégories, ce qui permet de découvrir des modèles et des informations non attendus.

Convertissez de vastes vidéothèques en ressources de connaissances accessibles et consultables grâce à une technologie conçue pour l’échelle et la sécurité de l’entreprise.

Traitez simultanément les éléments visuels, le contenu audio et le texte pour une compréhension complète qui capture toutes les dimensions de vos vidéos.

Connectez les événements connexes au fil du temps, en identifiant les modèles et les relations dont le suivi manuel peut être difficile et fastidieux.

Cas d'utilisation

Transformez les flux de production en trouvant, résumant et connectant instantanément des moments vidéo, afin d’aider les narrateurs à se concentrer sur leur créativité au lieu de chercher dans les séquences.

Accélérez l’analyse du contenu et l’efficacité des flux de travail grâce à la compréhension vidéo alimentée par l’IA, ce qui permet aux marques de communiquer plus efficacement avec leur public tout en réduisant les délais et les coûts de production.

Améliorez la connaissance de la situation en identifiant rapidement les événements et les modèles critiques à travers les sources vidéo, ce qui permet une surveillance proactive de la sécurité et une prise de décision plus rapide et mieux informée.

Qu’il s’agisse de détecter les dangers pour les conducteurs ou de prévoir le comportement des piétons, TwelveLabs AI analyse les vidéos avec une compréhension humaine, transformant ainsi la sécurité et l’efficacité des transports.

Vue d’ensemble de TwelveLabs dans Amazon Bedrock

Avec Marengo et Pegasus dans Amazon Bedrock, vous pouvez utiliser les modèles de TwelveLabs pour créer et mettre à l’échelle des applications d’IA générative sans avoir à gérer l’infrastructure sous-jacente. Vous pouvez également accéder à un large éventail de fonctionnalités tout en conservant le contrôle total de vos données, une sécurité de niveau entreprise et des fonctionnalités de contrôle des coûts qui sont essentielles pour déployer de manière responsable l’IA à grande échelle.

Versions de modèles

Marengo 2.7

Modèle de vectorisation vidéo performant pour des tâches telles que la recherche et la classification, permettant une compréhension vidéo enrichie.

Pegasus 1.2

Modèle de langage vidéo capable de générer du texte à partir de vos données vidéo.