Überspringen zum Hauptinhalt

Amazon Bedrock

TwelveLabs in Amazon Bedrock

Schöpfen Sie das volle Potenzial Ihrer Unternehmens-Video-Assets aus

Wir stellen vor: TwelveLabs

TwelveLabs verwendet multimodale Basismodelle (FMs), um Videodaten menschenähnlich zu verstehen. Die FMs des Unternehmens verstehen, was in Videos geschieht, einschließlich Handlungen, Objekte und Hintergrundgeräusche, und ermöglichen es Entwicklern, Anwendungen zu erstellen, die Videos durchsuchen, Szenen klassifizieren, zusammenfassen und Insights präzise und zuverlässig extrahieren können.

Modernste Modelle zur Videoanalyse

Marengo 2.7

Erhalten Sie schnelle, kontextbezogene Ergebnisse, die genau das anzeigen, wonach Sie in Ihren Videos suchen – und gehen Sie über einfache Tags hinaus in eine ganz neue Dimension des multimodalen Verständnisses.

Blog lesen

Pegasus 1.2

Verwandeln Sie Ihre Videos durch die Kraft der Sprache. Erstellen Sie alles, was Sie benötigen, aus Videos – von prägnanten Zusammenfassungen und fesselnden Highlights bis hin zu effektiven Hashtags und benutzerdefinierten Berichten. Gewinnen Sie tiefere Insights und eröffnen Sie sich mit Ihren Inhalten völlig neue Möglichkeiten.

Blog lesen
 

Vorteile

Ermitteln Sie mithilfe einfacher Sprachabfragen präzise Momente in Ihren Videos und machen Sie so mühsames Scrubbing und manuelle Überprüfungen überflüssig.

Gewinnen Sie tiefe Insights aus Ihren Inhalten, ohne Bezeichnungen oder Kategorien vorab festzulegen, und entdecken Sie so unerwartete Muster und Informationen.

Wandeln Sie umfangreiche Videobibliotheken in zugängliche, durchsuchbare Wissensressourcen um – mit Technologie, die für Unternehmen skaliert und sicher ist.

Verarbeiten Sie visuelle Elemente, Audioinhalte und Text gleichzeitig, um ein umfassendes Verständnis zu erlangen, das jede Dimension Ihrer Videos erfasst.

Verbinden Sie verwandte Ereignisse über die Zeit hinweg und identifizieren Sie Muster und Beziehungen, die manuell nur schwer und zeitaufwendig nachzuverfolgen sind.

Anwendungsfälle

Transformieren Sie Produktions-Workflows, indem Sie Videomomente sofort erkennen, zusammenfassen und verknüpfen und so Storytellern helfen, sich auf die Kreativität zu konzentrieren, anstatt Filmmaterial zu durchsuchen.

Beschleunigen Sie die Inhaltsanalyse und die Effizienz von Workflows durch KI-gestütztes Video-Verständnis und helfen Sie Marken, effektiver mit ihrem Publikum in Kontakt zu treten, während Sie gleichzeitig Produktionszeit und -kosten reduzieren.

Verbessern Sie das Situationsbewusstsein, indem Sie kritische Ereignisse und Muster in Videoquellen schnell identifizieren und so eine proaktive Sicherheitsüberwachung und eine schnellere, fundiertere Entscheidungsfindung ermöglichen.

Von der Erkennung von Gefahren für Fahrer bis hin zur Vorhersage des Verhaltens von Fußgängern analysiert die KI von TwelveLabs Videos mit menschenähnlichem Verständnis und verändert so die Sicherheit und Effizienz im Verkehr.

TwelveLabs in Amazon Bedrock im Überblick

Mit Marengo und Pegasus in Amazon Bedrock können Sie die Modelle von TwelveLabs verwenden, um Anwendungen mit generativer KI zu erstellen und zu skalieren, ohne die zugrunde liegende Infrastruktur verwalten zu müssen. Sie können auch auf eine Vielzahl von Funktionen zugreifen und dabei die vollständige Kontrolle über Ihre Daten, Sicherheit auf Unternehmensebene und Features zur Kostenkontrolle behalten, die für eine verantwortungsvolle Bereitstellung von KI in großem Maßstab unerlässlich sind.

Modellversionen

Marengo 2.7

Video-Einbettungsmodell, das Aufgaben wie Suchen und Klassifizieren kompetent ausführt und so ein besseres Videoverständnis ermöglicht.

Pegasus 1.2

Videosprachenmodell, das Text auf der Grundlage Ihrer Videodaten generieren kann.