Le Blog Amazon Web Services

Récap NAB Show 2024 : Quoi de neuf pour AWS Media2Cloud

Dans un monde où le contenu vidéo est roi, la gestion et la monétisation efficace d’actifs numériques sont devenues un défi pour les créateurs de contenu, les diffuseurs et les plateformes de streaming. C’est là qu’intervient la solution Media2Cloud d’Amazon Web Services (AWS), qui a été mise en lumière lors de l’événement NAB Live Show 2024. Cette solution vise à simplifier et automatiser un workflow d’ingestion entièrement serverless, générant les métadonnées nécessaires, les vidéos proxy et les vignettes d’images pour gérer facilement de grands volumes de contenu vidéo, tout en migrant vos actifs vidéo et leurs métadonnées associées vers le cloud.

Récemment AWS a publié une nouvelle version de la solution AWS Media2Cloud v4 qui propose des fonctionnalités innovantes et qui pousse la tache de traitement des contenus vidéos encore plus loin. Dans ce blog nous allons faire la revue de ces nouveautés.

Exploiter l’IA générative pour enrichir les métadonnées vidéo

La nouvelle fonctionnalité Media2Cloud Generative AI Toolkit met en lumière les capacités d’Amazon Bedrock à exploiter l’intelligence artificielle générative (GenAI) pour une analyse vidéo approfondie. Grâce à la transcription automatique, au résumé de contenu et à l’analyse de sentiments, cette solution révolutionne la façon dont les créateurs gèrent leurs actifs multimédias.

Résumés de transcriptions grâce à l’IA générative

L’un des points forts est la génération rapide de résumés descriptifs à partir des transcriptions vidéo. En utilisant les grands modèles de langage d’Amazon Bedrock comme Claude d’Anthropic, le toolkit condense efficacement les dialogues en quelques phrases clés, capturant l’essence du contenu. Ces résumés facilitent grandement la découverte et la navigation du contenu.

Analyse de sentiments et classification de genres

Le toolkit tire également parti de la GenAI pour analyser les sentiments exprimés et classifier le genre du contenu. Il enrichit automatiquement des métadonnées, essentielles pour les recommandations personnalisées, la publicité ciblée et l’optimisation de l’expérience utilisateur. Les créateurs s’assurent ainsi que leur contenu atteint le bon public.

Segmentation de la conversation

Enfin, la toolkit segmente intelligemment les vidéos par sujets de conversation en analysant les transcriptions. Cette fonctionnalité améliore considérablement la navigation et l’indexation du contenu, permettant aux utilisateurs d’accéder directement aux segments pertinents. Un véritable gain de temps et d’efficacité.

Avec ces puissantes capacités de GenAI, Media2Cloud offre aux créateurs de contenu, diffuseurs et plateformes de streaming un moyen simplifié d’automatiser la modération, l’enrichissement de métadonnées et l’optimisation de l’expérience utilisateur, déverrouillant ainsi de nouvelles opportunités de monétisation.

Exploiter pleinement les métadonnées avec Media2Cloud

Media2Cloud permet aux propriétaires de contenus d’extraire des métadonnées riches à partir de leurs ressources multimédias. En analysant les éléments visuels, audio et textuels, Media2Cloud crée un graphe de connaissances complet décrivant les scènes, objets, personnes, paroles et concepts présents. Cette mine d’informations contextuelle ouvre de nouvelles perspectives pour l’organisation, la réutilisation et la monétisation des contenus. Une vidéo de démonstration “Media2Cloud – Metadata Extraction” est disponible.

Analyse dynamique de trame pour des coûts réduits

L’une des forces de Media2Cloud réside dans son analyse dynamique de frame. Au lieu d’appeler les API de reconnaissance d’images de Amazon Rekognition à une fréquence fixe pendant l’analyse des vidéos, cette fonctionnalité compare les frames adjacentes et n’exécute les API de Amazon Rekognition que lorsqu’une différence significative est détectée. Cela permet de réduire considérablement le nombre d’appels API requis, abaissant ainsi les coûts d’analyse vidéo de 78% dans certains cas.

Indexation automatique des visages pour un gain de temps

L’indexeur automatique de visages constitue un autre atout majeur. Il indexe automatiquement les visages non reconnus lors de l’analyse, permettant de leur attribuer un nom qui se propagera à toutes les vidéos concernées. Fini le besoin de réexécuter l’analyse après identification ! Cette fonctionnalité utilise la détection de célébrités d’Amazon Rekognition ainsi qu’une collection de visages existante ou créée sur mesure.

Recherche avancée pour une exploitation optimale

Enfin, Media2Cloud permet une recherche avancée basée sur le graphe de connaissances généré. Les utilisateurs peuvent interroger les vidéos via des requêtes complexes, des relations et des contextes spécifiques. Ce niveau de granularité facilite grandement l’organisation du contenu, son réemploi dans de nouveaux projets ainsi que sa monétisation auprès d’audiences ciblées.

Détection intelligente de scènes et de pauses publicitaires avec AWS Media2Cloud

AWS Media2Cloud permet maintenant aux entreprises médias, aux diffuseurs et aux créateurs de contenu de monétiser efficacement leurs vidéos grâce à une détection automatisée des changements de scène et des pauses publicitaires. Une vidéo de démonstration “Media2Cloud – Scene and Ad Break Detection” est disponible. Voici comment cette solution innovante fonctionne :

Segmentation de la vidéo en scènes avec Amazon Rekognition

AWS Media2Cloud utilise Amazon Rekognition Segment API pour analyser la vidéo et la segmente en plans et en scènes. Chaque scène est enrichie par la suite de métadonnées, telles que la durée, une description textuelle, une classification par sujet, une analyse des sentiments et la détection de marques ou de logos.

Identification des pauses publicitaires pertinentes avec Amazon Transcribe

Pour identifier les meilleurs emplacements pour insérer des publicités, Media2Cloud utilise Amazon Transcribe pour générer une transcription de la vidéo. Un grand modèle de langage Anthropic Claude, analyse ensuite la transcription pour détecter les changements de sujets. Les changements de scène entre ces sujets sont considérés comme des candidats potentiels pour le placement de publicités, évitant ainsi d’interrompre le flux narratif au milieu d’un sujet.

Métadonnées enrichies pour un placement publicitaire optimal

Pour chaque pause publicitaire identifiée, Media2Cloud fournit des métadonnées détaillées, notamment un horodatage précis, un classement de la qualité de la pause et le contexte des scènes avant et après la pause. Ces informations, combinées aux catégories d’étiquettes dérivées de l’analyse des médias par apprentissage automatique, permettent au serveur publicitaire de choisir une annonce pertinente et adaptée au contenu.
Grâce à cette approche intelligente, AWS Media2Cloud offre aux entreprises de médias un moyen efficace de monétiser leur contenu vidéo tout en préservant une expérience de visionnage agréable pour les utilisateurs finaux.

Une expérience d’achat immersive directement dans la vidéo

La fonctionnalité Media2Cloud Shoppable Video offre une nouvelle expérience d’achat pour les spectateurs. Grâce à l’intégration transparente des services d’intelligence artificielle d’AWS comme Amazon Rekognition, Amazon SageMaker et Amazon OpenSearch, les téléspectateurs peuvent désormais identifier et acheter directement les produits qu’ils voient dans les vidéos, sans quitter le lecteur.

Cette fonctionnalité innovante ouvre de nouvelles opportunités pour les créateurs de contenu et les entreprises de commerce électronique. En permettant aux spectateurs d’interagir avec le contenu vidéo de manière interactive, ils peuvent augmenter l’engagement, stimuler les conversions et générer des revenus supplémentaires. L’expérience d’achat immersive crée une connexion plus étroite entre le contenu et les produits, offrant ainsi une valeur ajoutée significative.

L’un des principaux atouts de cette solution est son workflow entièrement serverless, de bout en bout. Depuis l’ingestion de la vidéo jusqu’à la génération de l’expérience d’achat interactive, en passant par l’extraction des métadonnées et l’appariement des produits, tout est orchestré de manière transparente par les services AWS. Cette approche serverless garantit une mise à l’échelle élastique, une haute disponibilité et des coûts optimisés.

De plus, l’intégration transparente avec les systèmes de paiement et de commerce électronique existants facilite l’adoption de cette solution par les entreprises. Elles peuvent ainsi tirer parti de leurs infrastructures actuelles tout en offrant une expérience d’achat repensée à leurs clients.

Conclusion

Dans ce blog, nous avons exploré comment AWS Media2Cloud permet aux créateurs de contenu, aux diffuseurs et aux plateformes de streaming de relever les défis liés à la gestion et à la monétisation efficaces de leurs actifs vidéo. En tirant parti de l’intelligence artificielle générative, de l’analyse approfondie des métadonnées et de la détection intelligente des scènes et des pauses publicitaires, cette solution offre des moyens innovants d’enrichir le contenu, d’optimiser l’expérience utilisateur et de déverrouiller de nouvelles opportunités de monétisation.

Les nouveautés présentées lors du NAB Live Show 2024 ont mis en lumière les capacités de pointe d’AWS dans ce domaine. Que vous cherchiez à automatiser la modération du contenu, à générer des recommandations personnalisées, à faciliter la découverte de contenu ou à proposer une expérience d’achat immersive, AWS dispose des services et des solutions adaptés pour répondre à vos besoins.

Pour approfondir vos connaissances sur ces solutions révolutionnaires, nous vous invitons à visionner les vidéos des démonstrations proposées au NAB Live Show 2024 et à explorer notre documentation technique détaillée. N’hésitez pas à contacter notre équipe d’experts AWS pour discuter de vos projets spécifiques et découvrir comment nous pouvons vous aider à tirer le meilleur parti de vos actifs vidéo dans le cloud.

A propos de l’auteur :

Iryna Oliinykova

Iryna Oliinykova

Iryna Oliinykova est une Solutions Architect AWS qui travaille en étroite collaboration avec les clients Media et Divertissement en France. Ayant un background d’ingénieure système et en s’appuyant sur une connaissance approfondie du domaine des médias, elle aide les clients de ce secteur à adopter de manière transparente les technologies cloud pour atteindre leurs principaux objectifs commerciaux et stimuler l’innovation.