O blog da AWS
Sky: Algo novo no casamento real
Este artigo foi originalmente publicado na FEED Magazine, Edição 07.
Por Alicia Hunt, Gerente de Programa de Marketing Digital do AWS Elemental
O público adora uma história de amor, especialmente aquelas que terminam em casamento. Em maio de 2018, as núpcias de um jovem casal se tornaram o maior evento de mídia do Reino Unido. O alvoroço em torno do casamento do Príncipe Harry com Meghan Markle estendeu-se muito além do Reino Unido — quase 40 milhões de americanos assistiram à cobertura. E a audiência na TV para o casamento do irmão mais velho de Harry, William, com Kate Middleton em 2011 foi ainda maior. Um casamento real é garantia de atrair telespectadores.
Ao contrário de um evento esportivo, cujos direitos de transmissão podem ser cuidadosamente licenciados para cada território, um espetáculo público como o casamento real deste ano permite que várias emissoras consigam competir por uma fatia da torta de audiência. A concorrência obriga cada emissora a aumentar as apostas em termos de qualidade e inovação.
A Sky sempre tentou desafiar os limites em tecnologia de TV. A empresa foi pioneira da 3DTV e, embora o formato nunca tenha se tornado popular entre os telespectadores, a pesquisa da Sky em produção e distribuição teve um efeito propagador em todo o setor. Agora, ela voltou-se para conteúdo HDR, além de aumentar suas ofertas de 4K, e anunciou planos para criar um novo Centro de inovação em seu campus de Osterley, Londres, que será o lar do seu novo programa “Get into Tech for Young Women”.
Para o casamento de Harry e Meghan, a Sky News aproveitou o poder da inteligência artificial para criar um aplicativo de streaming ao vivo que permitiu que os telespectadores identificassem os participantes e convidados do casamento em tempo real.
Who’s Who?
O aplicativo Sky News Royal Wedding: Who’s Who Live foi alimentado por vídeo aprimorado de machine learning. A experiência de streaming ao vivo deu aos usuários uma visão privilegiada das chegadas de hóspedes, com a infraestrutura de machine learning para detectar convidados em tempo real á medida que eles apareciam na tela. O aplicativo ofereceu aos usuários um fluxo constante de fatos e informações sobre cada hóspede que chegava, incluindo suas conexões com o casal real, e foi usado por meio milhão de pessoas em mais de 200 países em dispositivos móveis e navegadores da web.
Uma versão sob demanda do vídeo foi publicada após o casamento. Ela permitiu que os usuários navegassem pela lista de convidados com pausa integrada, retrocedessem e reiniciassem.
A Sky News projetou e construiu sua funcionalidade de machine learning em apenas três meses. A equipe criou o serviço usando a infraestrutura de nuvem para acelerar o desenvolvimento e garantir o acesso aos recursos escaláveis de machine learning que são essenciais para a funcionalidade principal do aplicativo de identificação de convidados em tempo real.
O projeto combinou a infraestrutura de vídeo em nuvem da AWS com a plataforma de análise de dados da GrayMeta e o design interativo da interface do usuário da UI Centric. O serviço de análise de vídeo e imagem Amazon Rekognition foi usado para a identificação em tempo real de celebridades e para marcação de metadados com informações relacionadas, integrando uma experiência do usuário em colaboração com a UI Centric.
O Rekognition permite que os usuários adicionem análises de imagem e vídeo a aplicativos, fornecendo imagem ou vídeo à API do Rekognition. O serviço pode identificar objetos, pessoas, textos, cenas e atividades, ou até mesmo detectar conteúdo sinalizado ou inadequado. A ferramenta baseada em nuvem também fornece análise e reconhecimento faciais precisos.
Capturando os convidados
Um feed de vídeo de uma van de transmissão externa localizada perto da St George’s Chapel no Castelo de Windsor capturou os rostos dos hóspedes que chegavam e alimentou o sinal bruto em um dispositivo de fator de forma pequeno do AWS Elemental Live localizado nas proximidades, que iniciou a ingestão em tempo real no fluxo de trabalho baseado na nuvem. O processamento de vídeo foi feito com o serviço AWS Elemental MediaLive. O AWS Elemental MediaPackage integrou o gerenciamento de direitos digitais para distribuição segura pela rede de entrega de conteúdo do Amazon CloudFront. A Sky News também usou o serviço AWS Elemental MediaPackage para aplicativos Live-to-VOD, como o catch‑up TV.
A rede de entrega de conteúdo do Amazon CloudFront foi usada para unificar o conteúdo para uma distribuição mais rápida aos telespectadores. O vídeo aprimorado e os metadados foram entregues ao aplicativo front-end e ao player de vídeo projetado e desenvolvido pela UI Centric especificamente para esse aplicativo.
ROI real
Esse tipo de conteúdo rico em informações como o fornecido pelo aplicativo Sky Who’s Who Live se tornará cada vez mais comum, até mesmo essencial, para provedores e emissoras que procuram capturar mais olhares. Não é difícil imaginar um serviço ou aplicativo que diga não só quem está presente em um evento, mas também quais designs eles estão usando, qual veículo estão dirigindo e quais são as construções e os marcos proeminentes em uma cena, além de links para mais informações ou oportunidades de adicionar itens à sua lista de desejos ou carrinho de compras.
A Sky está explorando novas oportunidades de outros tipos de eventos em que o machine learning possa oferecer níveis mais altos de ROI. Com eventos ao vivo sendo um diferencial chave para as emissoras e ferramentas novas e sofisticadas agora amplamente disponíveis, podemos esperar inovações de vídeo cada vez mais dinâmicas que acompanham grandes eventos ao vivo.
Este artigo foi traduzido do Blog da AWS em Inglês.
|
Use seus dados para impulsionar o crescimento do negócio. Inove continuamente usando o data flywheel |