此 AWS 解决方案实施有何用途?

此解决方案可以自动为直播流视频内容生成多语言字幕。

此解决方案使用机器学习 (ML) 服务进行转录和翻译,使您无需人工速记员即可自动完成字幕处理,并允许使用一种输入语言和多达五种翻译的字幕语言。类似于速记员,字幕相对于音频略有延迟。对于广播级应用程序,此解决方案可能需要其他自定义设置或人工监管。 

AWS 解决方案实施概览

AWS 为直播视频内容提供了直播字幕解决方案,它结合 Amazon Transcribe、Amazon Translate 和 AWS Lambda,构建了无服务器架构,能够自动为您的直播视频生成多语言字幕。下图显示了您可以使用该解决方案实施指南和随附的 AWS CloudFormation 模板自动部署的架构。

Live Streaming with Automated Multi-Language Subtitling | 架构图
 单击可放大

Live Streaming with Automated Multi-Language Subtitling 架构

该解决方案的 AWS CloudFormation 模板通过以下附加服务部署 Live Streaming on AWS:

 

为了将 WebVTT 字幕嵌入 AWS Elemental MediaPackage,我们使用 Amazon CloudFront 中的 Lambda@Edge 函数将字幕插入 HLS 流,该字幕流从 AWS Elemental MediaLive 发送到 AWS Elemental MediaPackage。Amazon MediaLive 将 HLS 输出到 Amazon CloudFront 终端节点。该终端节点通过视频文件、清单传递,并仅调用从 AWS Elemental MediaLive 传递到 AWS Elemental MediaPackage 的 WebVTT 字幕文件的 Lambda@Edge 函数。字幕在传递到 Amazon MediaPackage 之前,会先插入到这些 WebVTT 文件中。

AWS Elemental MediaLive 将纯音频用户数据报协议 (UDP) 流输出到 Amazon ECS 容器。该容器将音频传输到 Amazon Transcribe Streaming,后者接收流中包含的文本作为异步响应,并将每个文本响应写入 Amazon Dynamo DB 表。此 Amazon ECS 容器还将 Amazon SNS 通知发送到 Amazon Translate Lambda 函数,该函数将创建翻译后的字幕,这些字幕将被写入同一 Amazon Dynamo DB 表。

每个 WebVTT 文件都会调用 Lambda@Edge 函数,该函数会插入字幕,然后将其传输到 MediaPackage 上。MediaLive 提供身份验证标头。

MediaPackage 摄入这些文件并打包成相应格式,以交付到四个 MediaPackage 自定义终端节点。
 
Amazon CloudFront 分发版配置为使用 MediaPackage 自定义终端节点作为原点。该 CloudFront URL 是提供给实时观看者的内容。

Live Streaming with Automated Multi-Language Subtitling

版本 2.0.0
上次更新时间:2020 年 12 月
作者:AWS

估算部署时间:20 分钟

使用下面的按钮订阅解决方案更新。

注意:要订阅 RSS 更新,您必须为您正在使用的浏览器启用 RSS 插件。 

此解决方案实施是否能为您提供帮助?
提供反馈 

功能

可访问性

通过多语言字幕,将内容公开给更广泛的受众,可以帮助扩大直播视频内容的范围和访问量。

灵活性

该解决方案可以开箱即用,定制解决方案以满足特定用例需要,或者利用 APN 合作伙伴产品实施端到端字幕工作流程。
使用解决方案解决:Live Streaming with Automated Multi-Language Subtitling
构建图标
自己部署解决方案

浏览我们的 AWS 解决方案实施库,以获取常见架构问题的答案。

了解更多 
查找 APN 合作伙伴
查找 APN 合作伙伴

寻找 AWS 认证的咨询和技术合作伙伴,以帮助您入门。

了解更多 
探索图标
了解解决方案咨询服务

浏览我们的咨询服务组合,以获取经过 AWS 审查的解决方案部署帮助。

了解更多