Author: Localization Team


AWS HIPAA 资格更新 (2017 年 10 月) – 再添 16 项服务

我们的医疗客户案例页面仅列出在 AWS 上构建和运行医疗保健及生命科学应用程序的众多客户当中的一部分。Verge HealthCare CloudOrion Health 这样的客户信赖 AWS,相信 AWS 能够帮助他们在受保护健康信息 (PHI) 和个人识别信息 (PII) 方面遵守 HIPAA 和 HITECH 要求。

再添 16 项服务
我在上次 HIPAA 资格更新中提到,我们向符合 HIPAA 要求的服务列表中添加了 8 项其他服务。今天,我很高兴地向大家宣布,我们又向该列表添加了 16 项服务,现在总共有 46 项服务。这里提供了最新添加的内容以及一些简短描述,还有我的一些博客文章的链接,帮您回忆一下之前的内容:

兼容 PostgreSQL 的 Amazon Aurora – 这是对 Amazon Aurora 的全新补充,允许您使用自己通过 AWS Key Management Service (KMS) 创建和管理的密钥来加密关系数据库。对 Amazon Aurora 数据库启用加密时,底层存储会被加密,自动备份、只读副本和快照也会被加密。请阅读新增 – 针对 Amazon Aurora 的静态加密,以了解更多信息。

Amazon CloudWatch Logs – 您可以使用日志来监控您的系统和应用程序并进行故障排除。您可以近乎实时地监控现有系统、应用程序和自定义日志文件,监视特定阶段、特定值或特定模式。日志数据可持久存储任意长时间,且成本低廉。要了解更多信息,请阅读使用 Amazon CloudWatch 存储和监控操作系统及应用程序日志文件对 CloudWatch Logs 和控制面板的改进

Amazon Connect – 这是基于云的自助联络中心,它简单易用,可使您方便地以更低的成本实现更优质的客户服务。您可以使用视觉设计器来设置联系流,管理客服人员以及跟踪绩效指标,这些都不需要任何专门的技能。阅读 Amazon Connect – 云中的客户联络中心新增 – Amazon Connect 和 Amazon Lex 集成,以了解更多信息。

用于 Redis 的 Amazon ElastiCache – 此服务允许您部署、操作和扩展内存数据存储或缓存,可用于改进应用程序的性能。每个用于 Redis 集群的 ElastiCache 都将关键性能指标发布到 Amazon CloudWatch。要了解更多信息,请阅读使用 Amazon ElastiCache 在云中进行缓存Amazon ElastiCache – 现在使用少许 Redis

Amazon Kinesis Streams – 此服务允许您构建处理或分析流数据 (如网站点击流、财务交易、社交媒体源和位置跟踪事件) 的应用程序。要了解更多信息,请阅读 Amazon Kinesis – 大数据流的实时处理新增:Amazon Kinesis Streams 服务器端加密

适用于 MariaDB 的 Amazon RDS – 此服务允许您在几分钟内设置可扩展的托管 MariaDB 实例,并提供高性能、高可用性以及一个简化的安全模型,使您能够轻松加密静态数据和传输中的数据。阅读 Amazon RDS 更新 – MariaDB 现已发布,以了解更多信息。

Amazon RDS SQL Server – 此服务允许您在几分钟内设置可扩展的托管 Microsoft SQL Server 实例,还提供高性能、高可用性以及一个简化的安全模型。要了解更多信息,请阅读 Amazon RDS for SQL Server 和针对 AWS Elastic Beanstalk 的 .NET 支持Amazon RDS for Microsoft SQL Server – 透明数据加密 (TDE)

Amazon Route 53 – 这是一款可用性极高的域名服务器。它可将 www.example.com 之类的名称转化为 IP 地址。要了解更多信息,请阅读 Amazon Route 53 助力前行

AWS Batch – 此服务允许您在 AWS 上运行大规模批处理计算任务。您无需安装或维护专门的批处理软件,也无需构建自己的服务器集群。阅读 AWS Batch – 在 AWS 上运行批处理计算任务,以了解更多信息。

AWS CloudHSM – 一种基于云的硬件安全模块 (HSM),用于在云规模进行密钥存储和管理。CloudHSM 专为敏感工作负载而设计,您可以使用经过 FIPS 140-2 第 3 级验证的 HSM 来管理自己的密钥。要了解更多信息,请阅读 AWS CloudHSM – 安全的密钥存储和加密操作AWS CloudHSM 更新 – 在云规模提供针对受监管的敏感工作负载的经济高效的硬件密钥管理

AWS Key Management Service – 此服务可让您轻松创建和控制用于加密数据的加密密钥。它使用 HSM 保护您的密钥,并与 AWS CloudTrail 集成,以便为您提供所有密钥的使用记录。阅读新增 AWS Key Management Service (KMS),以了解更多信息。

AWS Lambda – 此服务允许您运行事件驱动型应用程序或后端代码,而无需考虑或管理服务器。要了解更多信息,请阅读 AWS Lambda – 在云中运行代码AWS Lambda – 回顾 2016AWS Lambda – 利用面向移动开发人员的新功能全面生产

Lambda@Edge – 您可以使用 AWS Lambda 的此新功能在全球 AWS 位置网络运行 Node.js 函数,而无需预置或管理服务器,从而以较低延迟为用户提供丰富的、个性化的内容。阅读 Lambda@Edge – 在边缘智能地处理 HTTP 请求,以了解更多内容。

AWS Snowball Edge – 这是一款具有 100 TB 板载存储以及计算能力的数据传输设备。您可以用它将大量数据移入或移出 AWS、将其用作临时存储层,或者在远程或离线位置支持工作负载。要了解更多信息,请阅读 AWS Snowball Edge – 更多存储、本地终端节点、Lambda 函数

AWS Snowmobile – 这是一种 EB 级数据传输服务。每个 Snowmobile 均由一台半挂卡车牵引,可将 100 PB 的存储装入一个 45 英尺长的坚固的集装箱。阅读 AWS Snowmobile – 在几周之内将 EB 级数据迁移到云,以了解更多信息 (并参阅我的一些最好的 LEGO 作品)。

AWS Storage Gateway – 这种混合存储服务允许您的本地应用程序以一种简单且无缝的方式使用 AWS 云存储 (Amazon Simple Storage Service (S3)Amazon GlacierAmazon Elastic File System),且提供用于卷、文件和虚拟磁带的存储。要了解更多信息,请阅读 AWS Storage Gateway – 将现有的本地应用程序与 AWS 云存储集成AWS Storage Gateway 文件接口

就这么回事儿!请查看我的早期帖子,里面列出了一些有用的资源,可帮助您构建符合 HIPAA 和 HITECH 的应用程序。

Jeff

T2 Unlimited – 以高性能突破突发限制

第一次撰写关于 T2 实例的文章是在 2014 年夏季,在该文章中我讨论了有多少工作负载对持续计算能力有适度的需求但偶尔需要更多的计算能力。该模型引起了我们客户的共鸣;T2 实例非常受欢迎,现在用于托管微服务、低延迟交互式应用程序、虚拟桌面、构建和暂存环境、原型等等。

新的 T2 Unlimited 实例
今天我们正在扩展突发模式,该模式首先在 T2 上得以应用,使您能够在任何期望的时间内维持高 CPU 性能,同时仍然保持尽可能低的成本。您只需在启动实例时启用此功能即可;您也可以为已经运行的实例启用此功能。如果平均 CPU 利用率在 24 小时时段内低于基线,则每小时 T2 实例价格将涵盖使用中的所有临时峰值。如果实例在较长时间内以较高的 CPU 利用率运行,则会产生一小笔小时费用。例如,如果您运行的 t2.micro 实例在 24 小时内的平均使用率为 15% (比基线高出 5%),则将额外收取 6 美分 (每个 vCPU 小时 5 美分 * 1 个 vCPU * 5% * 24 小时)。

要从 EC2 控制台启动 T2 无限实例,请选择任意 T2 实例,然后单击 T2 Unlimited 旁边的 Enable

下面介绍了如何将正在运行的实例从 T2 标准实例切换到 T2 Unlimited 实例:

背景知识
正如我在原来的博客文章中所介绍的那样,每个 T2 实例在运行时积累 CPU 点数,并在全速运行时消耗 CPU 点数,当供应的点数用完时会减速到基线水平。T2 Unlimited 实例能够借用一整天的未来点数,这使它们能够执行额外的突发。这种借用的点数是使用新的 CPUSurplusCreditBalance CloudWatch 指标来跟踪的。当这个剩余额度上升到代表一整天未来点数的水平时,该实例会继续提供全核心性能,对于 Linux 的收费为每小时 0.05 美元,对于 Windows 的收费为 0.096 美元。这些收费的额外点数是使用新的 CPUSurplusCreditBalance CloudWatch 指标来跟踪的。如果您在指定的小时内耗尽了额外点数,则将以毫秒为单位对突发的部分小时数进行计费 (进一步降低您的成本)。

任何剩余的 CPUSurplusCreditBalance 的费用将在实例终止或配置为 T2 标准实例时处理。在转换到 T2 标准期间将结转任何累积的 CPUCreditBalance

T2 Unlimited模型旨在让您省去观察 CloudWatch 指标的麻烦,但是 (如果您和我一样),无论如何您都会这样做。让我们快速浏览一下 t2.nano,并且观察点数随时间的变化。首先,CPU 利用率增长到 100%,实例每 5 分钟消耗 5 个点数 (一个点数相当于一 VCPU 分钟):

CPU 点数剩余额度保持为 0,因为点数以相同的速率产生和消耗。额外点数剩余额度 (通过 CPUSurplusCreditBalance 指标来跟踪) 追加至 72,这代表从未来借入的点数:

一旦额外点数剩余额度达到 72,就无法再从未来借用,并且在 1 小时结束时会收取任何进一步的 CPU 使用费,该费用使用 CPUSurplusCreditsCharged 指标来跟踪。实例每 5 分钟消耗 5 个点数,赚取 0.25,导致每 5 分钟突发的净收费为 4.75 VCPU 分钟:

您可以随时在 T2 标准实例和 T2 Unlimited 实例之间来回切换您的每个实例;除 CPUSurplusCreditsCharged 之外的所有点数剩余额度都会保留并结转。由于 T2 Unlimited 实例有能力在任何时候突发,因此它们不会收到为新启动的 T2 标准实例提供的 30 分钟点数。此外,由于每个 AWS 账户每天只能启动有限数量的带初始 CPU 点数的 T2 标准实例,因此 T2 Unlimited 实例可能更适合在 Auto Scaling 组以及每天启动并运行大量实例的其他场景中使用。

现已推出
您目前可以在美国东部 (弗吉尼亚北部)美国东部 (俄亥俄)美国西部 (加利福尼亚北部)美国西部 (俄勒冈)加拿大 (中部)南美洲 (圣保罗)亚太区域 (新加坡)亚太区域 (悉尼)亚太区域 (东京)亚太区域 (孟买)亚太区域 (首尔)欧洲 (法兰克福)欧洲 (爱尔兰)欧洲 (伦敦) 区域中启动 T2 Unlimited 实例。

Jeff

AWS Systems Manager – 用于管理您的云和混合资源的统一界面

AWS Systems Manager 是一种管理云和混合 IT 环境的新方法。AWS Systems Manager 提供了一个统一的用户界面,可以简化资源和应用程序管理,缩短检测和解决操作问题的时间,并使您能够轻松安全地大规模操作和管理基础设施。此服务包含了丰富的功能。它定义了围绕使用 Amazon EC2 Systems Manager (SSM) 等产品中的功能进行分组、可视化和问题响应的新体验,支持大量跨资源的操作。

正如我在前面所说的,此服务中有很多强大的功能,我们没法深入介绍所有这些功能,但很容易转到控制台并开始使用任一工具。

资源分组

您可以通过资源组来创建大多数支持标记的资源的逻辑分组,这些资源包括 Amazon Elastic Compute Cloud (EC2) 实例、Amazon Simple Storage Service (S3) 存储桶、Elastic Load Balancing 均衡器、Amazon Relational Database Service (RDS) 实例、Amazon Virtual Private CloudAmazon Kinesis Streams、Amazon Route 53 区域,等等。以前,您可以使用 AWS 控制台来定义资源分组,但 AWS Systems Manager 通过一个新的控制台和 API 提供这种新的资源组体验。这些分组是 Systems Manager 的基本构建块,因为它们经常是您可能要执行的各种操作的目标,例如:合规性管理、软件库存、修补和其他自动操作。

您首先要基于标签筛选器定义一个组。然后您便可以在一个集中式控制台中查看所有资源。您通常会使用这些分组来区分应用程序、应用程序层和环境 (例如生产或开发),但也可以自行制定有关如何使用它们的规则。如果您设想一个典型的 3 层 Web 应用程序,您可能会有几个 EC2 实例、一个 ELB、几个 S3 存储桶和一个 RDS 实例。您可以为该应用程序定义一个同时包含所有这些不同的资源的分组。

见解

AWS Systems Manager 将通过一个控制面板自动聚合和显示每个资源组的操作数据。您不再需要浏览多个 AWS 控制台来查看所有操作数据。您可以轻松集成现有的 Amazon CloudWatch 控制面板、AWS Config 规则、AWS CloudTrail 跟踪、AWS Trusted Advisor 通知以及 AWS Personal Health Dashboard 性能和可用性警报。您还可以轻松地查看机群中的软件库存。AWS Systems Manager 还提供了一个合规性控制面板,让您查看您的机群中的各种安全控制和修补操作的状态。

基于见解采取行动

基于 EC2 Systems Manager (SSM) 的成功,AWS Systems Manager 采用了 SSM 的所有功能并提供了一个访问它们的集中位置。这些功能的体验与您在 SSM 中获得的相同,但 AWS Systems Manager 具有更容易访问的控制台和集中的界面。您可以使用已在 Systems Manager 中定义的资源组来可视化多组资源并对其采取行动。

自动化操作


自动化操作可让您将常见 IT 任务定义为一个指定了一系列任务的 JSON 文档。您还可以使用社区发布的文档。这些文档可通过控制台、CLI、软件开发工具包和计划的维护窗口来执行,或通过 CloudWatch 事件基于您的基础设施中的更改来触发。您可以跟踪并记录文档中的每个步骤的执行情况,并针对额外的审批进行提示。它还允许您逐步推出更改并在出现错误时自动停止。您可以直接在资源组上开始执行自动化操作,该操作能够将自身应用于它在组中了解的资源。

Run Command

Run Command 是一个用于对实例启用 SSH 的卓越替代品。它让您可以在不登录到服务器的情况下为您的实例提供安全可靠的大规模远程管理,从而取代了对 SSH 防御主机或远程 powershell 的需求。它具有精细的 IAM 权限,可让您限制可以运行某些命令的角色或用户。

Patch Manager、维护时段和 State Manager

我之前撰写过有关 Patch Manager 的文章,如果您管理 Windows 和 Linux 实例的机群,那么它是一个在机群中维持常见安全基线的好方法。

维护时段可让您在特定时段内安排实例维护和其他中断性任务。

State Manager 可让您控制各种服务器配置详情,例如防病毒定义、防火墙设置等。您可以在控制台中定义策略,也可以运行现有脚本、PowerShell 模块或者甚至直接从 S3 或 GitHub 运行 Ansible 操作手册。您可以随时查询 State Manager 以查看实例配置的状态。

需知信息

这里有一些有趣的术语。过去,我们没有认真地为这些东西命名,因此让我们花点时间来理清一下。EC2 Systems Manager (有时称为 SSM) 是您在今天之前使用的工具。您仍可以调用 aws ssm 命令。但是,AWS Systems Manager 是在 EC2 Systems Manager 提供的很多工具的基础上打造和改进而来的,它还使这些工具能够不仅仅应用于 EC2。当您在将来看到“Systems Manager”这个短语时,应该想到 AWS Systems Manager 而不是 EC2 Systems Manager。

带有所有这些有用的功能的 AWS Systems Manager 将免费提供。它在所有公共 AWS 区域中立即可用。

这些服务最好的一点在于,即使它们相互之间紧密集成,每项服务也都能单独使用。如果您只需要这些服务的其中一个组件,那么直接开始使用该组件即可。

在本文中,限于篇幅,有很多东西我没能写下来,因此我鼓励大家直接跳到控制台和文档,以了解您可以从何处着手使用 AWS Systems Manager。

Randall

利用 Amazon Time Sync Service 保持时间同步

今天我们发布了 Amazon Time Sync Service,这是一项通过网络时间协议 (NTP) 提供的时间同步服务,在每个区域使用冗余的卫星连接和原子钟来提供高精度的参考时钟。此项服务不收取额外费用,并且立即在所有公共 AWS 区域中提供给在 VPC 中运行的所有实例使用。

可以通过链接本地 169.254.169.123 IP 地址访问该服务。这意味着您不需要配置外部 Internet 访问,并且可以从您的私有子网内安全地访问该服务。

设置

Chrony 是另一个 NTP 实施,它比使用 ntpd 的方式更快;它能够更快地同步系统时钟,并且准确度比 ntpd 更高。我推荐使用 Chrony,除非您出于历史原因而需要使用 ntpd。

在 Amazon Linux 上安装和配置 Chrony 非常简单:


sudo sudo yum erase ntp*
sudo yum -y install chrony
sudo service chronyd start

此外,只需添加行 server 169.254.169.123 prefer iburst即可修改您现有的 NTP 配置。

在 Windows 上,您可以在 PowerShell 或命令提示符下运行以下命令:


net stop w32time
w32tm /config /syncfromflags:manual /manualpeerlist:"169.254.169.123"
w32tm /config /reliable:yess
net start w32time

闰秒

时间处理是非常复杂的。科学领域和社会使用国际天体参照系 (ICRF) 来测量时间。ICRF 是使用远距离类星体的长基线干涉测量法、GPS 卫星轨道和月球的激光测距 (非常酷!) 计算得出的。地球的旋转速度不规则会导致 UTC 相对于 ICRF 发生时间漂移。为了解决这一时钟漂移问题,国际地球自转和参考系 (IERS) 偶尔会在 UTC 中引入额外的秒数,使其与实时时间的时间差保持在 0.9 秒内。

闰秒已知会导致应用程序错误,这可能是许多睿智的开发人员和系统管理员所关心的问题。 169.254.169.123 时钟会调整在一段时间后带来的闰秒问题 (通常称为“跳秒”),这使得应用程序可以轻松地处理闰秒。

这种及时的更新将为以前依靠外部时间同步服务的任何人员带来直接利益。

Randall

Amazon GuardDuty – 持续安全监控和威胁检测

您的 IT 基础设施 (AWS 账户和凭证、AWS 资源、来宾操作系统和应用程序) 面临着各色各样、不同规模的威胁!网络世界可能是一个各种危险暗流涌动的地方,我们希望确保您拥有正确的工具和知识并制定适当的远景,保证您的 IT 基础设施安全无虞。

Amazon GuardDuty 应运而生。通过各种公开的和 AWS 生成的数据源,在机器学习的大力支持下,GuardDuty 分析了数十亿个事件,追踪趋势、模式和异常,在其中识别暗藏潜在风险的蛛丝马迹。您可以通过一次单击来启用它,并在数分钟内即可查看前几项结果。

工作原理
GuardDuty 处理能力强大,可使用多个数据流,其中包括多个威胁情报源,保持对恶意 IP 地址和生僻域的了解;更重要的是,它会学习如何准确地识别 AWS 账户中恶意或未经授权的行为。结合从您的 VPC Flow Logs、AWS CloudTrail Event Logs 和 DNS 日志中收集的信息,GuardDuty 能够检测许多不同类型的危险和有害行为,包括探测已知漏洞、端口扫描和探测,以及来自不寻常位置的访问。在 AWS 方面,它会查找可疑的 AWS 账户活动,例如未经授权的部署、异常的 CloudTrail 活动、AWS API 函数访问模式以及超出多个服务限制的尝试。GuardDuty 还将查找与恶意实体或服务进行通信的受损 EC2 实例、数据泄漏尝试以及正在进行加密货币挖矿的实例。

GuardDuty 完全在 AWS 基础设施上运行,不会影响工作负载的性能或可靠性。您不需要安装或管理任何代理、传感器或网络设备。这个纯净的零占用空间模型应该对您的安全团队有很大吸引力,可以让他们不假思索地批准在所有 AWS 账户中使用 GuardDuty

结果按照三个级别 (低、中或高) 之一呈现给您,并附有详细的证据和修复建议。这些结果还作为 Amazon CloudWatch Events 提供;这样您可以使用自己的 AWS Lambda 函数自动修复特定类型的问题。利用这种机制,您还可以轻松地将 GuardDuty 结果推送到事件管理系统 (例如 SplunkSumo LogicPagerDuty) 以及工作流系统 (例如 JIRAServiceNowSlack)。

快速指南
让我们快速看一下。我打开 GuardDuty 控制台,然后单击 Get started

然后,我确认我希望启用 GuardDuty。通过单击“Enable GuardDuty”,授予它相应权限以设置合适的服务相关角色和分析我的日志:

我自己的 AWS 环境无法完全展现其功能,所以我访问 General Settings,然后单击 Generate sample findings 继续。现在我得到一些有趣的结果:

我可以单击某个结果来了解更多信息:

使用放大镜图标,我可以为关联的资源、操作或其他值创建包含或排除筛选条件。我可以筛选与此实例相关的所有结果:

通过添加我的环境特有的可信 IP 地址列表和恶意 IP 地址列表,我可以自定义 GuardDuty

在我的管理员账户中启用 GuardDuty 后,我可以邀请我的其他账户参与:

一旦这些账户决定参与,GuardDuty 将安排将他们的结果与管理员账户共享。

由于时间和篇幅的关系,我只是简要介绍了 GuardDuty 的一些皮毛。您可以免费试用 30 天时间;之后,将根据从您的 VPC Flow、CloudTrail 和 DNS 日志处理的条目数量向您收费。

现已推出
Amazon GuardDuty 现已在以下区域中正式推出:美国东部 (弗吉尼亚北部)美国东部 (俄亥俄)美国西部 (俄勒冈)美国东部 (弗吉尼亚北部)欧洲 (爱尔兰)欧洲 (法兰克福)欧洲 (伦敦)南美洲 (圣保罗)加拿大 (中部)亚太区域 (东京)亚太区域 (首尔)亚太区域 (新加坡)亚太区域 (悉尼)亚太区域 (孟买),您可以立即开始使用!

Jeff

Amazon Translate 简介 – 实时语言翻译

随着互联网的出现,世界变得越来越小。大量的信息可储存并在一眨眼的时间内在不同的文化和国家/地区之间传播,使我们能够相互学习和发展。为了使我们能够利用所有这些强大的知识和数据传输工具,我们必须先突破一些可能阻碍信息共享和交流的语言障碍。

除了使用多种语言之外,我们能够突破这些障碍的方法之一就是利用机器翻译和相关技术进行语言翻译。机器翻译技术起源于计算语言学研究领域,该领域重点在于使用软件将一种语言的文本或语音翻译为另一种语言的文本或语音。机器翻译的概念可以追溯到 1949 年,当时美国科学家和数学家 Warren Weaver 在洛克菲勒基金会的自然科学部的同事的要求下,创建了一份翻译备忘录来分享他的语言翻译理念。自那时起,我们通过使用神经网络来提高翻译方法的效率和质量,在机器语言翻译领域取得了很大的进展。因此,这个领域的技术进步给我们带来令人兴奋的新服务 (我今天要为您介绍),就一点也不奇怪了。

让我们欢迎:Amazon Translate

与我一起欢迎 Amazon Translate 服务加入 Amazon Web Service 系列。Amazon Translate 是一项高质量的神经机器翻译服务,该服务使用高级机器学习技术提供基于文本的内容的快速语言翻译,并支持开发提供多语言用户体验的应用程序。该服务当前为预览版,可在英语和受支持的语言之间翻译文本。

有了 Translate 服务,组织和企业现在能够通过让使用器使用自动化语言翻译以其首选语言访问网站、信息和资源,来更轻松地在其他区域扩展产品和服务。此外,客户可参与多玩家聊天、从使用器论坛收集信息、深入研究教育文件甚至可以获取有关酒店的评论,即使这些资源是用他们无法轻松理解的语言提供的也是如此。

如果您像我一样,您可能好奇 Amazon Translate 如何工作以提供高质量的机器语言翻译。Translate 在深度学习技术的基础上,使用神经网络来表示训练在语言对之间转换的模型。该模型包含一个编码器组件,此组件从源语言中读取句子并创建一个捕获所提供文本的含义的表示。该模型还包含一个解码器组件,此组件将用于将源语言的文本翻译为目标语言的语义表示公式化。此外,该服务使用注意机制从提供的源文本的每个单词构建上下文,以确定哪些单词适用于生成下一目标单词。深度学习中的注意机制的概念意味着,神经网络通过考虑源句子的完整上下文以及它之前生成的一切内容来关注源输入的相关上下文。此过程可帮助创建更准确且通顺的翻译。

Amazon Translate 可与其他 AWS 服务结合使用,来构建稳健的多语言体验或支持语言独立处理。例如,Translate 服务可与下面的一些服务结合使用:

  • Amazon Polly:采用翻译后的文本,提供逼真的语音并允许创建发音的应用程序
  • Amazon S3:提供创建已翻译文档存储库的功能
  • AWS Elasticsearch:使用托管的 Elasticsearch 引擎创建多语言搜索
  • Amazon Lex:使用文本和语音构建翻译聊天机器人
  • AWS Lambda:支持动态网站内容的本地化

这些只是一些例子,有很多可通过将 Translate 与其他 AWS 服务配对来实现的解决方案。下面我们快速浏览控制台并试用该服务的预览版。

在登录控制台后,我看到许多有用的信息。我可以阅读详述 Amazon Translate 服务如何运行的信息 (包括有关该服务及其 API 的示例、指南和资源)。

我非常高兴能够试用这项新服务,而此时正是最佳时机。我将单击 Try Translate 按钮,进入服务的“API 资源管理器”部分。

由于我坚信自己的英语非常好,因此我切换了语言对,将法语 (fr) 设为 Source Language,并将英语 (en) 设为 Target Language。几周前,我在比利时工作时入住了一家酒店,我复制了这家酒店的法语网站上的一些言论。

在将该网站上的法语文本粘贴到 Translate 服务以将其翻译为英文后,我惊喜地发现翻译不仅快而且准确。

总结

我很高兴有机会向您介绍新的神经机器翻译服务 Amazon Translate。利用该服务,您可在英语和各种受支持的语言之间实时翻译文本。该服务设计为直接通过 AWS API、CLI 和/或受支持的开发工具包使用。

立即注册 Amazon Translate 预览版并试用翻译服务。通过查看预览版产品页面或参阅 AWS 文档中的技术指南,了解有关该服务的更多信息。

Tara 

Amazon Transcribe – 大规模实现准确的语音转文本

今天,我们将发布 Amazon Transcribe 的非公开预览版,这是一种自动语音识别 (ASR) 服务,使开发人员可以轻松地为应用程序添加语音转文本功能。随着带宽和连接情况的不断改进,世界上越来越多的数据以视频和音频格式进行存储。人们创建和使用所有这类数据的速度比以往任何时候都快。对于企业来说,拥有从所有这些丰富的多媒体内容中获取价值的一些手段是非常重要的。利用 Amazon Transcribe,您可以通过高效且可扩展的 API 节省成本昂贵的手动转录过程。

您可以通过使用 API 启动一个任务来分析以许多常见格式 (WAV、MP3、Flac 等) 存储在 Amazon Simple Storage Service (S3) 上的音频文件。您将收到每个单词的带时间戳的详细准确的录音文本以及推断的标点符号。在预览过程中,您可以使用异步转录 API 来以英语或西班牙语转录语音。

很多公司正在寻求从其现有的目录及其传入数据中获取价值。通过转录这些存储的媒体,公司可以:

  • 分析客户电话数据
  • 自动创建副标题
  • 基于内容确定广告目标
  • 针对音频和视频内容存档启用丰富的搜索功能

您可以使用 AWS 命令行界面 (CLI)AWS 软件开发工具包 或 Amazon Transcribe 控制台轻松启动转录任务。

Amazon Transcribe 目前提供 3 个 API 操作 (用途不言自明):

  • StartTranscriptionJob
  • GetTranscriptionJob
  • ListTranscriptionJobs

以下是一个简单的 Python 脚本,用于启动一个任务并轮询,直到完成该任务:

from __future__ import print_function
import time
import boto3
transcribe = boto3.client('transcribe')
job_name = "RandallTest1"
job_uri = "https://s3-us-west-2.amazonaws.com/randhunt-transcribe-demos/test.flac"
transcribe.start_transcription_job(
    TranscriptionJobName=job_name,
    Media={'MediaFileUri': job_uri},
    MediaFormat='flac',
    LanguageCode='en-US',
    MediaSampleRateHertz=44100
)
while True:
    status = transcribe.get_transcription_job(TranscriptionJobName=job_name)
    if status['TranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']:
        break
	print("Not ready yet...")
    time.sleep(5)
print(status)

完成的任务的结果将链接到一个以 JSON 格式包含我们的转录的 Amazon Simple Storage Service (S3) 预签名 URL:

{
  "jobName": "RandallTest1",
  "results": {
  	"transcripts": [{"transcript": "Hello World", "confidence": 1}],
    "items": [
      {
      	"start_time": "0.880", "end_time": "1.300",
        "alternatives": [{"confidence": 0.91, "word": "Hello"}]
      },
      {
        "start_time": "1.400", "end_time": "1.620",
        "alternatives": [{"confidence": 0.84, "word": "World"}]
      }
  	]
  },
  "status": "COMPLETED"
}

如您所见,您获得了每个单词的时间戳和置信度得分。

无论是单独使用还是与其他 Amazon AI 服务结合使用,这都是一项功能强大的服务,我迫不及待地想要看到我们的客户会使用这项服务构建什么!

Randall

附言:
您可能已注意到,这非常适合于 AWS Step Functions,我也是这么认为的。以下是我可能使用的工作流程:

Amazon Kinesis Video Streams – 适用于可视应用程序的无服务器视频提取和存储

手机、监控摄像机、婴儿监视器、无人机、网络摄像头、行车记录仪甚至卫星都可以产生高强度、高质量的视频流。家、办公室、工厂、城市、街道和高速公路现在都安装了大量的摄像机。它们将在洪水和其他自然灾害之后调查财产、提高公共安全,让您知道您的孩子安然无恙、通过连续的“失败”视频捕获一次性时刻 (个人爱好)、收集有助于识别和解决交通问题的数据等。

至少可以说,处理大量的视频数据是具有挑战性的。单个或几百万个传入流会突然到达。流包含宝贵的实时数据,无法延迟、暂停或搁置该数据以在更合适的时间处理。在您获得原始数据后,其他的挑战就会出现。可以想到的是存储和加密视频数据并为其编制索引。提取价值 – 深入探究内容、了解内容的含义并加快行动 – 是下一个重要步骤。

新的 Amazon Kinesis Video Streams
今天,我要向您介绍 Amazon Kinesis Video Streams,它是实时流式传输服务的 Amazon Kinesis 系列的最新成员。现在,您可以从数百万台摄像机设备中提取流视频 (或其他时间编码的数据),而不必设置或运行您自己的基础设施。Kinesis Video Streams 接受您的传入流、以加密形式持久存储这些流、创建基于时间的索引并支持创建可视应用程序。您可使用 Amazon Rekognition Video、MXNetTensorFlow OpenCV 或您自己的自定义代码来处理传入流,这样做是为了支持我知道您将创造的出色的新机器人学、分析和使用器应用程序。

我们将为您管理所有基础设施。首先,您使用我们的创建器开发工具包 (设备端) 创建应用程序,然后通过选择的设备向我们发送视频。传入视频将通过安全的 TLS 连接到达,并在使用 AWS Key Management Service (KMS) 密钥加密后以时间索引形式存储。接下来,您通过视频流解析器库 (云端) 使用视频流并从中提取价值。

无论您从一台设备还是数百万台设备发送多少低分辨率或高分辨率的视频,Kinesis Video Streams 都将进行扩展以满足您的需求。我总是不厌其烦地说,您可以专注于您的应用程序和业务。Amazon Kinesis Video Streams 基于您熟悉的 AWS 部件而构建。它将视频存储在 S3 中以实现持久性和节省成本,使用 AWS Identity and Access Management (IAM) 进行访问控制,并且可通过 AWS 管理控制台AWS 命令行界面 (CLI) 和一组 API 进行访问。

Amazon Kinesis Video Streams 概念
下面我们浏览几个概念,然后设置一个流。

创建器 – 创建器是一种将数据放入流中的数据源。它可能是婴儿监视器、无人机上的视频摄像头或一些更异乎寻常的设备:可能是温度传感器或卫星!Amazon Kinesis 视频创建器开发工具包提供了一组功能,可使建立连接和流式传输视频变得轻松。

– 利用流,您可传输实时视频数据,有选择性地存储视频数据并使视频数据能够实时使用或批量使用。流还可包含其他类型的时间编码的数据 (包括音频、雷达、激光雷达和传感器读数)。大多数情况下,创建器和流之间存在一对一映射。多个独立的应用程序可使用和处理来自单个流的数据。

片段和帧 – 片段是流中的一组有时限的帧。

使用器 – 使用器从流中获取数据 (片段或帧) 并处理、分析或显示数据。使用器可实时或事后运行,并基于视频流解析器库而构建。

使用 Amazon Kinesis Video Streams
如我之前提到,创建器和流之间存在一对一映射。大多数情况下,每个创建器实例将使用 Kinesis Video Streams API 创建一个唯一的流。但是,如果您想进行测试或演示,或者您需要固定数量的小型流,则可手动创建流。

为了手动创建流,我打开 Kinesis Video Streams 控制台并单击 Create Kinesis video stream

我输入我的流的名称并单击 Create stream

如果我要自定义我的流,我可取消选中 Use default settings (稍后可以更改大多数设置):

我的流已准备就绪,可立即使用。该控制台将在我开始流式传输视频后立即显示视频:

Kinesis 团队与我分享了此屏幕;我没有时间实地考察。这能让我成为猎豹吗?

针对 Amazon Kinesis Video Streams 进行开发
下一步是使用创建器开发工具包来构建创建器应用程序。该应用程序在设备上或场外运行,负责创建流并通过调用 PutMedia 函数将片段流 (通常,每个片段流表示 2 到 10 秒时间的视频) 发布到 流。

使用器端将调用 GetMediaGetMediaFromFragmentList 函数来访问流中的 Matroska (MKV) 容器格式的内容,并使用包含的视频流解析器库提取所需内容。 GetMedia 旨在用于延迟非常低的持续流式传输; GetMediaFromFragment 列表是面向批处理的,并且允许有选择性地处理。

现在提供
Amazon Kinesis Video Streams 已在美国东部 (弗吉尼亚北部)美国西部 (俄勒冈)欧洲 (爱尔兰)欧洲 (法兰克福)亚太地区 (东京) 区域提供,您可立即使用它开始构建您自己的可视应用程序。

定价基于三个因素:产生的视频量、使用的视频量和存储的视频量。

Jeff

Amazon Comprehend – 不断受训的自然语言处理

多年前,我在美国马里兰大学的计算机科学图书馆里闲逛时找到一本名为《计算机不能做什么》(What Computers Can’t Do)的又脏又旧的书,旁边是其续本《计算机仍不能做什么》(What Computers Still Can’t Do)。第二本书更加厚,这让我意识到计算机科学是值得研究的领域。在准备撰写本文时,我找到了第一本书的归档副本并发现了一条有趣的言论:

由于人类对用自然语言编写的句子的使用和理解需要句子的上下文相关使用的隐性知识,因此,Turing 认为,使计算机了解和转换自然语言的唯一方式可能是对计算机进行编程以了解这个世界。

这个言论非常有先见之明,并且我想告诉您的是 Amazon Comprehend 这项新服务实际上知道 (并且非常乐意分享) 有关世界的许多知识!

Amazon Comprehend 简介
Amazon Comprehend 将分析文本并告知您它找到的结果,从语言 (从南非荷兰语到约鲁巴语,这之间有 98 种以上的语言) 开始。它可识别不同类型的实体 (人、位置、品牌、产品等)、关键短语、情绪 (积极、消极、复杂或中性) 并从采用英语或西班牙语的所有文本中提取关键短语。最后,Comprehend 的主题建模服务可从大型文档集中提取主题以进行分析或基于主题的分组。

前 4 项函数 (语言检测、实体分类、情绪分析和关键短语提取) 专为交互使用而设计,可在几百毫秒内进行响应。主题提取适用于基于作业的模型,其响应与集合的大小成比例。

Comprehend 是一项不断受训的自然语言处理 (NLP) 服务。我们的工程师和数据科学家组成的团队将继续扩展和完善培训数据,旨在使服务的准确度更高且应用更广泛。

探究 Amazon Comprehend
您可使用控制台探究 Amazon Comprehend,然后构建利用 Comprehend API 的应用程序。我将使用我的有关 Direct Connect 的最新文章中的开头段落来练习 Amazon Comprehend API 资源管理器。我将文本粘贴到框中并单击 Analyze

Comprehend 将快速处理文本,突出显示它识别的实体 (如您在前面所见),并通过一次单击使所有其他信息可用:

让我们看看结果的每个部分。Comprehend 可在我提供的文本中检测许多类别的实体:

下面是在我的文本中找到的所有实体 (它们还可以列表或原始 JSON 形式显示):

下面是第一个关键短语 (其余的关键短语可通过单击 Show all 显示):

语言和情绪是简单而直接的:

嗯,这些是交互式函数。让我们了解一下批处理函数!我已有一个包含我之前的几千篇博客文章的 S3 存储桶,一个用于我的输出的空存储桶以及一个允许 Comprehend 访问这两个存储桶的 IAM 角色。我输入它并单击 Create job 以开始使用:

我可在控制台中查看我最近的作业:

作业完成后,输出将显示在我的存储桶中:

在演示中,我可下载数据并快速浏览 (大多数情况下,我会将数据馈送到可视化或分析工具中):

$ aws s3 ls s3://comp-out/348414629041-284ed5bdd23471b8539ed5db2e6ae1a7-1511638148578/output/
2017-11-25 19:45:09     105308 output.tar.gz
$ aws s3 cp s3://comp-out/348414629041-284ed5bdd23471b8539ed5db2e6ae1a7-1511638148578/output/output.tar.gz .
download: s3://comp-out/348414629041-284ed5bdd23471b8539ed5db2e6ae1a7-1511638148578/output/output.tar.gz to ./output.tar.gz
$ gzip -d output.tar.gz
$ tar xf output.tar
$ ls -l
total 1020
-rw-r--r-- 1 ec2-user ec2-user 495454 Nov 25 19:45 doc-topics.csv
-rw-rw-r-- 1 ec2-user ec2-user 522240 Nov 25 19:45 output.tar
-rw-r--r-- 1 ec2-user ec2-user  20564 Nov 25 19:45 topic-terms.csv
$

topic-terms.csv 文件将收集通用主题编号 (第一列) 内的相关术语。以下是前 25 行:

topic,term,weight
000,aw,0.0926182
000,week,0.0326755
000,announce,0.0268909
000,blog,0.0206818
000,happen,0.0143501
000,land,0.0140561
000,quick,0.0143148
000,stay,0.014145
000,tune,0.0140727
000,monday,0.0125666
001,cloud,0.0521465
001,quot,0.0292118
001,compute,0.0164334
001,aw,0.0245587
001,service,0.018017
001,web,0.0133253
001,video,0.00990734
001,security,0.00810732
001,enterprise,0.00626157
001,event,0.00566274
002,storage,0.0485621
002,datar,0.0279634
002,gateway,0.015391
002,s3,0.0218211

随后,doc-topics.csv 文件将指示哪些文件引用了第一个文件中的主题。同样地,下面是前 25 行:

docname,topic,proportion
calillona_brows.html,015,0.577179
calillona_brows.html,062,0.129035
calillona_brows.html,003,0.128233
calillona_brows.html,071,0.125666
calillona_brows.html,076,0.039886
amazon-rds-now-supports-sql-server-2012.html,003,0.851638
amazon-rds-now-supports-sql-server-2012.html,059,0.061293
amazon-rds-now-supports-sql-server-2012.html,032,0.050921
amazon-rds-now-supports-sql-server-2012.html,063,0.036147
amazon-rds-support-for-ssl-connections.html,048,0.373476
amazon-rds-support-for-ssl-connections.html,005,0.197734
amazon-rds-support-for-ssl-connections.html,003,0.148681
amazon-rds-support-for-ssl-connections.html,032,0.113638
amazon-rds-support-for-ssl-connections.html,041,0.100379
amazon-rds-support-for-ssl-connections.html,004,0.066092
zipkeys_simplif.html,037,1.0
cover_art_appli.html,093,1.0
reverse-dns-for-ec2s-elastic-ip-addresses.html,040,0.359862
reverse-dns-for-ec2s-elastic-ip-addresses.html,048,0.254676
reverse-dns-for-ec2s-elastic-ip-addresses.html,042,0.237326
reverse-dns-for-ec2s-elastic-ip-addresses.html,056,0.085849
reverse-dns-for-ec2s-elastic-ip-addresses.html,020,0.062287
coming-soon-oracle-database-11g-on-amazon-rds-1.html,063,0.368438
coming-soon-oracle-database-11g-on-amazon-rds-1.html,041,0.193081

使用 Amazon Comprehend 构建应用程序
大多数情况下,您将使用 Amazon Comprehend API 将自然语言处理添加到您自己的应用程序。下面是委托人交互式函数:

DetectDominantLanguage – 检测文本的主导语言。其他一些函数需要您提供此信息,因此请先调用此函数。

DetectEntities – 检测文本中的实体并以 JSON 形式返回这些实体。

DetectKeyPhrases – 检测文本中的关键短语并以 JSON 形式返回这些短语。

DetectSentiment – 检测文本中的情绪并返回 POSITIVE、NEGATIVE、NEUTRAL 或 MIXED。

提供了这些函数的 4 个变体 (每个变体的前缀均为 批处理),它们可并行处理最多 25 个文档。您可使用它们构建高吞吐量的数据处理管道。

下面是可用于创建和管理主题检测作业的函数:

StartTopicsDetectionJob – 创建作业并开始运行它。

ListTopicsDetectionJobs – 获取当前和最新作业的列表。

DescribeTopicsDetectionJob – 获取有关单个作业的详细信息。

现在提供
Amazon Comprehend 现已推出,您可立即使用它开始构建应用程序!

Jeff

新的 AWS IoT 设备管理

AWS IoTAWS Greengrass 为您提供适用于您的 IoT 设备和应用程序的坚实基础和编程环境。

IoT 的性质意味着大规模设备部署通常包含在数百或数千个位置部署的数百万或甚至数千万台设备。在这样的规模下,不可能单独处理每台设备。您需要能够以批量、统一的方式设置、监控、更新以及最终停用设备,同时还保留适应不同的部署配置、设备型号等的灵活性。

新的 AWS IoT 设备管理
今天,我们将发布 AWS IoT 设备管理以帮助解决这一难题。它将帮助您完成设备生命周期中从生产到停用的每个阶段。以下是您将获得的内容:

装载 – 从原始生产状态的设备开始,您可以控制预置工作流程。您可以使用 IoT 设备管理模板,通过单击几下鼠标来快速装载整个设备组。这些模板可能包含有关设备证书和访问策略的信息。

组织 – 为了处理大量设备,AWS IoT 设备管理扩展了现有 IoT 设备注册表,并允许您创建设备组的层次模型以及基于层次设置策略。您可以深入到层次结构中查找各个设备。您还可以根据属性 (如设备类型或固件版本) 查询设备组。

监控 – 来自设备的遥测用于收集实时连接、身份验证和状态指标,这些指标将发布到 Amazon CloudWatch。您可以检查这些指标并找到异常值以便进一步调查。利用 IoT 设备管理,您可以为每个设备组配置日志级别,还可以发布注册表和任务的更改事件以用于监控目的。

远程管理AWS IoT 设备管理让您可以远程管理设备。您可以为这些设备推送新的软件和固件、重置工厂默认值、重启以及按照所需的速度设置批量更新。

探索 AWS IoT 设备管理
AWS IoT 设备管理控制台演示并指出如何访问该服务的每项功能:

我已经有大量设备 (压力计):

这些仪表是使用新的模板驱动的批量注册功能创建的。以下是我创建模板的方式:

这些仪表将分为不同的组 (在此示例中按美国的州划分):

以下是位于科罗拉多州的仪表:

AWS IoT 组策略允许您控制所有组成员对特定 IoT 资源和操作的访问。这些策略的构建方式与 IAM 策略非常相似,而且可在控制台中进行创建:

任务用于选择性地更新设备。以下是我创建一个任务的方式:

正如上述任务类型所示,任务可一次或连续运行。以下是我选择要更新的设备的方式:

我可以创建利用 Lambda 函数的自定义授权方:

在这篇文章中,我向您介绍了 AWS IoT 设备管理 的一个中型子集。请自行查阅以获取更多信息!

Jeff