亚马逊AWS官方博客

大多数 Alexa 现在在更快、更经济高效的 Amazon EC2 Inf1 实例上运行

今天,我们宣布,Amazon Alexa 团队已将绝大多数基于 GPU 的机器学习推理工作负载迁移到由 AWS Inferentia 提供支持的 Amazon Elastic Compute Cloud (EC2) Inf1 实例。这样一来,执行 Alexa 的文本到语音转换工作负载时,与基于 GPU 的实例相比,端到端延迟降低了 25%,成本降低了 30%。较低的延迟使 Alexa 工程师能够利用更复杂的算法进行创新,并改善客户的整体 Alexa 体验。

利用 AWS Transit Gateway 和 SD-WAN 优化企业全球组网

我们的客户可以充分利用 AWS 全球网络资源构建属于自己的私有网络,服务业务部门走向全球。利用 AWS Direct Connect Gateway、Transit Gateway 等产品能实现多 region 跨账号复杂组网,架构也具有极高的可用性和灵活性,结合 SD-WAN 广域网产品可以充分利用互联网带宽,满足更多业务精细化管理的需求。

在 Amazon SageMaker Autopilot 推理管道中部署您的自有数据处理代码

在本文中,我们演示了如何使用您自己的数据处理代码构建起自定义Autopilot推理管道。我们首先训练出特征选择模型,而后使用经过训练的特征选择模型对原始数据进行转换。接下来,我们启动Amazon SageMaker Autopilot作业,针对我们的回归问题自动训练并优化出最佳机器学习模型。我们还构建起一套将特征选择与Autopilot模型加以结合的推理管道。

在 Kubernetes 上优化 Spark 性能

要保证Spark工作负载的良好运行,我们必须在计算、网络与存储资源的I/O中做出权衡与优化。客户永远希望以最佳性能与最低成本的前提下运行此类工作负载。为了满足需求,Kubernetes提供多种调整选项,而本文涵盖了其中几项值得关注的优化技巧。希望大家能够由此得到启发,灵活运用最佳实践以改善Spark性能。如果大家还有更多意见或者建议,也请在eks-spark-benchmark GitHub repo上创建问题留下您的反馈。

加快创新步伐:F1 如何运用 AWS 上的无服务器机器学习提升洞见能力

2020年,F1方程式赛车迎来了自己的70岁生日,同时也是世界上将运动技能与工程技术实力全面结合的极少数顶尖运动之一。技术一直在F1中扮演着核心角色,规则与工具的演变也早已融入F1运动的血液当中。正是这种不断进取、不断探索的精神,令全球赛车迷们痴狂不已,关注自己热爱的车手与车队如何以十分之一秒为单位超越对手、夺取胜利。

在 AWS 上构建云原生机器学习流水线

近两年,机器学习已经渗透到各行各业,各种人工智能和机器学习的应用蓬勃发展,在其背后实际上会有一个完善的机器学习平台和流水线来支撑模型的开发、测试和迭代。但是这样一个系统性的平台,往往需要通过整合基础架构层和平台层来完成。在本篇Blog中,我们将展现如果通过AWS的服务构建云原生的机器学习流水线。

AWS Gateway Load Balancer 简介 – 合作伙伴设备的轻松部署、可扩展性和高可用性

去年,我们启动了 Virtual Private Cloud (VPC) 入口路由,以允许将往返于互联网网关 (IGW) 或虚拟私有网关 (VGW) 的所有传入和传出流量路由至特定 Amazon Elastic Compute Cloud (EC2) 实例的弹性网络接口。借助 VPC 入口路由,您现在可以配置 VPC 将所有流量发送到一个 EC2 实例,通常来说,该实例运行网络安全工具来检测或阻止可疑网络流量,或者在将流量中继到其他 EC2 实例之前执行任何其他网络流量检测。