亚马逊AWS官方博客
使用 WorkSpaces Cost Optimizer 自动优化 WorkSpaces 使用成本
Amazon WorkSpaces是在AWS上运行的完全托管、安全的桌面即服务(DaaS)解决方案。借助Amazon WorkSpaces,您可以为团队成员轻松配置云桌面,使他们可以随时随地访问所需的文档、应用程序和资源。为了帮助不便预测WorkSpace使用模式的客户监控WorkSpaces使用情况并优化成本,AWS提供了Amazon WorkSpaces Cost Optimizer,来分析您所有WorkSpace的使用情况数据,并自动将WorkSpace转换为最具成本效益的计费选项(每小时或每月一次)。本文将向您介绍如何在AWS中国区部署WorkSpaces成本优化方案,以及这个方案的工作原理。
使用 Palo Alto Networks 的 Prisma Cloud 计算版本扫描 AWS 镜像仓库ECR
目前企业容器的使用越来越普遍,根据Gartner的统计,目前已经有一半的企业已经使用了容器部署。而且这个增长的趋势也会越来越快。其中容器的镜像仓库为存储和分发应用镜像提供了便捷、集中化的来源。当今我们的企业和组织可以很方便地将数以万计的镜像存储在镜像仓库中,比如说我们AWS的镜像仓库ECR (Elastic Container Registry)。
失去了SDK,云计算将会怎样
本文主要关于如何使用Python或者脚本开发 Signature V4 的API 调用。
开始使用开源 Web 会议解决方案 Jitsi
在这个前所未有的时代,世界各地的团队都在寻找可以帮助他们在线工作和协作的解决方案。客户面临各种各样的选择,如果您也在寻觅,本文将为您提供一些选项,帮您做出选择。
在家办公? 看看 AWS 能为您提供的帮助
现在,许多城市和国家/地区的人们都被要求在家办公或学习,而我们相信,AWS 有些服务可以帮助大家更轻松地从办公室办公或教室学习过渡到在家办公或学习。
AWS Glue 扩展 Apache Spark 作业以及数据分区的最佳实践
本博文讨论管理数据处理作业扩展的两项关键的 AWS Glue 功能,还将介绍在 AWS Glue中,针对采用 Amazon Kinesis Data Firehose 的流应用程序中提取的大量小文件,如何来扩展 Apache Spark 应用程序。此外,文章将介绍对 AWS Glue 作业如何利用在 Amazon S3 上大型数据集的分区结构,来缩短 Apache Spark 应用程序的执行时间。
在最大程度上优化 Amazon Redshift 上的数据提取与报告性能
本文提供了从 S3 将大型数据卷加载到 Amazon Redshift 的方法,并运用有效的分发技术优化在相对小型的 Amazon Redshift 集群上运行报告查询的性能。
使用 Amazon EC2 Spot 实例和 Amazon EMR 运行 Apache Spark 应用程序的最佳实践
在本博客中,我们将重点讨论如何通过使用 Spot 实例在 Amazon EMR 上实现成本优化并高效运行 Spark 应用程序。我们提供了几个最佳实践建议,用于在使用Spot实例过程中提高Spark应用程序的容错能力。实施这些最佳实践不会对Spark应用程序的可用性,性能和执行时间产生大的影响。
使用无服务器框架和 Tekton 部署 AWS Lambda 函数
本文是 TriggerMesh 联合创始人 Sebastien Goasguen 的一篇特约文章。本文将解释如何借助 Tekton 和无服务器框架实现 AWS Lambda 函数的自动化部署。
使用 Amazon Redshift 物化视图,加快查询执行速度
今天我们介绍用于 Amazon Redshift 的物化视图。物化视图 (MV) 是一个包含查询数据的数据库对象。物化视图像是视图的缓存,它不是在运行时构建和计算数据集,而是在创建的时候预先计算、存储和优化数据访问。数据如同常规表数据一样,随时可供查询使用。