亚马逊AWS官方博客

Tag: S3

利用DynamoDB和S3结合gzip压缩,最大化存储玩家数据

本文主要讲述在游戏场景下,根据DynamoDB的限制),在限制下尽可能存储更多的数据和当存储量超出限制时,扩展存储的最大化利用空间。重点描述如何利用DynamoDB+S3保存玩家存档中的大数据量属性,避免数据存在S3上后,在数据写入S3的时发生脏读的情况。同时利用gzip压缩减少数据大小,减少IO的开销提升性能。

SAP on Amazon部署必知必会

本博客从SAP on Amazon的部署选项,包括内存、CPU、存储、网络、操作系统以及高可用、灾备、备份和恢复、监控、部署和迁移等的介绍,让您如何把SAP系统部署迁移到Amazon。

通过 S3 Batch Operations (批量操作)功能轻松处理海量对象

S3 Batch Operations(批量操作) 可以简单快捷的对S3存储桶中数百万甚至数十亿对象进行批量操作。借助S3批量操作功能,我们可以方便地对海量对象进行批量操作,而无须自行编码去构建一个作业管理平台。S3批量操作目前支持标签替换、ACL替换、对象复制、Glacier/Deep Archive数据还原以及触发Lambda函数。通过Lambda函数我们可以自行编码相应的处理逻辑,从而方便地扩展S3批量操作功能。这个博客会以批量替换对象标签为例,详细演示如何在S3控制台上进行S3 Batch的配置。