亚马逊AWS官方博客
使用 Dynamodump 简化 Amazon DynamoDB 跨账号迁移
现有的 Amazon DynamoDB 的搬迁方式都需要满足一个共同的前提:目标账号下的 Amazon DynamoDB 里面手动创建目标表格和元数据,然后才能使用 Amazon Glue 等工具将数据导入。当客户有成百上千张表格需要搬迁的时候,手动创建目标表格不但费时费力,还容易出现错误。如果源表里面还有二级索引,将会给搬迁造成更大的困难。本文将演示如何使用 Dynamodump 这个工具将 Amazon DynamoDB 表格的元数据(attributes/secondary index)轻松搬迁。
通过 Lambda edge/Dynamodb 实现网站的访问限速
如何精细化/细粒度地设置网站的访问限速需求,实现对低频 CC 攻击者的阻拦。
AWS 成本管理与优化之五:成本的治理和预警
在本系列成本管理和优化的文章中,我们以 TAM 的视角,详细介绍 TAM 如何协助客户在 AWS 上实现高效的成本管理和优化。
AWS 成本管理与优化之四:成本的可观察性
在本系列成本管理和优化的文章中,我们以 TAM 的视角,详细介绍 TAM 如何协助客户在 AWS 上实现高效的成本管理和优化。
使用 DolphinScheduler 进行 EMR 任务调度
此篇文章将介绍 DolphinScheduler 安装部署,以及在 DolphinScheduler 中进行作业编排,以使用 python 脚本的方式执行 EMR 的任务调度,包括创建集群、集群状态检查、提交 EMR Step 作业、EMR Step 作业状态检查,所有作业完成后终止集群。
基于 Amazon SageMaker 优化 Alpaca-lora 模型
如果要采用 stanford_alpaca 对 70 亿参数的 LLAMA 进行微调,对于机器的配置要求较高,不利于在行业内大规模使用。为了解决这个痛点,开源项目 alpaca_lora(https://github.com/tloen/alpaca-lora)应运而生。
大规模 DynamoDB 表数据跨账号迁移指南
本文主要介绍在大规模 DynamoDB 表数据跨账号迁移场景下,如何通过全量+增量的方式进行数据迁移,以满足对于停机窗口要求较短的需求。
在 AWS Nitro Enclaves 中运行传统 Web 应用迁移实践
本文介绍利用 vsock proxy 方案,让原有的传统服务器应用,直接运行在 Enclaves 内。
通过 Amazon Rekognition Face Liveness,进行用户真人检测、防止欺诈攻击
本文介绍了 Amazon Rekognition 中的新功能 Face Liveness 如何进行用户真人检测并防止欺诈攻击。您可在美国东部(弗吉尼亚州北部)、美国西部(俄勒冈州)、欧洲(爱尔兰)、亚太地区(孟买)和亚太地区(东京)地区使用 Amazon Rekognition Face Liveness 功能。
SHAREit 大数据平台 DataCake 在 Spark on EKS 的实践
SHAREit 自研一站式、自助化大数据平台 DataCake,采用 Spark on EKS 调度 Spot 实例来进行数据 Batch 计算。我们通过自研的 Spark PVC Reuse 方案,最大限度地降低 Spot 回收的影响,任务平均执行时间下降 41%,整体成本降低了 39%。