亚马逊AWS官方博客
Category: Analytics
使用 AWS SCT 将大型数据仓库从 Greenplum 迁移到 Amazon Redshift – 第 1 部分
数据仓库收集和整合组织内各种来源的数据。它被用作分析和商业智能的集中式数据存储库。 使用本地旧版数据仓库时,扩 […]
使用 AWS SCT 将大型数据仓库从 Greenplum 迁移到 Amazon Redshift – 第 2 部分
在这个由多部分组成的系列的第二篇文章中,我们将分享选择最佳 Amazon Redshift 集群、数据架构、转 […]
通过 AWS DMS 将更改数据流式传输到 Amazon Kinesis Data Streams
在本文中,我们将讨论如何使用 AWS Database Migration Service (AWS DMS) […]
使用 Amazon Athena 参数化查询提供数据即服务
Amazon Athena 目前为您提供使用参数化查询的更多灵活性,我们建议您将其用作以后 Athena […]
使用新的 AWS Glue DynamoDB Export 连接器加速 AWS Glue 作业中的 Amazon DynamoDB 数据访问评论源
现代数据架构鼓励数据湖、数据仓库和专用数据存储的集成,从而实现统一治理和轻松数据移动。借助 AWS 上的现代数 […]
Amazon EMR实战心得浅谈
EMR实战心得浅谈
利用Apache Iceberg在亚马逊云上构建准实时数仓
大数据处理技术现今已广泛应用于各个行业,为业务解决海量存储和海量分析的需求,在构建数据湖的过程中遇到的 1.T+0 的数据落地和处理问题 2.数据修正的成本问题,aws 的emr s3+iceberg能够很好解决。
通过 Amazon Connect 与医生轻松沟通并简化患者的计费
借助 Amazon Connect,公司可以轻松实现与其联络中心的自定义集成,并能够构建针对其使用场景量身定制的远程医疗解决方案。
使用Athena (Presto) 分析本地 Oracle 数据库导出的数据
在企业环境下,混合云架构是一种常见的架构,理想环境下摄取本地Oracle数据库的数据是通过Apache Sqoop或DMS使用网络专线将数据迁移到s3存储桶,进行数据分析。但受本地条件限制,很多用户是用Oracle Datapump或者Exp/Imp将数据导出后,再将本地数据传输到s3存储桶。本文通过阐述使用上述两种不同的工具,介绍如何将数据导入s3存储桶,使用Athena做数据分析。
通过 AWS Managed Microsoft Active Directory 运行混合 Active Directory 服务
企业客户通常需要构建混合 Active Directory 解决方案,以支持在现有本地企业数据中心和 AWS Cloud 中运行的应用程序。这样做的理由有很多,例如,保持与本地旧版应用程序的集成、保持对基础设施资源的控制以及满足特定的行业合规性要求。