Amazon Redshift는 빠르고 쉽고 안전한 대규모 클라우드 데이터 웨어하우징을 통해 인사이트 획득 시간을 단축합니다.

기능 및 장점

Amazon은 고객 사용 사례 및 피드백을 토대로 매년 수백 개의 기능과 제품 개선 사항을 릴리스합니다. 새로운 기능에 대해 자세히 알아보기

모든 데이터 분석

운영 데이터베이스, 데이터 레이크, 데이터 웨어하우스 및 수천 개의 타사 데이터 세트 전반에서 복잡하고 확장된 데이터에 대해 실시간 예측 분석을 실행하여 통합적 인사이트를 얻으세요.

연합 쿼리: Amazon Redshift의 새로운 연합 쿼리 기능을 사용하면 운영하는 관계형 데이터베이스에 연결할 수 있습니다. 하나 이상의 Amazon Relational Database Service(RDS), Aurora PostgreSQL, RDS MySQL 및 Aurora MySQL 데이터베이스에서 라이브 데이터를 쿼리하면 데이터를 이동할 필요 없이 전체 비즈니스 운영에 대한 가시성을 즉각적으로 얻을 수 있습니다. Redshift 데이터 웨어하우스의 데이터, 데이터 레이크의 데이터, 운영 스토어의 데이터를 결합하여 더 나은 의사 결정을 내릴 수 있습니다. Amazon Redshift는 네트워크를 통한 데이터 이동을 줄일 수 있도록 최적화를 제공하고 고성능 쿼리를 위해 대규모 병렬 데이터 처리로 이를 보완합니다. 자세히 알아보세요.

데이터 공유: Amazon Redshift 데이터 공유를 사용하면 Amazon Redshift의 사용 편의성, 성능 및 비용 이점을 단일 클러스터에서 다중 클러스터 배포로 확장하는 동시에 데이터 공유 기능을 사용할 수 있습니다. 데이터 공유를 사용하면 데이터를 복사하거나 이동할 필요 없이 Redshift 클러스터 전체에서 즉각적이고 세분화된 빠른 데이터 액세스를 수행할 수 있습니다. 데이터 공유는 데이터에 대한 실시간 액세스를 제공하므로 데이터 웨어하우스에서 업데이트될 때 항상 일관된 최신 정보가 표시됩니다. 동일하거나 서로 다른 AWS 계정과 리전 전반에서 Amazon Redshift 클러스터와 실시간 데이터를 안전하게 공유할 수 있습니다. 자세히 알아보세요.

Amazon Redshift용 AWS Data Exchange: 데이터를 추출, 전환, 적재(ETL)하지 않고 자체 Redshift 클러스터에서 Amazon Redshift 데이터 세트를 쿼리합니다. AWS Data Exchange에서 Redshift 클라우드 데이터 웨어하우스 제품을 구독할 수 있습니다. 공급자가 업데이트를 실시하는 즉시 변경 사항이 구독자에게 표시됩니다. 본인이 데이터 공급자인 경우 구독이 시작될 때 액세스 권한이 자동으로 부여되고 구독이 종료될 때 해지되며, 결제 기한이 되면 자동으로 인보이스가 생성되고 결제가 AWS를 통해 수집됩니다. 하나의 구독으로 플랫 파일, Amazon Redshift의 데이터, API를 통해 제공된 데이터에 대한 액세스를 모두 허가할 수 있습니다. 자세히 알아보세요.

Redshift ML: Redshift ML은 데이터 분석가, 데이터 사이언티스트, BI 전문가, 개발자가 SQL을 사용하여 Amazon SageMaker 모델을 쉽게 생성하고 훈련하며 배포할 수 있도록 지원합니다. Redshift ML을 통해 여러분은 Amazon Redshift에서 SQL 문을 사용하여 데이터에 대한 Amazon SageMaker 모델을 생성하고 훈련한 후, 쿼리 및 보고서에서 직접 이탈 탐지, 재무 예측, 개인화 및 위험 점수 지정과 같은 예측에 이러한 모델을 사용할 수 있습니다. 자세히 알아보세요.

Apache Spark용 Amazon Redshift 통합: 이 기능을 사용하면 Amazon Redshift 데이터에서 Apache Spark 애플리케이션을 쉽게 구축하고 실행할 수 있으므로 고객이 더 광범위한 분석 및 기계 학습 솔루션 세트를 위한 데이터 웨어하우스를 열 수 있습니다. Amazon EMR, AWS Glue, Amazon Athena Spark, Amazon SageMaker 등의 AWS 분석 및 ML 서비스를 사용하는 개발자는 Apache Spark용 Amazon Redshift 통합를 통해 몇 초 만에 시작할 수 있으며 애플리케이션 성능이나 데이터의 트랜잭션 일관성을 유지하면서 Amazon Redshift 데이터 웨어하우스에서 데이터 읽기와 쓰기를 수행하는 Apache Spark 애플리케이션을 손쉽게 구축할 수 있습니다. 또한 Apache Spark용 Amazon Redshift 통합을 Amazon Redshift와 함께 사용하면 Apache Spark 애플리케이션의 성능 문제를 더 쉽게 모니터링하고 해결할 수 있습니다.

Amazon Redshift와 Amazon Aurora 제로 ETL 통합: Amazon Aurora와 Amazon Redshift 간의 코드 없는 통합으로 이를 통해 Amazon Aurora 고객은 Amazon Redshift를 사용하여 페타바이트 규모의 트랜잭션 데이터에 대한 거의 실시간에 가까운 분석과 기계 학습을 수행할 수 있습니다. 트랜잭션 데이터가 Amazon Aurora에 기록된 후 몇 초 내에 Amazon Redshift와 Amazon Aurora 제로 ETL 통합을 통해 Amazon Redshift에서 데이터를 원활하게 사용할 수 있으므로 고객이 추출, 전환, 적재(ETL) 작업을 수행하는 복잡한 데이터 파이프라인을 구축하고 유지할 필요가 없습니다. 이러한 통합을 통해 운영 부담과 비용이 줄고 고객은 애플리케이션 개선에 집중할 수 있습니다. 트랜잭션 데이터에 거의 실시간으로 액세스할 수 있으므로 고객은 Amazon Redshift의 분석 및 기계 학습 기능을 활용하여 트랜잭션 및 기타 데이터에서 인사이트를 얻어 중요하고 시간에 민감한 이벤트에 효과적으로 대응할 수 있습니다.

스트리밍 수집: 데이터 엔지니어, 데이터 분석가 및 빅 데이터 개발자는 실시간 스트리밍 엔진을 사용하여 고객의 응답성을 개선하고 있습니다. Amazon Redshift의 새로운 스트리밍 수집 기능을 사용하면 SQL(Structured Query Language)을 사용하여 Amazon Kinesis Data Streams 및 Amazon Managed Streaming for Apache Kafka(MSK)에 연결하고 데이터를 직접 수집할 수 있습니다. 또한 Amazon Redshift Streaming Incutation을 사용하면 스트림 위에 구체화된 뷰를 직접 생성할 수 있으므로 다운스트림 파이프라인을 쉽게 생성하고 관리할 수 있습니다. 구체화된 뷰에 SQL 변환이 ELT 파이프라인의 일부로 포함될 수도 있습니다. 정의된 구체화된 뷰를 수동으로 새로 고쳐 최신 스트리밍 데이터를 쿼리할 수 있습니다. 이러한 방식으로 추가 비용 없이 익숙한 기존 도구를 사용하여 스트리밍 데이터의 다운스트림 처리 및 변환을 수행할 수 있습니다.

데이터 레이크에서 또는 데이터 레이크로 데이터를 쿼리하거나 내보내기: 다른 어떤 클라우드 데이터 웨어하우스보다도 더 간편하게 오픈 형식으로 데이터를 쿼리하고, 데이터를 다시 데이터 레이크에 쓸 수 있습니다. 익숙한 ANSI SQL을 사용하여 Parquet, ORC, JSON, Avro, CSV 등의 다양한 오픈 파일 형식을 Amazon S3에서 직접 쿼리할 수 있습니다. 데이터 레이크로 데이터를 내보낼 때는 SQL 코드에서 Amazon Redshift UNLOAD 명령을 사용하고 Parquet를 파일 형식으로 지정하기만 하면 Amazon Redshift가 데이터 형식 지정 및 S3로 데이터 이동을 자동으로 처리합니다. 이와 같은 기능은 자주 액세스하는 고도의 정형 데이터와 반정형 데이터를 Amazon Redshift 데이터 웨어하우스에 저장하고 엑사바이트에 달하는 정형 데이터, 반정형 데이터 및 비정형 데이터를 Amazon S3에 보관할 수 있는 유연성을 제공합니다. 데이터를 Amazon Redshift에서 데이터 레이크로 다시 내보내면 Amazon Athena, Amazon EMR 및 Amazon SageMaker와 같은 AWS 서비스를 활용해 데이터를 보다 면밀하게 분석할 수 있습니다.

AWS 서비스 통합: AWS 서비스, 데이터베이스 및 기계 학습 서비스와의 기본 통합을 통해 마찰 없이 전체 분석 워크플로를 더 쉽게 처리할 수 있습니다. 예를 들어, AWS Lake Formation은 안전한 데이터 레이크를 며칠 만에 손쉽게 설정할 수 있도록 지원하는 서비스입니다. AWS Glue는 데이터를 추출하고 변환하여 Amazon Redshift에 로드(ETL)할 수 있습니다. Amazon Kinesis Data Firehose는 거의 실시간에 가까운 분석을 위해 스트리밍 데이터를 캡처하고 변환하여 Amazon Redshift에 로드할 수 있는 가장 쉬운 방법입니다. Amazon EMR을 사용하면 Hadoop/Spark를 사용하여 데이터를 처리하고 BI 및 분석을 위해 출력을 Amazon Redshift에 로드할 수 있습니다. Amazon QuickSight는 Redshift 데이터에 대한 보고서, 시각화 및 대시보드를 생성하는 데 사용할 수 있는 첫 번째 BI 서비스로, 세션당 요금제로 이용 가능합니다. Amazon Redshift를 사용하여 Amazon SageMaker로 기계 학습(ML) 워크로드를 실행할 데이터를 준비할 수 있습니다. AWS Schema Conversion Tool 및 AWS Database Migration Service(DMS)를 사용하여 Amazon Redshift로의 마이그레이션을 가속화할 수 있습니다. 또한, Amazon Redshift는 보안, 모니터링 및 규정 준수를 위해 Amazon Key Management Service(KMS) 및 Amazon CloudWatch와도 긴밀히 통합됩니다. Lambda 사용자 정의 함수(UDF)를 사용하면 Amazon Redshift에서 UDF를 호출하는 것처럼 SQL 쿼리에서 Lambda 함수를 호출할 수도 있습니다. AWS 파트너 서비스와 통합하고 Amazon DynamoDB 및 Amazon SageMaker와 같은 널리 사용되는 다른 AWS 서비스에 액세스하는 Lambda UDF를 작성할 수 있습니다.

파트너 콘솔 통합: Amazon Redshift 콘솔에서 일부 파트너 솔루션과 통합하여 몇 분 만에 데이터 온보딩을 가속화하고 귀중한 비즈니스 인사이트를 생성할 수 있습니다. 이 솔루션을 사용하면 Salesforce, Google Analytics, Facebook Ads, Slack, Jira, Splunk 및 Marketo와 같은 애플리케이션의 데이터를 효율적이고 간편한 방식으로 Redshift 데이터 웨어하우스로 이동할 수 있습니다. 또한, 이러한 개별 데이터 세트를 통합하여 함께 분석함으로써 실행 가능한 인사이트를 생성할 수 있습니다.

Amazon S3에서 자동 복사: Amazon Redshift는 자동 복사 지원을 통해 Amazon S3에서 데이터 로드를 단순화하고 자동화하여 사용자 지정 솔루션을 구축하거나 타사 서비스를 관리하는 데 드는 시간과 노력을 줄입니다. 이 기능을 통해 Amazon Redshift는 파일 수집을 자동화하고 내부에서 지속적인 데이터 로드 단계를 처리하여 수동으로 반복적으로 복사 절차를 실행할 필요가 없습니다. 자동 복사 지원을 통해 데이터 엔지니어링 지식이 없는 기간 업무(LOB) 사용자와 데이터 분석가도 쉽게 수집 규칙을 생성하고 Amazon S3에서 로드하려는 데이터의 위치를 구성할 수 있습니다. 새 데이터가 지정된 Amazon S3 폴더에 저장되면 사용자 정의 구성에 따라 수집 프로세스가 자동으로 트리거됩니다. Redshift 복사 명령은 CSV, JSON, Parquet 및 Avro를 포함한 모든 파일 형식을 지원합니다. 

고급 분석에 대한 기본 지원: Amazon Redshift는 NUMBER, VARCHAR, DATETIME 등의 표준 스칼라 데이터 형식을 지원하며, 다음과 같은 고급 분석 처리를 기본적으로 지원합니다.

  • 공간 데이터 처리: Amazon Redshift는 점, 라인스트링, 다각형 등의 여러 기하학 도형을 지원하는 다형 데이터 형식인 GEOMETRY를 제공합니다. 또한 Amazon Redshift는 기하학 도형 구성, 공간 데이터에 대한 가져오기, 내보내기, 액세스 및 처리 작업을 수행하는 공간 SQL 함수도 제공합니다. Redshift 테이블에 GEOMETRY 열을 추가하고 공간 데이터와 비공간 데이터를 대상으로 하는 SQL 쿼리를 작성할 수 있습니다. 이 기능을 사용하면 공간 데이터를 분석 쿼리에 통합하여 공간 데이터를 저장, 검색 및 처리하고 비즈니스 인사이트를 원활하게 개선할 수 있습니다. 데이터 레이크를 원활하게 쿼리하는 Amazon Redshift의 기능을 통해 외부 테이블을 공간 쿼리에 통합하여 공간 처리를 데이터 레이크로 쉽게 확장할 수도 있습니다. 자세한 내용은 설명서를 참조하세요.
  • HyperLogLog 스케치: HyperLogLog는 데이터 세트의 고유 값 수 추정치를 효율적으로 계산하는 새로운 알고리즘입니다. HLL 스케치는 데이터 세트의 고유 값에 대한 정보를 캡슐화하는 구성 요소입니다. HLL 스케치를 사용하면 평균 0.01~0.6%의 상대 오차로 대규모 데이터 세트의 카디널리티를 대략적으로 계산하는 쿼리의 성능을 크게 높일 수 있습니다. Amazon Redshift는 HyperLogLog 스케치를 생성, 유지, 결합하기 위한 퍼스트 클래스 데이터 유형의 HLLSKETCH 및 관련 SQL 함수를 제공합니다. Amazon Redshift의 HyperLogLog 기능은 편차 보정 기법을 사용하며, 적은 메모리를 사용하여 높은 정확도를 제공합니다. 자세한 내용은 설명서를 참조하세요.
  • DATE 및 TIME 데이터 형식: Amazon Redshift에서는 날짜/시간 데이터를 기본적으로 저장하고 처리하기 위해 DATE, TIME, TIMETZ, TIMESTAMP, TIMESTAMPTZ 등의 여러 데이터 형식을 제공합니다. TIME 및 TIMESTAMP 형식은 시간대 정보 없이 시간 데이터를 저장하지만, TIMETZ 및 TIMESTAMPTZ 형식은 시간대 정보를 포함하여 시간 데이터를 저장합니다. 다양한 날짜/시간 SQL 함수를 사용하여 Redshift 쿼리에서 날짜 및 시간 값을 처리할 수 있습니다. 자세한 내용은 설명서를 참조하세요.
  • 반정형 데이터 처리: Amazon Redshift SUPER 데이터 형식은 기본적으로 Redshift 테이블에 JSON 및 기타 반정형 데이터를 저장하며 PartiQL 쿼리 언어를 사용하여 반정형 데이터를 원활하게 처리합니다. SUPER 데이터 형식은 내재적으로 스키마가 없으며, Redshift 스칼라 값, 중첩 배열 및 중첩 구조를 포함할 수 있는 중첩 값을 저장할 수 있습니다. PartiQL은 SQL의 확장 기능으로, 객체 및 배열 탐색, 배열 중첩 해제, 동적 입력, 스키마 없는 의미 체계와 같은 강력한 쿼리 기능을 제공합니다. 이 기능을 사용하면 사용하기 편하고 뛰어난 성능과 유연성을 지원하는 반정형 SUPER 데이터에 기존의 정형 SQL 데이터를 결합하는 고급 분석을 수행할 수 있습니다. 자세한 내용은 설명서를 참조하세요.
  • 타사 도구와 통합: 데이터 로드, 변환 및 시각화에 관한 업계 최고의 도구와 전문가를 활용하여 Amazon Redshift를 강화하는 다양한 옵션이 있습니다. 당사의 다양한 파트너들이 제공하는 솔루션들은 Amazon Redshift와 연동된다는 인증을 받았습니다.
  • 데이터 통합 파트너를 사용하여 데이터 로드 및 변환.
  • 비즈니스 인텔리전스 파트너를 사용하여 데이터를 분석하고 조직 내에서 인사이트 공유.
  • 시스템 통합 및 컨설팅 파트너를 사용하여 분석 플랫폼 설계 및 구현.
  • 쿼리 및 데이터 모델링 파트너의 도구와 유틸리티를 사용하여 데이터 쿼리, 탐색 및 모델링.

어떤 규모에서도 뛰어난 가격 대비 성능

쿼리 속도 개선을 위한 자동 최적화 기능이 있는 다른 클라우드 데이터 웨어하우스와 비교해 5배 더 높은 가성비를 제공합니다.

RA3 인스턴스: RA3 인스턴스는 다른 클라우드 데이터 웨어하우스 서비스보다 최대 5배 우수한 성능을 제공합니다. 이러한 Amazon Redshift 인스턴스는 많은 컴퓨팅 용량이 요구되는 성능 집약적인 워크로드의 속도를 극대화하며, 필요한 인스턴스의 수를 지정하여 스토리지와는 독립적으로 컴퓨팅 비용을 별도로 지불할 수 있는 유연성을 제공합니다. 자세히 알아보세요.

효율적인 스토리지 및 고성능 쿼리 처리: Amazon Redshift는 기가바이트부터 페터바이트에 이르는 다양한 규모의 데이터 세트에서 빠른 쿼리 성능을 제공합니다. 열 기반 스토리지, 데이터 압축 및 영역 매핑은 쿼리 수행에 필요한 I/O 수를 줄입니다. Amazon Redshift는 LZO 및 Zstandard와 같은 업계 표준과 함께, 숫자 및 날짜/시간 유형을 위해 특별히 고안된 압축 인코딩 AZ64도 제공하여 스토리지를 절약하고 쿼리 성능을 최적화할 수 있도록 합니다.

제한 없는 동시성: Amazon Redshift는 동시에 수천 개에 달하는 쿼리가 있더라도 빠른 성능을 일관되게 제공하며, 이는 Redshift 데이터 웨어하우스에서 데이터를 쿼리하든, Amazon S3 데이터 레이크에서 바로 데이터를 쿼리하든 관계가 없습니다. Amazon Redshift 동시성 확장은 동시성이 증가할 때 초 단위로 임시 용량을 추가하여 일관된 서비스 수준을 유지하며 동시 사용자 및 동시 쿼리를 사실상 무제한으로 지원합니다. 자세히 알아보세요.

구체화된 뷰: Amazon Redshift의 구체화된 뷰를 사용하면 대시보드, 비즈니스 인텔리전스(BI) 도구의 ETL 데이터 처리 작업과 같은 반복적이거나 예측 가능한 분석 워크로드에 대해 훨씬 빠른 쿼리 성능을 얻을 수 있습니다. 구체화된 뷰를 사용하면 외부 테이블을 포함한 하나 이상의 테이블을 참조할 수 있는 SELECT 문의 미리 계산된 결과를 손쉽게 저장하고 관리할 수 있습니다. 구체화된 보기를 참조하는 후속 쿼리는 미리 계산된 결과를 재사용하여 훨씬 빠르게 실행될 수 있습니다. Amazon Redshift는 구체화된 보기(증분)를 효율적으로 유지하여 지연 시간이 짧은 성능 이점을 지속해서 제공할 수 있습니다. 자세히 알아보세요.

자동 구체화된 뷰: 조직에서 작성되는 데이터 종속 애플리케이션, 대시보드, 보고서 및 임시 쿼리의 수가 그 어느 때보다 많아졌습니다. 각 애플리케이션을 튜닝하고 최적화하려면 시간, 리소스 및 비용이 듭니다. 구체화된 보기는 쿼리 성능을 향상시키는 강력한 도구이며 워크로드를 잘 이해하고 있을 때 설정할 수 있습니다. 그러나 쿼리 패턴을 예측할 수 없는 워크로드가 증가하거나 변경될 수 있습니니다. 자동 구체화된 보기는 Amazon Redshift 클러스터에 대한 자동 새로 고침, 자동 쿼리 재작성, 증분 새로 고침 및 지속적 모니터링을 통해 쿼리 처리량(throughput)을 개선하고 쿼리 대기 시간을 줄이며 실행 시간을 단축합니다. Amazon Redshift는 리소스 사용을 최소화하면서 AutoMV 생성과 관리 간의 균형을 유지합니다. 자세히 알아보세요.

기계 학습을 통해 처리량(throughput) 및 성능 극대화: Amazon Redshift의 고급 ML 기능은 높은 처리량과 성능을 제공할 뿐만 아니라 다양한 워크로드 또는 동시 사용자 활동도 지원합니다. Amazon Redshift는 정교한 알고리즘을 활용하여 런타임 및 리소스 요구 사항에 따라 수신 쿼리를 예측하고 분류하여 성능과 동시성을 동적으로 관리하고 비즈니스 크리티컬 워크로드의 우선순위를 지정합니다. 단기 쿼리 가속화(SQA)는 대량 대시보드와 같은 애플리케이션의 단기 쿼리가 대량 쿼리 뒤에 남아 있게 하는 대신, 단기 쿼리를 빠른 대기열로 보내 중간에 처리되도록 합니다. 자동 워크로드 관리(WLM)는 ML을 사용하여 메모리 및 동시성을 동적으로 관리함으로써 쿼리 처리량을 극대화합니다. 또한 제출하는 쿼리가 수백 개에 달하더라도, 이제는 그중에서 가장 중요한 쿼리의 우선순위를 손쉽게 지정할 수 있습니다. Amazon Redshift는 또한 사용자 워크로드를 관찰하여 증가하는 사용량에 따라 성능을 개선할 수 있는 기회를 파악하고, 최적화를 원활하게 적용하며, Redshift의 성능을 추가로 강화하기 위해 명백한 사용자 조치가 필요할 때 Redshift Advisor를 통해 권장 사항을 제시하는 자체 학습 시스템입니다.

결과 캐싱: Amazon Redshift는 결과 캐싱을 사용하여 반복 쿼리에 대해 1초 미만의 응답 시간을 제공합니다. 반복 쿼리를 실행하는 대시보드, 시각화 및 비즈니스 인텔리전스 도구에서 상당한 성능 향상을 경험합니다. 쿼리가 실행될 때, Amazon Redshift는 캐시를 검색하여 이전 실행으로부터 캐시된 결과가 있는지 확인합니다. 캐시된 결과가 발견되고 데이터가 변경되지 않은 경우 쿼리를 재실행하는 대신 캐시된 결과가 즉시 반환됩니다.

페타바이트급 데이터 웨어하우징: 요구 사항의 변화에 따라 콘솔에서 클릭 몇 번 또는 간단한 API 호출을 통해 데이터 웨어하우스의 노드 유형 또는 노드 수를 변경하고 스케일 업하거나 스케일 다운할 수 있습니다. 관리형 스토리지를 통해 용량을 자동으로 추가하여 최대 8PB의 압축 데이터 워크로드를 지원할 수 있습니다. 또한 Amazon Redshift Spectrum 기능을 사용하면 데이터를 로드하거나 변환하지 않고도 Amazon S3에 있는 페타바이트 규모의 데이터에서 쿼리를 실행할 수 있습니다. 오픈 데이터 형식으로 무제한의 데이터를 저장하는 가용성, 보안 및 비용 효율성이 뛰어난 데이터 레이크로서 S3를 사용할 수 있습니다. Redshift Spectrum은 수천 개의 병렬화된 노드 전체에서 쿼리를 실행하여 쿼리의 복잡성 또는 데이터 양과 관계없이 빠른 결과를 제공합니다.

유연한 요금 옵션: Amazon Redshift는 가장 비용 효율적인 데이터 웨어하우스이므로 지불 방식을 최적화할 수 있습니다. 약정 없이 시간당 0.25 USD의 비용으로 작게 시작하여 연간 테라바이트당 1,000 USD로 스케일 아웃할 수 있습니다. Amazon Redshift는 선결제 요금이 없는 온디맨드 요금, 1년 또는 3년 약정으로 비용을 최대 75% 절감할 수 있는 예약 인스턴스 요금, Amazon S3 데이터 레이크에서 스캔된 데이터 양을 기반으로 한 쿼리당 요금을 제공하는 유일한 클라우드 데이터 웨어하우스입니다. Amazon Redshift의 요금에는 기본으로 제공되는 보안, 데이터 압축, 백업 스토리지 및 데이터 전송이 포함됩니다. 데이터 규모가 증가하면 RA3 인스턴스로 관리형 스토리지를 사용하여 월 기준 GB당 0.024 USD라는 비용 효율적인 가격으로 데이터를 저장할 수 있습니다.

워크로드를 예측할 수 없는 경우에도 비용 예측 가능: Amazon Redshift를 활용하면 각각의 클러스터가 매일 1시간 분량의 동시성 확장 크레딧을 무료로 획득하기 때문에 비용에 미치는 영향을 최소화하면서 확장할 수 있습니다. 이러한 무료 크레딧은 97%의 고객에게 발생하는 동시성 요구를 충족하는 데 충분한 수준입니다. 이를 통해 분석 수요의 변동성이 심한 경우에도 월간 비용을 예측할 수 있습니다.

워크로드에 가장 적합한 노드 유형 선택: 세 가지 인스턴스 유형(RA3 노드, 고밀도 컴퓨팅 노드, 고밀도 스토리지 노드) 중에서 선택하여 데이터 웨어하우징의 요구 사항에 맞게 Amazon Redshift를 최적화할 수 있습니다.

RA3 노드를 사용하면 컴퓨팅과 독립적으로 스토리지를 확장할 수 있습니다. RA3를 사용하면 데이터를 별도의 스토리지 계층에 저장하는 고성능 데이터 웨어하우스를 사용할 수 있습니다. 필요한 쿼리 성능에 맞춰서 데이터 웨어하우스의 크기만 지정하면 됩니다.

고밀도 컴퓨팅(DC) 노드는 고속 CPU, 대용량 RAM 및 Solid-State-Disk(SSD)를 사용하여 고성능 데이터 웨어하우스를 생성하도록 지원하며, 데이터 크기가 500GB 미만인 경우에 가장 적합합니다.

고밀도 스토리지(DS2) 노드는 3년 약정의 예약 인스턴스를 구매할 경우 하드 디스크 드라이브(HDD)를 사용하여 대규모 데이터 웨어하우스를 저렴한 가격으로 생성할 수 있도록 지원합니다. DS2 클러스터에서 실행하는 고객 대부분은 워크로드를 RA3 클러스터로 마이그레이션하여 성능을 최대 2배 높이고 DS2와 동일한 비용으로 더 많은 스토리지를 사용할 수 있습니다.

한 번의 API 호출이나 AWS 관리 콘솔에서 클릭 몇 번으로 클러스터 규모를 조정하거나 노드 유형을 전환할 수 있습니다. 자세한 내용은 요금 페이지를 참조하세요.

쉽고, 안전하고, 신뢰 가능

데이터 웨어하우스 관리에 대한 걱정 없이 몇 초 안에 데이터를 인사이트로 바꾸고 비즈니스 성과를 달성하는 데 집중할 수 있습니다.

Amazon Redshift Serverless: Amazon Redshift Serverless는 Amazon Redshift의 서버리스 옵션이며, 데이터 웨어하우스 인프라를 설정하고 관리할 필요 없이 손쉽게 몇 초 안에 분석을 실행하고 확장할 수 있습니다. Amazon Redshift Serverless를 사용하면 데이터 분석가, 개발자, 비즈니스 전문가, 데이터 사이언티스트를 비롯한 모든 사용자가 데이터 웨어하우스에서 데이터를 단순히 로드하고 쿼리하는 방식으로 데이터에서 인사이트를 얻을 수 있습니다. 자세히 알아보세요.

쿼리 에디터 v2: 데이터 탐색 및 분석을 위한 웹 기반 분석자 워크벤치에서 SQL을 사용해 데이터 분석가, 데이터 엔지니어 및 기타 SQL 사용자가 Amazon Redshift 데이터 및 데이터 레이크를 더욱 쉽게 이용할 수 있습니다. 쿼리 에디터 v2는 한 번의 클릭으로 쿼리 결과를 시각화하고, 스키마와 테이블을 생성하고, 데이터를 시각적으로 로드하고, 데이터베이스 객체를 탐색할 수 있습니다. 또한 SQL 쿼리, 분석, 시각화 및 주석을 작성하고 팀과 안전하게 공유할 수 있는 직관적인 에디터를 제공합니다.

자동화된 테이블 설계: Amazon Redshift는 사용자 워크로드를 모니터링하고, 쿼리 속도를 최적화하도록 물리적 데이터 레이아웃을 개선하기 위한 방법을 모색하고자 정교한 알고리즘을 사용합니다. 자동 테이블 최적화는 최상의 정렬 및 분산 키를 선택하여 클러스터의 워크로드에 대한 성능을 최적화합니다. Amazon Redshift에서 키 적용으로 클러스터 성능이 향상된다고 판단하면 관리자 개입 없이 테이블이 자동으로 변경됩니다. 자동 진공 삭제, 자동 테이블 정렬, 자동 분석과 같은 추가 기능을 사용하면 Redshift 클러스터를 수동으로 유지 관리하고 튜닝하지 않아도 되므로 새로운 클러스터 및 프로덕션 워크로드에 대해 최고의 성능을 얻을 수 있습니다.

사용자의 자체 도구를 사용한 쿼리: Amazon Redshift는 콘솔 내에서 쿼리를 실행하거나 Amazon QuickSight, Tableau, PowerBI, QueryBook 및 Jupyter Notebook을 비롯한 SQL 클라이언트 도구, 라이브러리 또는 데이터 과학 도구를 연결할 수 있는 유연성을 제공합니다.

단순한 API를 통해 Amazon Redshift와 상호 작용: 모든 유형의 기존, 클라우드 네이티브 및 컨테이너식 서버리스 웹 서비스 기반 애플리케이션과 이벤트 기반 애플리케이션에서 Amazon Redshift의 데이터에 액세스할 수 있습니다. Amazon Redshift 데이터 API는 Python, Go, Java, Node.js, PHP, Ruby 및 C++ 등 AWS SDK로 지원되는 프로그래밍 언어 및 플랫폼에서의 데이터 액세스, 수집 및 송신을 간소화합니다. 이 데이터 API를 사용하면 드라이버를 구성하고 데이터베이스 연결을 관리할 필요가 없습니다. 대신, 데이터 API에서 제공하는 보안 API 엔드포인트를 호출하기만 하면 Amazon Redshift 클러스터에 대해 SQL 명령을 실행할 수 있습니다. 데이터베이스 연결 관리와 데이터 버퍼링은 데이터 API에서 처리합니다. 데이터 API는 비동기식이므로, 나중에 결과를 검색할 수 있습니다. 쿼리 결과는 24시간 동안 저장됩니다.

내결함성: 데이터 웨어하우스 클러스터의 신뢰성을 강화하는 여러 기능이 있습니다. 예를 들어, Amazon Redshift는 내결함성을 위해 클러스터 상태를 계속해서 모니터링하고, 장애가 발생한 드라이브의 데이터를 자동으로 다시 복제하며, 필요에 따라 노드를 교체합니다. 클러스터는 데이터 손실이나 애플리케이션 변경 없이도 다른 가용 영역(AZ)에 재배치될 수도 있습니다.

AWS는 가장 까다로운 요구 사항을 충족하는 포괄적인 보안 기능을 갖추고 있으며, Amazon Redshift는 데이터 보안 기능을 추가 비용 없이 기본으로 제공합니다.

세분화된 액세스 제어: 행 및 열 수준으로 세분화된 보안 제어를 통해 사용자는 액세스 권한이 있는 데이터만 볼 수 있습니다. Amazon Redshift는 AWS Lake Formation과 통합되어 Lake Formation의 열 수준 액세스 제어가 데이터 레이크에 있는 데이터에 대한 Redshift 쿼리에도 적용되도록 합니다.

Amazon Redshift 데이터 공유는 AWS Lake Formation을 통한 중앙 집중식 액세스 제어를 지원하여 Amazon Redshift에서 공유되는 데이터의 거버넌스를 간소화합니다. AWS Lake Formation(LF)을 사용하면 쉽게 안전한 데이터 레이크를 설정하고, 모든 소비 서비스에서 데이터에 대한 세분화된 액세스를 중앙에서 관리하고, 행 수준 및 열 수준 제어를 적용할 수 있습니다.

동적 데이터 마스킹: 동적 데이터 마스킹을 통해 고객은 식별 가능한 데이터가 사용자에게 표시되는 양을 제한하여 민감한 데이터를 쉽게 보호할 수 있습니다. 또한 이러한 필드에 대해 여러 수준의 권한을 정의할 수 있으므로 Redshift의 친숙한 SQL 인터페이스를 통해 데이터 복사본을 여러 개 생성하지 않고도 다양한 사용자와 그룹이 다양한 수준의 데이터 액세스 권한을 가질 수 있습니다.

다중 AZ: 새로운 Redshift 다중 AZ 구성은 복구 시간을 줄이고 데이터 손실 없이 자동으로 복구할 수 있는 용량을 보장하여 복구 기능을 더욱 확장합니다. Redshift 다중 AZ 데이터 웨어하우스는 대기 리소스를 사용하지 않고도 고가용성을 제공하여 성능과 가치를 극대화합니다.

엔드 투 엔드 암호화: 몇몇 파라미터 설정만으로 SSL을 사용하여 전송 중 데이터를 보호하고 하드웨어 가속 AES-256 암호화를 사용하여 저장 데이터를 보호하도록 Amazon Redshift를 설정할 수 있습니다. 저장 데이터의 암호화를 활성화하도록 선택하면 백업과 함께 디스크에 작성된 모든 데이터가 암호화됩니다. Amazon Redshift는 기본적으로 키 관리를 담당합니다.

네트워크 격리: Amazon Redshift를 사용하면 데이터 웨어하우스 클러스터에 대한 네트워크 액세스를 제어하도록 방화벽 규칙을 구성할 수 있습니다. Amazon Virtual Private Cloud(VPC) 내에서 Amazon Redshift를 실행하여 자체 가상 네트워크에 있는 데이터 웨어하우스 클러스터를 격리하고 업계 표준의 암호화된 IPsec VPN을 사용하여 기존 IT 인프라에 연결할 수 있습니다.

감사 및 규정 준수: Amazon Redshift는 모든 Redshift API 호출을 감사할 수 있도록 AWS CloudTrail과 통합됩니다. Redshift는 데이터 웨어하우스에 대한 연결 시도, 쿼리 및 변경 사항을 비롯하여 모든 SQL 작업을 기록합니다. 시스템 테이블에 대한 SQL 쿼리를 사용하여 이러한 로그에 액세스하거나 로그를 Amazon S3의 안전한 위치에 저장할 수 있습니다. Amazon Redshift는 SOC1, SOC2, SOC3 및 PCI DSS 레벨 1 요구 사항을 준수합니다. 자세한 내용은 AWS 클라우드 규정 준수 페이지를 참조하세요.

토큰화: Amazon Lambda 사용자 정의 함수(UDF)를 통해 Amazon Redshift에서 AWS Lambda 함수를 UDF로 사용하고 Redshift SQL 쿼리에서 호출할 수 있습니다. 이 기능을 사용하면 SQL 쿼리용 사용자 지정 확장을 작성하여 다른 서비스 또는 타사 제품과 더 긴밀하게 통합할 수 있습니다. Protegrity와 같은 공급업체와 통합하여 외부 토큰화, 데이터 마스킹, 데이터 식별 또는 식별 취소를 수행하고, 쿼리 시간에 사용자의 권한 및 그룹에 따라 민감한 데이터를 보호하거나 보호 해제하는 Lambda UDF를 작성할 수 있습니다.

새로운 기능에 대해 자세히 알아보세요.

자세한 제품 정보는 Amazon Redshift Documentation 페이지를 참조하십시오.

Amazon Redshift 요금에 대해 자세히 알아보십시오

요금 페이지로 이동하기
구축할 준비가 되셨습니까?
Amazon Redshift 시작하기
질문이 있으십니까?
AWS에 문의하기