일반 S3 FAQ

Q: Amazon S3란 무엇입니까?

Amazon S3는 어디서나 원하는 양의 데이터를 저장하고 검색할 수 있도록 구축된 객체 스토리지입니다. 업계 최고 수준의 내구성, 가용성, 성능, 보안 및 거의 무제한의 확장성을 아주 저렴한 요금으로 제공하는 단순한 스토리지 서비스입니다.

Q: Amazon S3로 무엇을 할 수 있습니까?

Amazon S3는 언제든지 어디서나 원하는 양의 데이터를 저장하고 검색하는 데 사용할 수 있는 간편한 웹 서비스 인터페이스를 제공합니다. 이 서비스를 사용하면 클라우드 네이티브 스토리지를 사용하는 애플리케이션을 손쉽게 구축할 수 있습니다. Amazon S3는 확장성이 뛰어나고 사용한 만큼만 비용을 지불하므로 작은 규모에서 시작해 성능 또는 안정성 저하 없이 원하는 대로 애플리케이션을 확장할 수 있습니다.

또한, Amazon S3는 뛰어난 유연성을 제공하도록 설계되었습니다. 원하는 형식의 데이터를 원하는 만큼 저장하고, 동일한 데이터를 수백만 번 읽거나 비상 재해 복구 용도로만 사용하고, 간단한 FTP 애플리케이션 또는 Amazon.com 소매 웹 사이트와 같은 복잡한 웹 애플리케이션을 구축할 수 있습니다. Amazon S3를 사용하는 개발자는 데이터 저장 방법을 고민하기보다는 혁신에 집중할 수 있습니다.

Q: Amazon S3를 시작하려면 어떻게 해야 합니까?

Amazon S3에 가입하려면 이 링크를 클릭하십시오. 이 서비스에 액세스하려면 Amazon Web Services 계정이 있어야 합니다. 아직 계정이 없는 경우 Amazon S3 가입 프로세스를 시작하면 계정을 생성하라는 메시지가 표시됩니다. 가입 후에는 리소스 센터의 Amazon S3 설명서와 샘플 코드를 참조하여 Amazon S3 사용을 시작하면 됩니다.

Q: 개발자들이 온프레미스 솔루션으로는 할 수 없었지만 Amazon S3로 할 수 있는 작업은 무엇입니까?

Amazon S3를 사용하면 모든 개발자가 사전 투자나 성능 저하 없이 Amazon의 대규모 혜택을 활용할 수 있습니다. 이제 개발자들은 저렴하고 간단한 Amazon S3 덕분에 개발 작업에 집중할 수 있습니다. Amazon S3는 기업 규모가 커져도 데이터에 대한 빠른 액세스와 가용성을 보장하고, 데이터를 안전하게 보호합니다.

Q: 어떤 종류의 데이터를 Amazon S3에 저장할 수 있습니까?

거의 모든 종류의 데이터를 원하는 형식으로 저장할 수 있습니다. 자세한 내용은 Amazon Web Services 라이선스 계약을 참조하세요.

Q: 얼마나 많은 데이터를 Amazon S3에 저장할 수 있습니까?

저장할 수 있는 데이터의 전체 볼륨과 객체 수에는 제한이 없습니다. Amazon S3 객체의 크기는 각각 최소 0바이트에서 최대 5테라바이트까지 다양합니다. 단일 PUT 요청으로 업로드 가능한 객체의 최대 크기는 5GB입니다. 객체의 크기가 100MB를 넘는 경우, 멀티파트 업로드 기능을 사용하는 방법을 고려하는 것이 좋습니다.

Q: Amazon S3에서 제공하는 스토리지 클래스에는 어떤 것이 있습니까?

Amazon S3는 여러 사용 사례에 맞춰 설계된 다양한 스토리지 클래스를 제공합니다. 여기에는 자주 액세스하는 데이터의 범용 스토리지를 위한 S3 Standard, 알 수 없거나 변화하는 액세스 패턴이 있는 데이터를 위한 S3 Intelligent-Tiering, 수명이 길지만 자주 액세스하지 않는 데이터를 위한 S3 Standard-Infrequent Access(S3 Standard-IA) 및 S3 One Zone-Infrequent Access(S3 One Zone-IA), 장기 아카이브 및 디지털 보존을 위한 Amazon S3 Glacier(S3 Glacier) 및 Amazon S3 Glacier Deep Archive(S3 Glacier Deep Archive) 등이 포함됩니다. 기존 AWS 리전으로 해결할 수 없는 데이터 레지던시 요구 사항이 있다면 S3 Outposts 스토리지 클래스를 사용하여 S3 데이터를 온프레미스에 저장할 수 있습니다. 이러한 스토리지 클래스에 대한 자세한 내용은 Amazon S3 스토리지 클래스 페이지에서 확인할 수 있습니다. 

Q: 한 버킷에서 서로 다른 스토리지 클래스에 서로 다른 객체를 포함할 수 있습니까?

예, 한 S3 버킷에서 여러 객체를 S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA 및 S3 One Zone-IA에 저장할 수 있습니다.

Q: Amazon은 고객이 Amazon S3에 저장한 데이터로 무엇을 합니까?

Amazon은 데이터를 저장하고 청구 용도로 데이터 관련 사용량을 기록합니다. Amazon은 법적으로 요구되지 않는 한, Amazon S3 서비스 제공 이외의 다른 목적으로 사용자의 데이터에 액세스하지 않습니다. 자세한 내용은 Amazon Web Services 라이선스 계약을 참조하세요.

Q: Amazon은 자체 데이터를 Amazon S3에 저장합니까?

예. Amazon의 개발자들은 다양한 프로젝트에 Amazon S3를 사용합니다. 이러한 프로젝트 대부분이 Amazon S3를 자산의 권한이 있는 데이터 스토리지로 사용하고, 비즈니스 크리티컬한 작업에 활용합니다.

Q: Amazon S3의 데이터는 어떻게 관리됩니까?

Amazon S3는 간단한 키 기반의 객체 스토리지입니다. 데이터를 저장할 때 나중에 데이터를 검색하는 데 사용할 수 있는 고유한 객체 키를 할당합니다. 키에는 어떤 문자열이나 사용할 수 있으며 계층적 속성을 모방하여 구성할 수 있습니다. 또는 S3 객체 태깅을 사용하여 모든 S3 버킷 및/또는 접두사에 걸쳐 데이터를 관리할 수 있습니다.

Q: Amazon S3에서는 어떤 인터페이스를 사용합니까?

Amazon S3는 간편한 표준 기반 REST 웹 서비스 인터페이스를 제공합니다. 이 인터페이스는 어느 인터넷 개발 도구 키트에서나 사용할 수 있도록 설계되었습니다. 조작 방식을 단순화하여 새로운 분산 프로토콜과 기능 계층을 손쉽게 추가할 수 있습니다.

Q: Amazon S3의 안정성은 어느 정도입니까?

Amazon S3를 사용하면 개발자는 Amazon이 자체 웹 사이트의 글로벌 네트워크 운영에 사용하는 것과 동일한 뛰어난 확장성과 가용성을 갖춘 빠르고 저렴한 데이터 스토리지 인프라에 액세스할 수 있습니다. S3 Standard 스토리지 클래스는 99.99%의 가용성, S3 Standard-IA 스토리지 클래스 및 S3 Intelligent-Tiering 스토리지 클래스는 99.9%의 가용성, S3 One Zone-IA 스토리지 클래스는 99.5%의 가용성, S3 Glacier 및 S3 Glacier Deep Archive 클래스는 99.99%의 가용성과 99.9%의 SLA를 제공하도록 설계되었습니다. 이 모든 스토리지 클래스는 Amazon S3 서비스 수준 계약의 적용을 받습니다.

Q: 내 애플리케이션의 트래픽이 급증하는 경우 Amazon S3는 어떻게 작동합니까?

Amazon S3는 처음부터 모든 인터넷 애플리케이션의 트래픽을 처리할 수 있도록 설계되었습니다. 종량제 가격과 무제한 용량으로 증분 원가가 변경되지 않으며 서비스가 중단되지 않습니다. Amazon S3의 큰 규모 덕분에 로드를 고르게 분산할 수 있어 트래픽이 급상승하더라도 개별 애플리케이션이 영향을 받지 않습니다.

Q: Amazon S3는 서비스 수준 계약(SLA)을 제공합니까?

예. Amazon S3 SLA는 고객의 월간 가동률이 월별 결제 주기 동안 서비스 약정보다 낮을 경우 서비스 크레딧을 제공합니다.

Q: Amazon S3의 일관성 모델이란 무엇입니까?

Amazon S3는 성능이나 가용성을 변경하지 않고, 애플리케이션에 대한 지역적 분리 없이 그리고 추가 비용 없이 강력한 쓰기 후 읽기 일관성을 자동으로 제공합니다.

새 객체를 성공적으로 쓴 후 또는 기존 객체를 덮어쓴 후, 후속 읽기 요청은 즉시 객체의 최신 버전을 수신합니다. 또한 S3는 목록 작업에 강력한 일관성을 제공하므로, 쓰기 후에 변경 사항이 반영된 버킷의 객체 목록을 즉시 수행할 수 있습니다.

Q: 강력한 쓰기 후 읽기 일관성이 도움이 되는 이유는 무엇입니까?

강력한 쓰기 후 읽기 일관성은 쓰기 후 즉시 객체를 읽어야 할 때 도움이 됩니다. 예를 들어, 객체를 쓴 직후에 읽고 나열해야 하는 경우가 많을 때 강력한 쓰기 후 읽기 일관성이 있습니다. 고성능 컴퓨팅 워크로드는 객체가 덮어쓰기된 후 동시에 여러 번 읽을 때 강력한 쓰기 후 읽기 일관성이 모든 읽기에서 최신의 쓰기를 읽도록 보장한다는 이점도 얻습니다. 이러한 애플리케이션은 강력한 쓰기 후 읽기 일관성에서 자동으로 그리고 즉시 이점을 얻습니다. 또한 S3 강력한 일관성은 강력한 일관성을 제공하기 위한 추가 인프라의 필요성을 없애 비용을 절감합니다.  

AWS 리전

Q:  데이터는 어디에 저장됩니까?

Amazon S3 버킷을 생성할 때 AWS 리전을 지정합니다. S3 Standard, S3 Standard-IA 및 S3 Glacier 스토리지 클래스의 경우, 객체는 AWS 리전 내에 각기 지리적으로 분리된 최소 3개의 가용 영역에 걸쳐 여러 디바이스에 자동 저장됩니다. S3 One Zone-IA 스토리지 클래스에 저장된 객체는 사용자가 선택한 AWS 리전의 단일 가용 영역에 중복 저장됩니다. S3 on Outposts는 AWS 리전으로 전송하기로 직접 선택한 경우를 제외하고 데이터를 Outpost 온프레미스 환경에 저장합니다. Amazon S3 서비스의 AWS 리전별 가용성에 대한 자세한 내용은 리전별 제품 및 서비스를 참조하세요.

Q:  AWS 리전이란 무엇입니까?

AWS 리전은 AWS가 짧은 지연 시간, 높은 처리량 및 중복성이 높은 네트워킹으로 연결되었으며 물리적으로 분리 및 격리된 다수의 가용 영역을 제공하는 지리적 위치입니다.

Q:  AWS 가용 영역(AZ)이란 무엇입니까?

AWS 가용 영역은 AWS 리전 내에 물리적으로 격리된 위치를 말합니다. S3는 각 AWS 리전 내에 최소 3개의 AZ를 운영하며, 각 AZ는 화재, 홍수 등과 같은 지역 이벤트로부터 보호할 수 있도록 지리적으로 분리됩니다.

Amazon S3 Standard, S3 Standard-Infrequent Access 및 S3 Glacier 스토리지 클래스는 하나의 AZ가 모두 손실되어도 데이터를 보호할 수 있도록 최소 3개의 AZ에 걸쳐 데이터를 복제합니다. 이는 공개적으로 사용할 수 있는 AZ가 3개 미만인 리전에도 동일하게 적용됩니다. 이러한 스토리지 클래스에 저장된 객체는 해당 AWS 리전 내 모든 AZ에서 액세스할 수 있습니다.

Amazon S3 One Zone-IA 스토리지 클래스는 단일 AZ 내에서 데이터를 복제합니다. 단, S3 One Zone-IA에 저장된 데이터는 가용 영역의 물리적 손실(지진 및 홍수와 같은 자연재해로 인한 손실)에 대해 복원력이 유지되지 않습니다.

Q: 데이터를 저장할 AWS 리전은 어떻게 결정합니까?

특정 애플리케이션에 따라 고려해야 할 몇 가지 요인이 있습니다. 다음과 같은 지역에 데이터를 저장하고 싶을 것입니다.

  • 데이터 액세스 지연 시간을 줄이기 위해 고객, 데이터 센터 또는 다른 AWS 리소스와 가까운 지역
  • 지리적 이중화 및 재해 복구 목적을 위해 다른 운영 지역에서 멀리 떨어진 지역
  • 특정 법적 및 규제 요구사항을 충족할 수 있는 지역
  • 스토리지 비용을 줄일 수 있는 지역. 더 저렴한 리전을 선택해 비용을 절약할 수 있습니다. S3 요금 정보는 S3 요금 페이지를 참조하세요.

Q:  세계의 어떤 리전에서 Amazon S3를 사용할 수 있습니까?

Amazon S3는 전 세계 AWS 리전에서 사용할 수 있으며, 고객의 위치와 관계없이 Amazon S3를 사용할 수 있습니다. 어느 AWS 리전에서 Amazon S3 데이터를 저장할지 선택하기만 하면 됩니다. 현재 S3를 사용할 수 있는 AWS 리전 목록은 AWS 리전별 가용성 표를 참조하세요.

결제

Q:  Amazon S3 비용은 얼마입니까?

Amazon S3에서는 사용한 만큼만 비용을 청구하며, 최소 요금은 없습니다. AWS 요금 계산기를 사용해 월별 청구액을 추산할 수 있습니다.

AWS의 비용이 적게 드는 부분에서는 고객에게도 더 적은 금액을 부과합니다. 일부 요금은 Amazon S3 리전별로 다릅니다. 청구 요금은 S3 버킷의 위치를 기준으로 합니다. COPY 요청을 통해 Amazon S3 리전 내에서 전송된 데이터에 대해서는 데이터 전송 요금이 부과되지 않습니다. COPY 요청을 통해 AWS 리전 간 전송된 데이터에 대해서는 Amazon S3 세부 정보 페이지의 요금 섹션에 명시된 요금이 부과됩니다. 같은 리전에 있는 Amazon EC2(또는 모든 AWS 서비스)와 Amazon S3 간에 데이터를 전송한 경우(예: 미국 동부(버지니아 북부) 리전 내에서의 데이터 전송) 데이터 전송 요금이 청구되지 않습니다. 그 외 모든 리전의 Amazon EC2(또는 모든 AWS 서비스)와 Amazon S3 간에 전송된 데이터(예: Amazon EC2 미국 동부(버지니아 북부)와 Amazon S3 미국 서부(캘리포니아 북부) 리전 간)에 대해서는 Amazon S3 요금 페이지에 명시된 요금이 부과됩니다. S3 on Outposts 요금은 Outposts 요금 페이지를 참조하세요.

Q:  Amazon S3의 사용료는 어떻게 과금 및 청구되나요?

서비스를 시작하는 데 드는 설치 요금이나 확약금이 없습니다. 월말에 해당 월 사용액이 자동으로 결제됩니다. Amazon Web Services 계정에 로그인한 다음 [웹 서비스 계정(Your Web Services Account)] 아래의 청구 및 비용 관리 콘솔(Billing and Cost Management console)을 클릭하면, Amazon Web Services 웹 사이트에서 언제든지 현재 결제 기간의 청구액을 볼 수 있습니다.

AWS 프리 티어*를 이용하면 AWS GovCloud 리전을 제외한 모든 리전에서 Amazon S3를 무료로 시작할 수 있습니다. AWS 신규 가입 고객은 1년 동안 매달 5GB의 Amazon S3 Standard 스토리지, 20,000건의 Get 요청, 2,000건의 Put 요청, 15GB의 데이터 송신(인터넷, 다른 AWS 리전 또는 CloudFront로 송신) 전송 혜택을 받게 됩니다. 사용되지 않은 월별 사용량은 다음 달로 이월되지 않습니다.

Amazon S3는 다음과 같은 사용 유형에 대한 요금을 청구합니다. 아래 계산은 AWS 프리 티어가 없는 경우를 가정한 것입니다.

사용 스토리지:

Amazon S3 스토리지 요금은 Amazon S3 요금 페이지에 정리되어 있습니다.

한 달에 청구되는 스토리지 양은 한 달 내내 사용하는 평균 스토리지를 기준으로 합니다. 여기에는 사용자가 AWS 계정에서 생성한 버킷에 저장되는 모든 객체 데이터와 메타데이터가 포함됩니다. 당사는 "TimedStorage-ByteHrs"로 사용자의 스토리지 사용량을 측정합니다. 이는 월말에 사용량을 합산하여 월 요금을 생성합니다.

스토리지 예:

3월에 100GB(107,374,182,400바이트)의 데이터를 버킷의 Amazon S3 스탠다드 스토리지에 15일 동안 저장하고 100TB(109,951,162,777,600바이트)의 데이터를 Amazon S3 스토리지에 나머지 16일 동안 저장한다고 가정해 보겠습니다.

3월 말에 바이트-시간 사용량은 다음과 같이 산출됩니다. 총 바이트-시간 사용량 = [107,374,182,400바이트 x 15일 x (24시간/일)] + [109,951,162,777,600바이트 x 16일 x (24시간/일)] = 42,259,901,212,262,400바이트-시간. 해당 월의 실제 일수를 기준으로 시간을 계산하세요. 예를 들어 이 예에서는 31일 또는 744시간이 있는 3월 기준으로 했습니다.

이를 GB-월로 변환하면 다음과 같습니다. 42,259,901,212,262,400바이트-시간 / GB당 1,073,741,824바이트 / 월별 744시간 = 52,900GB-월

이 사용 볼륨은 두 개의 서로 다른 볼륨 티어를 포함합니다. 월별 스토리지 요금은 데이터가 미국 동부(버지니아 북부) 리전에 저장되어 있다는 가정 하에 다음과 같이 계산됩니다. 50TB 티어: 51,200GB x 0.023 USD = 1,177.60 USD 50TB~450TB 티어: 1,700GB x 0.022 USD = 37.40 USD

총 스토리지 비용 = 1,177.60 USD + 37.40 USD = 1,215.00 USD

수신되는 네트워크 데이터:

Amazon S3에서 데이터 수신 시 요금은 Amazon S3 요금 페이지에 정리되어 있습니다. 이것은 Amazon S3 버킷에 전송된 데이터의 양을 나타냅니다. 

송신되는 네트워크 데이터:

Amazon S3에서 데이터 송신 시 요금은 Amazon S3 요금 페이지에 정리되어 있습니다. Amazon S3에서는 특정 Amazon S3 지역 이외의 지역에 있는 버킷에서 데이터를 읽어올 때 마다 요금이 부과됩니다.

데이터 송신 요금은 특정 한 지역에서 인터넷으로 송신된 Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS 및 Amazon VPC 전체 데이터 송신량을 합산한 것입니다. 이러한 티어는 한 AWS 리전 내 Amazon S3에서 다른 AWS 리전으로 데이터를 전송하는 경우에는 적용되지 않습니다.

데이터 전송 예:
미국 동부(버지니아 북부) 리전에서 1TB의 Amazon S3 데이터를 인터넷으로 한 달(31일 기준) 동안 매일 전송한다고 가정합니다. 1TB의 Amazon EC2 인스턴스 데이터를 같은 지역에서 인터넷으로 같은 31일 기간 동안 전송한다고 가정합니다.

이때 총 데이터 전송량은 62TB(Amazon S3에서 31TB, Amazon EC2에서 31TB)입니다. 이는 63,488GB(62TB * 1024GB/TB)와 같습니다.

이 사용 볼륨은 세 개의 다른 볼륨 티어를 포함합니다. 데이터 전송이 미국 동부(버지니아 북부) 리전에서 발생한다고 가정할 때 월별 데이터 송신 요금은 아래와 같이 계산됩니다.
10TB 티어: 10,239GB(10×1024GB/TB – 1(무료)) x 0.09 USD = 921.51 USD
10TB~50TB 티어: 40,960GB(40×1024) x 0.085 USD = 3,481.60 USD
50TB~150TB 티어: 12,288GB(나머지) x 0.070 USD = 860.16 USD

총 데이터 전송 요금 = 921.51 USD + 3,481.60 USD + 860.16 USD = 5,263.27 USD

데이터 요청:

Amazon S3 요청 요금은 Amazon S3 요금표에 정리되어 있습니다.

요청 예:
3월 한 달 동안 매일 Amazon S3로 10,000개의 파일을 수신하고 Amazon S3에서 20,000개의 파일을 전송한다고 가정합니다. 그리고 3월 31일에 5,000개의 파일을 삭제합니다.
총 PUT 요청 = 10,000건의 요청 x 31일 = 310,000건의 요청
총 GET 요청 = 20,000건의 요청 x 31일 = 620,000건의 요청
총 DELETE 요청 = 5,000건의 요청 × 1일 = 5,000건의 요청

버킷이 미국 동부(버지니아 북부) 리전에 있는 경우 요청 요금은 아래와 같이 계산됩니다.
310,000건의 PUT 요청: 310,000건의 요청 x 0.005 USD/1,000 = 1.55 USD
620,000건의 GET 요청: 620,000건의 요청 x 0.004 USD/10,000 = 0.25 USD
5,000건의 DELETE 요청 = 5,000건의 요청 x 0.00 USD(요금 없음) = 0.00 USD

데이터 검색:

Amazon S3 데이터 검색 요금은 S3 Standard-Infrequent Access(S3 Standard-IA)와 S3 One Zone-IA 스토리지 클래스에 적용되며 Amazon S3 요금 페이지에 정리되어 있습니다.

데이터 검색 예제:
한 달에 S3 Standard-IA에서 300GB를 검색하고, 인터넷으로 100GB를 전송하고, 같은 AWS 리전의 EC2로 100GB를 전송하고, 같은 AWS 리전의 CloudFront로 100GB를 전송한다고 가정해보겠습니다.

해당 월의 데이터 검색 요금은 300GB x 0.01 USD/GB = 3.00 USD로 계산됩니다. 인터넷으로 전송된 부분에 대한 네트워크 데이터 전송 요금도 지불해야 합니다.

Amazon S3 Glacier에 아카이브된 객체의 결제에 대한 세부 정보는 여기를 참조하세요.

* * 프리 티어의 사용량은 매달 AWS GovCloud 리전을 제외한 모든 리전에서 매달 계산되어 청구서에 자동으로 적용됩니다. 월별 미사용 분은 이월되지 않습니다. 제한 사항이 적용됩니다. 자세한 내용은 제안 약관을 참조하세요.

Q:  선택한 Amazon S3 리전에 따라 요금이 다른 이유는 무엇입니까?

AWS의 비용이 적게 드는 부분에서는 고객에게도 더 적은 금액을 부과합니다. 예를 들어, 미국 동부(버지니아 북부) 리전의 비용은 미국 서부(캘리포니아 북부) 리전보다 낮습니다.

Q: 버전 관리 요금은 어떻게 부과됩니까?

저장되거나 요청된 객체의 모든 버전에는 일반 Amazon S3 요금이 적용됩니다. 예를 들어, 버전 관리를 사용할 경우 스토리지 비용을 산정하는 다음 시나리오를 살펴보겠습니다(현재 월의 일수가 31일이라고 가정).

1) 해당 월의 1일: 버킷에서 4GB(4,294,967,296바이트)의 PUT를 수행합니다.
2) 해당 월의 16일: 동일한 버킷 내에서 1일의 원본 PUT와 동일한 키를 사용해 5GB(5,368,709,120바이트)의 PUT를 수행합니다.

위 작업의 스토리지 비용을 분석할 경우 15일에 5GB 객체를 기록할 때 1일의 4GB 객체가 버킷에서 삭제되지 않는다는 점에 유의하십시오. 그 대신, 4GB 객체가 기존 버전으로 보존되고 5GB 객체가 버킷 내에서 가장 최근에 기록된 버전의 객체가 됩니다. 월말:

총 바이트-시간 사용량
[4,294,967,296바이트 x 31일 x (24시간/일)] + [5,368,709,120바이트 x 16일 x (24시간/일)] = 5,257,039,970,304바이트-시간.

총 GB-월로 변환
5,257,039,970,304바이트-시간 x (1GB/1,073,741,824바이트) x (1개월/744시간) = 6.581GB-월

요금은 Amazon S3 요금 페이지에 명시된 고객 리전의 현재 요금을 기준으로 계산됩니다.

Q:  AWS 관리 콘솔을 통해 Amazon S3에 액세스할 경우 요금은 어떻게 부과됩니까?

AWS Management Console을 통해 서비스에 액세스할 경우 정상 Amazon S3 요금이 적용됩니다. 성능을 최적화하기 위해 AWS Management Console이 능동적으로 요청을 실행할 수 있습니다. 또한 일부 대화형 작업으로 인해 서비스에 둘 이상의 요청이 발생됩니다.

Q:  다른 AWS 계정에서 내 Amazon S3 버킷에 액세스하는 경우 요금은 어떻게 부과됩니까?

다른 AWS 계정에서 스토리지에 액세스하는 경우 일반 Amazon S3 요금이 적용됩니다. 또는 버킷을 요청자 지불 버킷으로 구성하도록 선택할 수 있습니다. 이 경우 요청자가 Amazon S3 데이터 요청 및 다운로드 비용을 지불하게 됩니다.

요청자 지불 버킷 구성에 대한 자세한 내용은 Amazon S3 설명서를 참조하십시오.

Q:  요금에 세금이 포함되어 있습니까?

명시된 경우를 제외하고 요금에는 VAT 및 해당 판매세를 비롯한 관련 조세 공과가 포함되지 않습니다. 청구지 주소가 일본으로 되어 있는 고객의 경우 AWS 서비스 사용 시 일본 소비세의 적용을 받게 됩니다.

AWS 서비스의 세금에 대해 자세히 알아보기 »

Amazon S3 및 IPv6

Q:  IPv6란 무엇입니까?

인터넷에 연결된 모든 서버 및 디바이스는 고유한 주소를 가지고 있습니다. Internet Protocol Version 4(IPv4)는 원래 32비트 주소 지정 체계였습니다. 하지만 인터넷의 지속적인 성장은 시간이 지나면서 사용할 수 있는 모든 IPv4 주소가 소모될 것임을 의미합니다. Internet Protocol Version 6(IPv6)는 IPv4의 전 세계적인 주소 한계를 극복하기 위해 설계된 주소 지정 메커니즘입니다.

Q: IPv6로 어떤 작업을 할 수 있습니까?

Amazon S3의 IPv6 지원 기능을 사용하면 애플리케이션이 IPv6에서 IPv4로의 변환 소프트웨어나 시스템 없이도 Amazon S3에 연결할 수 있습니다. 규정 준수 요구 사항을 충족하고, 좀 더 쉽게 기존 IPv6 기반 온프레미스 애플리케이션과 통합할 수 있으며, 주소 변환을 처리하기 위해 고가의 네트워킹 장비를 구매할 필요가 없습니다. 또한, 이제 IAM 정책 및 버킷 정책에 있는 기존의 소스 주소 필터링 기능을 IPv6 주소에 활용하여 Amazon S3와 상호 작용하는 애플리케이션의 보안에 대한 옵션을 확장할 수 있습니다.

Q:   Amazon S3에서 IPv6를 시작하려면 어떻게 해야 합니까?

시작하려면 애플리케이션이 Amazon S3의 새로운 "이중 스택" 엔드포인트를 가리키도록 합니다. 이 엔드포인트는 IPv4와 IPv6 모두를 지원합니다. 네트워크 클라이언트 대부분이 기본적으로 IPv6 주소를 선택하므로 대부분의 경우에는 추가 구성 없이 IPv6를 통해 액세스할 수 있습니다. IPv6 사용 시 애플리케이션이 영향을 받는 경우 언제든 표준 IPv4 전용 엔드포인트로 다시 전환할 수 있습니다. AWS GovCoud(미국) 리전, Sinnet에서 운영하는 Amazon Web Services 중국(베이징) 리전, NWCD에서 운영하는 Amazon Web Services 중국(닝샤) 리전을 비롯한 모든 상용 AWS 리전에서 Amazon S3에서 IPv6를 사용할 수 있습니다. 

Q: IPv6를 사용하면 Amazon S3 성능에 변화가 있습니까?

아니요, Amazon S3에서 IPv4 또는 IPv6 어느 것을 사용하든 성능은 동일합니다.

이벤트 알림

Q: Amazon S3 이벤트 알림이란 무엇입니까?

Amazon S3 이벤트 알림은 PUT, POST, COPY 또는 DELETE와 같은 Amazon S3의 작업에 대한 응답으로 전송될 수 있습니다. 알림 메시지는 Amazon SNS 또는 Amazon SQS를 통해 전송되거나 AWS Lambda로 직접 전송될 수 있습니다.

Q:  Amazon S3 이벤트 알림으로 무엇을 할 수 있습니까?

Amazon S3 이벤트 알림을 사용하면 S3에 저장된 객체의 변경에 대한 응답으로 워크플로우를 실행하거나, 알림을 보내거나, 기타 작업을 수행할 수 있습니다. S3 이벤트 알림을 사용하여 미디어 파일이 업로드되면 이를 트랜스코딩하고, 데이터 파일이 사용 가능해지면 이를 처리하고, S3 객체를 다른 데이터 스토어와 동기화하는 등의 작업을 수행하도록 트리거를 설정할 수 있습니다. 또한, 객체 이름의 접두사 및 접미사에 따라 이벤트 알림을 설정할 수도 있습니다. 예를 들어, “images/"로 시작하는 객체 이름에 대한 알림을 수신하도록 설정할 수 있습니다.

Q:  Amazon S3 이벤트 알림에는 어떤 정보가 포함됩니까?

Amazon S3 이벤트 알림 메시지에 포함되는 정보에 대한 자세한 설명은 Amazon S3 개발자 안내서에서 Amazon S3 이벤트 알림 구성 항목을 참조하십시오.

Q: Amazon S3 이벤트 알림을 설정하려면 어떻게 해야 합니까?

이벤트 알림을 구성하는 방법에 대한 자세한 설명은 Amazon S3 개발자 안내서에서 Amazon S3 이벤트 알림 구성 항목을 참조하십시오. AWS 메시징 서비스에 대한 자세한 내용은 Amazon SNS 설명서Amazon SQS 설명서를 참조하십시오.

Q:  Amazon S3 이벤트 알림을 사용하는 비용은 얼마입니까?

Amazon S3의 이벤트 알림은 추가 비용 없이 사용할 수 있습니다. 이벤트 알림을 전송하기 위해 사용한 Amazon SNS 또는 Amazon SQS에 대한 비용 또는 AWS Lambda 함수를 실행하는 비용만 지불하면 됩니다. 이러한 서비스의 요금 내역은 Amazon SNS, Amazon SQS 또는 AWS Lambda 요금 페이지를 참조하세요.

Amazon S3 Transfer Acceleration

Q:  S3 Transfer Acceleration이란 무엇입니까?

Amazon S3 Transfer Acceleration은 거리가 먼 클라이언트와 Amazon S3 버킷 간에 파일을 빠르고, 쉽고, 안전하게 전송할 수 있게 해줍니다. S3 Transfer Acceleration은 전 세계적으로 분산된 Amazon CloudFront의 AWS 엣지 로케이션을 활용합니다. 데이터가 AWS 엣지 로케이션에 도착하면, 이 데이터는 최적화된 네트워크 경로를 통해 Amazon S3 버킷으로 라우팅됩니다.

Q:   S3 Transfer Acceleration을 시작하려면 어떻게 해야 합니까?

S3 Transfer Acceleration을 시작하려면 Amazon S3 콘솔, Amazon S3 API 또는 AWS CLI를 사용하여 S3 버킷에 대해 S3 Transfer Acceleration을 활성화합니다. S3 Transfer Acceleration이 활성화된 후, Amazon S3 PUT 및 GET 요청이 s3-accelerate 엔드포인트 도메인 이름을 가리키도록 할 수 있습니다. 데이터 전송 애플리케이션이 더 빠른 데이터 전송을 위해 버킷에 액세스하기 위해서는 두 가지 유형의 엔드포인트, 즉 '이중 스택' 엔드포인트용 .s3-accelerate.dualstack.amazonaws.com 또는 .s3-accelerate.amazonaws.com 중 하나를 사용해야 합니다. 표준 데이터 전송을 사용하려면, 일반 엔드포인트를 계속 사용하면 됩니다.

버킷에서 S3 Transfer Acceleration을 지원하기 위해서는 몇 가지 제약 사항이 따릅니다. 자세한 내용은 Amazon S3 개발자 안내서를 참조하십시오.

Q:   S3 Transfer Acceleration의 속도는 어떻게 됩니까?

S3 Transfer Acceleration은 대역폭을 충분히 사용하고, 거리가 처리량에 미치는 영향을 최소화할 수 있으며, 클라이언트의 위치와 상관없이 데이터를 Amazon S3로 일관되게 빠른 속도로 전송할 수 있도록 설계되었습니다. 가속화의 수준은 기본적으로 사용 가능한 대역폭, 소스와 대상 간의 거리, 네트워크 경로의 패킷 손실률에 따라 달라집니다. 일반적으로 소스와 대상 간의 거리가 더 멀고, 사용 가능한 대역폭이 많고, 객체 크기가 클수록 가속화가 잘 되는 것을 볼 수 있습니다.

한 고객은 미국, 유럽 및 아시아 일부에 분산된 글로벌 사용자 기반에서 300MB 파일을 아시아 태평양(시드니) 리전에 있는 버킷으로 수집하는 데 걸리는 시간을 평균 50% 단축했습니다. 다른 고객은 동남아시아와 호주의 사용자가 250MB 파일(50MB 단위로 나누어)을 미국 동부(버지니아 북부) 리전에 있는 S3 버킷으로 업로드할 때 성능이 500% 이상 향상된 사례를 확인했습니다.

속도 비교 도구를 사용하여 여러분의 위치에서 예상되는 성능 혜택을 미리 확인해 보시기 바랍니다!

Q: S3 Transfer Acceleration은 누가 사용해야 합니까?

S3 Transfer Acceleration은 전 세계에서 S3 버킷으로 전송되는 속도를 최적화하도록 설계되었습니다. 지리적으로 분산된 위치에서 중앙 집중식 버킷으로 데이터를 업로드하거나, 대륙 간에 GB 또는 TB 규모의 데이터를 정기적으로 전송하는 경우, S3 Transfer Acceleration을 사용하면 몇 시간 또는 며칠의 데이터 전송 시간을 절약할 수 있습니다.

Q:   S3 Transfer Acceleration은 얼마나 안전합니까?

S3 Transfer Acceleration은 Amazon S3로 전송되는 일반 전송과 같은 보안을 제공합니다. 클라이언트의 IP 주소에 따라 액세스를 제한하는 등 모든 Amazon S3 보안 기능이 지원됩니다. S3 Transfer Acceleration은 표준 TCP를 통해 클라이언트와 통신하며 방화벽을 변경할 필요가 없습니다. AWS 엣지 로케이션에는 어떤 데이터도 저장되지 않습니다.

Q:    S3 Transfer Acceleration이 일반 Amazon S3 전송보다 빠르지 않을 경우는 어떻게 됩니까?

사용자가 S3 Transfer Acceleration을 사용하여 객체를 업로드할 때마다, AWS에서는 S3 Transfer Acceleration이 일반 Amazon S3 전송보다 속도가 빠른지 확인합니다. 동일한 대상 AWS 리전으로 동일한 객체를 전송하는 일반 Amazon S3보다 S3 Transfer Acceleration의 속도가 빠르지 않다고 AWS에서 확인하면, AWS에서는 해당 전송에 대해 S3 Transfer Acceleration 사용 요금을 부과하지 않으며, 해당 업로드는 S3 Transfer Acceleration 시스템을 우회할 수 있습니다.

Q:     멀티파트 업로드에 S3 Transfer Acceleration을 사용할 수 있습니까?

예. S3 Transfer Acceleration은 멀티파트 업로드를 비롯한 모든 버킷 수준의 기능을 지원합니다.

Q:      S3 Transfer Acceleration과 Amazon CloudFront의 PUT/POST 중 어떤 것을 선택해야 합니까?

S3 Transfer Acceleration은 클라이언트와 S3 버킷 간의 TCP 프로토콜을 최적화하고 인텔리전스를 추가하므로, 더 높은 처리량이 필요한 경우 S3 Transfer Acceleration이 더 적합합니다. 객체가 1GB보다 작거나 데이터 세트가 1GB보다 작은 경우, 최적의 성능을 위해서는 Amazon CloudFront의 PUT/POST 명령을 사용하는 것이 좋습니다.

Q:      S3 Transfer Acceleration과 AWS Snow 패밀리(Snowball, Snowball Edge, Snowmobile) 중 어떤 것을 선택해야 합니까?

AWS Snowball 패밀리는 대용량 데이터 배치를 한 번에 옮기려는 고객에게 적합합니다. AWS Snowball은 보통 한번 사용하는 데 5~7일이 걸립니다. 경험으로 보아, S3 Transfer Acceleration은 1Gbps 라인을 충분히 사용할 수 있는 경우 같은 시간에 최대 75TB를 전송할 수 있습니다. 일반적으로, 인터넷을 통해 전송하는 데 일주일보다 오래 걸리거나, 반복되는 전송 작업이 있고 사용 가능한 대역폭이 25Mbps보다 큰 경우, S3 Transfer Acceleration이 적합한 옵션입니다. 또 다른 옵션은 둘 다 사용하는 것입니다. 용량이 큰 초기 전송에는 AWS Snowball(또는 AWS Snowball 시리즈)을 사용한 다음, 지속적인 증분 변경은 S3 Transfer Acceleration을 통해 전송합니다.

Q:      S3 Transfer Acceleration으로 AWS Direct Connect를 보완할 수 있습니까?

AWS Direct Connect는 프라이빗 네트워킹이 필요하거나, AWS Direct Connect 교환에 액세스할 수 있는 고객에게 적합한 옵션입니다. S3 Transfer Acceleration은 분산된 클라이언트 위치에서 퍼블릭 인터넷을 통해 데이터를 전송하거나, 가변적인 네트워크 환경으로 처리량이 낮은 경우에 적합합니다. 일부 AWS Direct Connect 고객은 열악한 인터넷 성능의 영향을 받는 원격 사무실 전송에 S3 Transfer Acceleration을 사용합니다.

Q:      S3 Transfer Acceleration으로 AWS Storage Gateway 또는 타사 게이트웨이를 보완할 수 있습니까?

타사 게이트웨이의 버킷 대상에서 S3 Transfer Acceleration 엔드포인트 도메인 이름을 사용하도록 구성할 수 있다면 이점을 확인할 수 있을 것입니다.

AWS 구현에 대한 자세한 내용은 Storage Gateway FAQ의 파일 섹션을 참조하세요.

Q:     S3 Transfer Acceleration으로 타사 통합 소프트웨어를 보완할 수 있습니까?

예. Amazon S3에 직접 연결되는 소프트웨어 패키지는 작업을 Amazon S3로 전송할 때 S3 Transfer Acceleration을 활용할 수 있습니다.

스토리지 파트너 솔루션에 대해 자세히 알아보기 »

Q:      S3 Transfer Acceleration이 HIPAA 적격 서비스입니까?

예. AWS는 Amazon S3 Transfer Acceleration을 HIPAA 적격 서비스로 포함하도록 HIPAA 규정 준수 프로그램을 확장했습니다. AWS와 BAA(Business Associate Agreement)를 체결한 경우 Amazon S3 Transfer Acceleration을 사용하여 거리가 먼 클라이언트와 Amazon S3 버킷 간에 PHI(개인 건강 정보)를 비롯한 파일을 빠르고, 쉽고, 안전하게 전송할 수 있습니다.

HIPAA 규정 준수에 대해 자세히 알아보기 »

보안

Q:  Amazon S3에 있는 내 데이터는 얼마나 안전합니까?     

Amazon S3는 기본적으로 안전합니다. 리소스를 생성하면, 리소스 소유주만 자신이 생성하는 Amazon S3 리소스에 액세스할 수 있습니다. Amazon S3는 데이터에 대한 액세스를 제어하기 위해 사용자 인증을 지원합니다. 버킷 정책 및 ACL(액세스 제어 목록)과 같은 액세스 제어 메커니즘을 사용해 선택적으로 사용자 및 사용자 그룹에 권한을 부여할 수 있습니다. Amazon S3 콘솔은 공개적으로 액세스할 수 있는 버킷을 강조 표시하고, 공개적으로 액세스가 가능한 소스를 표시하며, 사용자가 버킷 정책 또는 버킷 ACL을 변경하는 경우 버킷이 공개적으로 액세스할 수 있는 상태가 될 수 있음을 경고합니다. 퍼블릭 액세스를 원하지 않는 모든 계정 및 버킷에 대해 퍼블릭 액세스 차단을 활성화해야 합니다. 

HTTPS 프로토콜을 사용하는 SSL 엔드포인트를 통해 Amazon S3에 데이터를 안전하게 업로드/다운로드할 수 있습니다. 추가 보안이 필요한 경우 서버 측 암호화(SSE) 옵션을 사용하여 저장 데이터를 암호화할 수 있습니다. 수신되는 스토리지 요청에 암호화 정보가 없는 경우 객체를 저장하기 전에 자동으로 암호화하도록 Amazon S3 버킷을 구성할 수 있습니다. 또는 Amazon S3에 저장하기 전에 자체 암호화 라이브러리를 사용하여 데이터를 암호화할 수도 있습니다.

AWS의 보안에 대한 자세한 내용은 AWS 보안 페이지, S3 보안 정보는 S3 보안 페이지 또는 S3 보안 모범 사례 안내서를 참조하세요.

Q: Amazon S3에 저장된 데이터에 대한 액세스를 제어하려면 어떻게 해야 합니까?

Identity and Access Management(IAM) 정책, 버킷 정책, ACL(액세스 제어 목록) 및 쿼리 문자열 인증의 네 가지 메커니즘을 사용해 Amazon S3 리소스에 대한 액세스를 제어할 수 있습니다. 직원이 여러 명인 조직은 IAM을 통해 하나의 AWS 계정에서 여러 사용자를 생성하고 관리할 수 있습니다. 고객은 IAM 정책을 사용해 IAM 사용자에게 Amazon S3 버킷 또는 객체에 대한 세분화된 제어 권한을 부여하는 동시에 사용자가 하는 모든 작업을 완전히 제어할 수 있습니다. 버킷 정책을 사용하면 Amazon S3 리소스의 하위 세트에 대한 쓰기 권한을 부여하는 등 Amazon S3 리소스에 대한 모든 요청에 폭넓게 적용할 규칙을 정의할 수 있습니다. 고객은 HTTP 참조자나 IP 주소와 같은 요청의 측면을 기준으로 액세스를 제한할 수도 있습니다. 또, ACL을 사용해 개별 버킷 또는 객체의 특정 사용자에게 특정 권한(READ, WRITE, FULL_CONTROL)을 부여할 수 있습니다. 쿼리 문자열 인증을 사용하면 제한된 시간에만 유효한 Amazon S3 객체의 URL을 생성할 수 있습니다. Amazon S3에서 사용할 수 있는 다양한 액세스 제어 정책에 대한 자세한 내용은 Amazon S3 개발자 안내서액세스 제어 항목을 참조하십시오.

Q:  Amazon S3에서는 데이터 액세스 감사 기능을 지원합니까?

예. 고객은 필요에 따라 Amazon S3 버킷에 전달된 모든 요청에 대한 액세스 로그 레코드를 생성하도록 Amazon S3 버킷을 구성할 수 있습니다. 또는 로그의 IAM/사용자 자격 증명 정보를 캡처해야 하는 고객은 AWS CloudTrail 데이터 이벤트를 구성할 수도 있습니다.

이러한 액세스 로그 레코드는 감사 목적으로 사용할 수 있으며, 요청 유형, 요청에 지정된 리소스, 요청이 처리된 시간 및 날짜와 같은 요청에 대한 세부 정보를 포함할 수 있습니다.

Q:  Amazon S3에 저장된 데이터를 암호화하는 옵션이 있습니까?

SSE-S3, SSE-C, SSE-KMS 또는 Amazon S3 암호화 클라이언트 같은 클라이언트 라이브러리를 사용하여 데이터를 암호화하도록 선택할 수 있습니다. 이러한 네 가지 옵션을 사용하여 민감한 상주 데이터를 암호화해 Amazon S3에 저장할 수 있습니다.

SSE-S3는 Amazon이 다중 보안 계층을 사용하여 키 관리 및 키 보호를 처리하는 통합 솔루션을 제공합니다. Amazon에서 키를 관리하도록 하려면 SSE-S3를 선택해야 합니다.

SSE-C를 사용하면 Amazon S3를 활용하여 객체의 암호화 및 암호 해독을 수행하는 동시에 객체를 암호화하는 데 사용된 키에 대한 제어 권한을 유지할 수 있습니다. SSE-C를 사용하면 Amazon S3에 저장한 객체에 대한 암호화 및 암호 해독을 수행하기 위해 클라이언트 측 라이브러리를 구현하거나 사용하지 않아도 되지만, 객체를 암호화하거나 해독하기 위해 Amazon S3로 전송한 키는 관리해야 합니다. 자체 암호화 키를 유지 관리하고 싶지만 클라이언트 측 암호화 라이브러리를 구현하거나 활용하고 싶지 않은 경우에는 SSE-C를 사용하십시오.

SSE-KMS를 사용하면 AWS Key Management Service(AWS KMS)를 이용해 암호화 키를 관리할 수 있습니다. AWS KMS를 사용해 키를 관리하면 다양한 이점을 얻을 수 있습니다. AWS KMS를 사용하면 KMS 키를 사용할 수 있는 별도의 권한이 있으므로 Amazon S3에 저장된 객체에 대한 무단 액세스를 차단하고 추가 제어 계층을 제공할 수 있습니다. AWS KMS는 감사 추적을 제공하므로 데이터 암호 해독 권한이 없는 사용자의 실패한 데이터 액세스 시도를 볼 수 있을 뿐 아니라 누가 키를 사용해 어떤 객체에 언제 액세스했는지도 확인할 수 있습니다. 또한, AWS KMS는 PCI-DSS, HIPAA/HITECH 및 FedRAMP 산업 요구 사항을 준수하기 위한 고객의 노력을 지원하기 위해 추가 보안 규제 항목을 제공합니다.

Amazon S3 Encryption Client와 같은 암호화 클라이언트 라이브러리를 사용하면 키에 대한 제어 권한을 유지할 수 있으며 원하는 암호화 라이브러리를 사용하여 클라이언트 측 객체 암호화 및 암호 해독을 완료할 수 있습니다. 일부 고객은 객체의 암호화 및 암호 해독에 대한 전체적인 엔드 투 엔드 제어 권한을 선호합니다. 이러한 방법을 사용하면 암호화된 객체만이 인터넷을 통해 Amazon S3로 전송됩니다. 암호화 키에 대한 제어 권한을 유지하고자 하며 클라이언트 측 암호화 라이브러리를 구현 또는 사용할 수 있으며 스토리지를 위해 Amazon S3로 객체를 전송하기 전에 암호화해야 하는 경우에는 클라이언트 측 라이브러리를 사용하십시오.

Amazon S3 SSE-S3, SSE-C 또는 SSE-KMS 사용에 대한 자세한 내용은 Amazon S3 개발자 안내서에서 암호화를 사용하여 데이터 보호 항목을 참조하세요.

Q:  Amazon S3를 사용하여 EU 데이터 프라이버시 규정을 준수할 수 있습니까?

고객은 EU(프랑크푸르트), EU(아일랜드), EU(런던) 또는 EU(파리) 리전을 사용해 모든 데이터를 EU에 저장하도록 선택할 수 있습니다. 또한, S3 on Outposts를 사용해 Outpost에서 모든 데이터를 온프레미스에 저장할 수 있고, Outpost 간 또는 AWS 리전으로 데이터를 전송할 수 있습니다. 귀하가 유럽 개인 정보 보호법을 준수하고 있는지 확인하는 것은 귀하의 책임입니다. 자세한 내용은 AWS GDPR 센터를 참조하세요. 더욱 구체적인 위치 요구 사항이 있거나 AWS 리전이 아닌 위치에 데이터를 저장해야 하는 다른 데이터 보호 규정이 있을 경우, S3 on Outposts를 사용할 수 있습니다.

Q: Amazon S3용 Amazon VPC 엔드포인트란 무엇입니까?

Amazon S3용 Amazon VPC 엔드포인트는 Amazon 글로벌 네트워크를 통해 S3에 연결할 수 있도록 하는 VPC 내의 논리적 엔터티입니다. S3용 VPC 엔드포인트에는 게이트웨이 VPC 엔드포인트와 인터페이스 VPC 엔드포인트의 두 가지 유형이 있습니다. 게이트웨이 엔드포인트는 Amazon 네트워크를 통해 VPC에서 S3에 액세스하기 위해 라우팅 테이블에 지정하는 게이트웨이입니다. 인터페이스 엔드포인트는 프라이빗 IP를 사용하여 VPC, 온프레미스 또는 다른 AWS 리전에서 S3로 요청을 라우팅함으로써 게이트웨이 엔드포인트의 기능을 확장합니다. 자세한 내용은 설명서를 참조하세요.

Q: 특정 Amazon VPC 엔드포인트가 Amazon S3 버킷에 액세스하도록 허용할 수 있나요?

Amazon S3 버킷 정책을 사용하여 특정 Amazon VPC 엔드포인트 또는 엔드포인트 세트에서 버킷에 대한 액세스를 제한할 수 있습니다. 이제 S3 버킷 정책은 액세스 제한에 사용할 수 있는 조건인 aws:sourceVpce를 지원합니다. 자세한 내용과 예제 정책은 VPC 엔드포인트 사용을 참조하세요.

Q: Amazon S3용 AWS PrivateLink란 무엇인가요?

S3용 AWS PrivateLink는 Amazon S3와 온프레미스 간의 프라이빗 연결을 제공합니다. VPC에서 S3용 인터페이스 VPC 엔드포인트를 프로비저닝하여 AWS Direct Connect나 AWS VPN을 통해 S3에 온프레미스 애플리케이션을 직접 연결할 수 있습니다. 이제 온프레미스에서 S3에 액세스하기 위해 인터넷 게이트웨이를 구성하거나 방화벽 규칙을 변경하거나 퍼블릭 IP를 사용할 필요가 없습니다. 자세한 내용은 설명서를 참조하세요.

Q: S3용 인터페이스 VPC 엔드포인트를 시작하려면 어떻게 해야 합니까?

AWS VPC Management Console, AWS CLI, AWS SDK 또는 API를 사용하여 인터페이스 VPC 엔드포인트를 생성할 수 있습니다. 자세한 내용은 설명서를 참조하세요.

Q: 어떠한 경우 게이트웨이 VPC 엔드포인트와 AWS PrivateLink 기반의 인터페이스 VPC 엔드포인트를 선택해야 하나요?

온프레미스 또는 다른 AWS 리전의 VPC에서 S3에 액세스하려는 경우 인터페이스 VPC 엔드포인트를 사용하는 것이 좋습니다. S3와 동일한 AWS 리전에 있는 VPC에서 S3에 액세스하는 리소스의 경우 요금이 청구되지 않으므로 게이트웨이 VPC 엔드포인트를 사용하는 것이 좋습니다. 자세한 내용은 설명서를 참조하세요.

Q: 동일한 VPC에서 S3용 인터페이스 엔드포인트와 게이트웨이 엔드 포인트를 모두 사용할 수 있나요?

예. 기존 게이트웨이 VPC 엔드포인트가 있는 경우 VPC에 인터페이스 VPC 엔드포인트를 생성하고 VPC 엔드포인트 관련 엔드포인트 이름으로 클라이언트 애플리케이션을 업데이트합니다. 예를 들어 인터페이스 엔드포인트의 VPC 엔드포인트 ID가 us-east-1 리전에서 vpce-0fe5b17a0707d6abc-29p5708s인 경우 해당 엔드포인트 관련 DNS 이름은 vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com입니다. 이 경우 해당 VPC 엔드포인트 관련 이름에 대한 요청만 인터페이스 VPC 엔드포인트를 통해 S3로 라우팅되는 반면 다른 모든 요청은 게이트웨이 VPC 엔드포인트를 통해 계속 라우팅됩니다. 자세한 내용은 설명서를 참조하세요.

Q: Amazon Macie란 무엇이며, 데이터를 보안하기 위해 어떻게 사용해야 합니까?

Amazon Macie는 Amazon S3에 저장된 민감한 데이터를 자동으로 검색, 분류 및 보호하여 데이터 손실을 막아주는 AI 기반 보안 서비스입니다. Amazon Macie는 Machine Learning을 사용하여 개인 식별 정보(PII) 또는 지적 재산과 같은 민감한 데이터를 인식하고 비즈니스 가치를 부여하며 이 데이터가 저장된 장소와 이 데이터가 조직에서 어떤 방식으로 사용되는지를 파악합니다. Amazon Macie는 비정상적인 데이터 액세스 활동을 지속적으로 모니터링하여 무단 액세스 또는 의도하지 않은 데이터 유출 위험이 감지될 경우 경고합니다.

Amazon Macie를 사용하여 데이터 및 계정 자격 증명을 지속적으로 모니터링하여 보안 위협을 차단할 수 있습니다. Amazon Macie를 통해 비즈니스 데이터를 간편하게 자동으로 검색 및 분류할 수 있습니다. 또한 의심스러운 동작이나 엔터티 또는 타사 애플리케이션에 대한 무단 데이터 액세스 발견 시 템플릿 기반 Lambda 함수를 통해 제공되는 제어 기능을 사용하여 액세스를 취소하거나 암호 재설정 정책을 트리거할 수 있습니다. 경고가 발생하면 Amazon CloudWatch Events를 사용하여 데이터 보호를 위한 신속한 조치를 취하는 사고 대응에 Amazon Macie를 사용할 수 있습니다. 자세한 내용은 Amazon Macie 사용 설명서를 참조하세요.

Q: Access Analyzer for S3란 무엇이며, 어떻게 작동합니까?

Access Analyzer for S3는 액세스 정책을 모니터링하는 기능으로 정책이 S3 리소스에 의도된 액세스만 제공하도록 보장합니다. Access Analyzer for S3는 버킷 액세스 정책을 평가하여 무단 액세스 가능성이 있는 버킷을 검색하고 신속하게 교정할 수 있게 합니다.

버킷이 인터넷에서 누구나 액세스할 수 있게 구성되어 있거나 다른 AWS 계정과 공유되는 경우 Access Analyzer for S3에서 이를 알립니다. 사용자에게는 퍼블릭 또는 공유 액세스의 소스와 수준에 대한 분석이나 ‘결과’가 전달됩니다. 예를 들어, ACL(액세스 제어 목록)이나 버킷 정책을 통해 읽기 또는 쓰기 액세스가 의도치 않게 제공되는 경우 Access Analyzer for S3에서 이를 선제적으로 알립니다. 이러한 분석을 바탕으로 원하는 액세스 정책을 즉시 설정하거나 복원할 수 있습니다.

검토 결과, 버킷에 대한 공유 액세스 가능성이 있는 경우 S3 관리 콘솔에서 한 번의 클릭으로 버킷에 대한 모든 퍼블릭 액세스를 차단할 수 있습니다. 또한, 버킷 수준 권한 설정으로 드릴다운하여 세부적인 수준의 액세스를 구성할 수 있습니다. 감사를 위해 Access Analyzer for S3 결과를 CSV 보고서로 다운로드할 수 있습니다. 자세한 내용은 IAM Access Analyzer를 참조하세요.

S3 액세스 포인트

Q: Amazon S3 액세스 포인트는 무엇입니까?

이제, 여러 권한 수준을 사용하는 수백 개에 이르는 애플리케이션에 대한 액세스를 제어하는 단일 버킷 정책을 사용하여 S3 버킷에 대한 액세스를 관리합니다.

Amazon S3 액세스 포인트는 S3의 공유 데이터 세트를 사용하여 애플리케이션에 대한 대규모 데이터 액세스 관리를 간소화합니다. S3 액세스 포인트를 사용하여 버킷당 수백 개의 액세스 포인트를 쉽게 생성할 수 있습니다. 즉, 공유 데이터 세트에 대한 액세스를 프로비저닝하는 새로운 방식을 나타냅니다. 액세스 포인트는 고유한 호스트 이름과 액세스 포인트를 통해 생성된 모든 요청에 대해 특정 권한 및 네트워크 제어를 적용하는 액세스 정책을 사용하여 버킷으로의 사용자 지정된 경로를 제공합니다. 자세한 내용은 S3 액세스 포인트 페이지사용 설명서를 참조하세요.

Q: 액세스 포인트는 왜 사용해야 합니까?

S3 액세스 포인트는 S3에서 공유 데이터 집합으로 설정된 애플리케이션에 대한 데이터 액세스를 관리하는 방법을 단순화합니다. 더 이상 수백 개의 서로 다른 권한 규칙을 작성하며, 읽고, 추적하며, 감사해야 하는 하나의 복잡한 버킷 정책을 관리하지 않아도 됩니다. S3 액세스 포인트를 사용하면 이제 특정 애플리케이션에 맞게 조정된 정책으로 공유 데이터 집합에 대한 액세스를 허용하는 애플리케이션 특정 액세스 포인트를 생성할 수 있습니다.

액세스 포인트를 사용하면 대형 버킷 정책을 공유 데이터 집합에 액세스해야 하는 각 애플리케이션에 대해 분리된 개별 액세스 포인트 정책으로 분해할 수 있습니다. 그러면 공유 데이터 집합에서 다른 애플리케이션이 수행하는 작업을 방해하지 않고도, 더 간편하게 애플리케이션에 대한 올바른 액세스 정책을 구축하는 데 집중할 수 있습니다. 또한, 서비스 제어 정책(SCP)을 생성하고 프라이빗 네트워크 안에 데이터에 대한 방화벽을 구축하여 모든 액세스 포인트를 Virtual Private Cloud(VPC)로 제한하도록 요구할 수 있습니다. 

Q: S3 액세스 포인트는 어떻게 작동합니까?

각 S3 액세스 포인트는 사용 사례 또는 애플리케이션에 특정된 액세스 정책으로 구성되며 각 버킷은 수백 개의 액세스 포인트를 보유합니다. 예를 들어, 데이터 레이크에 대해 사용자 그룹 또는 애플리케이션 그룹에 대한 액세스를 부여하는 S3 버킷에 대한 액세스 포인트를 생성할 수 있습니다. 액세스 포인트는 계정 내나 계정 전반에서 단일 사용자나 애플리케이션 또는 사용자 그룹이나 애플리케이션의 그룹을 지원하므로, 각 액세스 포인트를 개별적으로 관리할 수 있습니다. 

개별 액세스 포인트는 단일 버킷에 연결되며, 하나의 네트워크 오리진 제어와 퍼블릭 액세스 차단 제어를 포함합니다. AWS 클라우드의 논리적으로 격리된 섹션인 Virtual Private Cloud에서 스토리지 액세스만 허용하는 네트워크 오리진 제어를 포함하는 액세스 포인트를 생성할 수 있습니다. 또한 정의된 접두사의 객체나 특정 태그가 있는 객체에만 액세스하도록 구성된 액세스 포인트 정책을 포함하는 액세스 포인트를 생성할 수도 있습니다.

두 가지 방법 중 하나로 액세스 포인트를 통해 공유 버킷의 데이터에 액세스할 수 있습니다. S3 객체 작업을 경우 버킷 이름 대신 액세스 포인트 ARN을 사용할 수 있습니다. 표준 S3 버킷 이름 형식의 버킷 이름이 필요한 요청의 경우 대신 액세스 포인트 별칭을 사용할 수 있습니다. S3 액세스 포인트에 대한 별칭은 자동으로 생성되며 데이터 액세스에 버킷 이름을 사용하는 모든 곳에서 S3 버킷 이름과 상호 교환할 수 있습니다. 버킷에 대한 액세스 포인트를 생성할 때마다 S3는 새로운 액세스 포인트 별칭을 자동으로 생성합니다. 호환되는 작업 및 AWS 서비스의 전체 집합을 확인하려면 S3 설명서를 참조하십시오.

Q: 생성할 수 있는 액세스 포인트 수에 대한 할당량이 있습니까?

기본적으로 계정마다 리전당 1,000개의 액세스 포인트를 생성할 수 있습니다. S3 버킷과 달리, AWS 계정당 액세스 포인트 수에 하드 제한은 없습니다. AWS Service Quotas에서 이 할당량 증가를 요청하세요.

Q: 액세스 포인트를 사용할 때 요청은 어떻게 인증됩니까?

S3 액세스 포인트는 자체 IAM 액세스 포인트 정책이 있습니다. 버킷 정책과 같은 방식으로 액세스 포인트 ARN을 리소스로 사용하여 액세스 포인트 정책을 작성합니다. 액세스 포인트 정책은 액세스 포인트를 통해 요청된 S3 데이터에 대한 액세스를 승인하거나 제한합니다. Amazon S3는 요청을 승인할지 결정하기 위해 액세스 제어 목록 뿐 아니라 사용자, 버킷, 액세스 포인트, VPC 종단점 및 서비스 제어 정책에 포함된 모든 관련 정책을 평가합니다.

Q: 액세스 포인트 정책은 어떻게 작성합니까?

정책 문서의 권한과 액세스 포인트 ARN을 제어하는 IAM 규칙을 사용하여 버킷 정책과 같이 액세스 포인트 정책을 작성할 수 있습니다.

Q: 액세스 포인트에 네트워크 오리진 컨트롤을 사용하여 특정 VPC에 액세스를 제한하는 방법은 버킷 정책을 사용하여 VPC에 액세스를 제한하는 방법과 어떻게 다릅니까?

버킷 정책을 사용하여 지정된 VPC에 대한 버킷 액세스를 계속 제한할 수 있습니다. 액세스 포인트는 API 제어를 통해 공유 데이터 세트의 모든 데이터 또는 데이터의 서브셋을 조직의 모든 애플리케이션에 대한 VPC 전용 트래픽으로 잠그는 간편하고 감사 가능한 방법을 제공합니다. AWS Organizations SCP(서비스 제어 정책)를 사용하여 조직에서 생성한 모든 액세스 포인트의 "network origin control" API 파라미터 값을 ‘vpc’로 설정하도록 명령할 수 있습니다. 그리고 생성된 모든 새 액세스 포인트의 데이터 액세스를 VPC 전용 트래픽으로 자동으로 제한합니다. 데이터 요청이 지정된 VPC에서만 처리되도록 하기 위해 추가 액세스 정책은 필요하지 않습니다.

Q: "인터넷 데이터 액세스 불가" 정책을 조직의 모든 액세스 포인트에 적용할 수 있습니까?

예. 조직의 모든 액세스 포인트에 "인터넷 데이터 액세스 불가" 정책을 적용하기 위해 모든 액세스 포인트에서 VPC 전용 액세스를 적용하는지 확인해야 합니다. 이를 위해, create_access_point() API의 "network origin control" 파라미터에 대해 "vpc" 값만 지원하도록 AWS SCP를 작성해야 합니다. 이전에 생성한 액세스 포인트를 지원하는 인터넷이 있으면 제거해야 합니다. 개별 버킷에서 버킷 정책을 수정하여 버킷에 대한 인터넷 액세스를 버킷 호스트 이름을 사용하여 직접 제한해야 합니다. 다른 AWS 서비스에서 버킷에 직접 액세스할 수 있으므로 원하는 AWS에만 액세스를 설정하려면 해당 AWS 서비스만 허용하도록 정책을 수정해야 합니다. 수행 방법의 예제에 대해서는 S3 설명서를 참조하십시오.

Q: 버킷 호스트 이름을 사용하여 버킷에 대한 직접 액세스를 완전하게 비활성화할 수 있습니까?

현재 비활성화할 수 없습니다. 하지만 액세스 포인트를 사용하지 않은 요청을 거부하는 버킷 정책을 연결할 수 있습니다. 자세한 내용은 S3 설명서를 참조하십시오.

Q: 버킷에서 액세스 포인트를 교체하거나 삭제할 수 있습니까?

예. 액세스 포인트를 삭제할 때 다른 액세스 포인트 또는 버킷 호스트 이름을 통해 연결된 액세스는 중단되지 않습니다.

Q: Amazon S3 액세스 포인트 요금은 얼마입니까?

액세스 포인트 또는 액세스 포인트를 사용하는 버킷에 대한 추가 요금은 부과하지 않습니다. 일반 Amazon S3 요청 요금이 적용됩니다.

Q: S3 액세스 포인트를 시작하려면 어떻게 해야 합니까?

AWS 관리 콘솔, AWS 명령줄 인터페이스(CLI), Application Programming Interface(API) 및 AWS Software Development Kit(SDK) 클라이언트를 통해 기존 버킷과 새 버킷에서 S3 액세스 포인트를 생성하기 시작할 수 있습니다. S3 액세스 포인트에 대한 자세한 내용은 사용 설명서를 참조하세요.

내구성 및 데이터 보호

Q: Amazon S3의 내구성은 어느 정도입니까?

Amazon S3 Standard, S3 Standard–IA, S3 Intelligent-Tiering, S3 One Zone-IA, S3 Glacier 및 S3 Glacier Deep Archive는 지정된 한 해 동안 모두 객체에 대해 99.999999999%의 데이터 내구성을 제공하도록 설계되었습니다. 이 내구성 수준은 객체에 대한 연평균 예상 손실률 0.000000001%에 해당합니다. 예를 들어, Amazon S3에 10,000,000개의 객체를 저장할 경우 1만 년 동안 객체 1개가 손실될 확률입니다. S3 on Outposts는 Outpost의 여러 디바이스 및 서버에 걸쳐 데이터를 장기적으로 중복 저장하도록 설계되었습니다. 또한 Amazon S3 Standard, S3 Standard–IA, S3 Glacier 및 S3 Glacier Deep Archive는 모두 전체 S3 가용 영역이 손실되는 경우에도 데이터를 보존할 수 있도록 설계되었습니다.

여느 환경에서나 마찬가지로 모범 사례는 백업을 수행하고 악의적 또는 실수로 인한 삭제에 대비한 보호 조치를 마련하는 것입니다. S3 데이터의 경우, 이러한 모범 사례에는 안전한 액세스 권한, 교차 리전 복제, 버전 관리, 그리고 정상적으로 작동하고 정기적으로 테스트되는 백업이 포함됩니다. 

Q: Amazon S3와 Amazon S3 Glacier는 어떻게 99.999999999% 내구성을 실현하도록 설계되었습니까?

Amazon S3 Standard, S3 Standard-IA 및 S3 Glacier 스토리지 클래스는 SUCCESS 메시지를 반환하기 전에 하나의 Amazon S3 리전 내 최소 3개의 AZ(가용 영역)에 걸쳐 여러 디바이스에 객체를 중복 저장합니다. S3 One Zone-IA 스토리지 클래스는 단일 AZ 내 여러 디바이스에 걸쳐 데이터를 중복 저장합니다. 이러한 서비스는 손실된 중복성을 신속하게 탐지 및 복구하여 동시 디바이스 장애를 견딜 수 있도록 설계되었으며, 또한 체크섬을 사용하여 데이터 무결성을 정기적으로 확인합니다.

Q:  Amazon S3에서 데이터 손상을 감지하기 위해 사용하는 체크섬은 무엇입니까?

Amazon S3는 Content-MD5 체크섬과 주기적 중복 검사(CRC)를 함께 사용해 데이터 손상을 감지합니다. Amazon S3는 저장된 데이터에 이러한 체크섬을 실행하여 중복 데이터를 사용해 손상을 복구합니다. 또한 이 서비스는 데이터를 저장하거나 검색할 때 모든 네트워크 트래픽에 대한 체크섬을 계산하여 데이터 패킷 손상을 감지합니다.

Q:  버전 관리란 무엇입니까?

버전 관리를 사용해 Amazon S3 버킷에 저장된 모든 버전의 모든 객체를 보존, 검색 및 복원할 수 있습니다. 버킷에 버전 관리를 활성화하면 Amazon S3가 기존 객체에서 PUT, POST, COPY 또는 DELETE 작업이 수행될 때마다 해당 객체를 보존합니다. 기본적으로 GET 요청은 가장 최근에 기록된 버전을 검색합니다. 요청에 버전을 지정하면 덮어쓰거나 삭제된 객체의 기존 버전을 검색할 수 있습니다.

Q:  왜 버전 관리를 사용해야 합니까?

Amazon S3는 고객에게 내구성이 뛰어난 스토리지 인프라를 제공합니다. 버전 관리는 고객이 실수로 객체를 덮어쓰거나 삭제할 경우 복구 수단을 제공하여 추가 보호 수준을 제공합니다. 따라서 의도하지 않은 사용자 작업 및 애플리케이션 장애로부터 객체를 쉽게 복구할 수 있습니다. 또한 버전 관리를 사용해 데이터를 보존 및 보관할 수 있습니다.

Q:  버전 관리를 시작하려면 어떻게 해야 합니까?

Amazon S3 버킷에서 설정을 활성화하여 버전 관리를 시작할 수 있습니다. 버전 관리를 활성화하는 방법에 대한 자세한 내용은 Amazon S3 기술 설명서를 참조하십시오.

Q:  버전 관리는 내 객체가 실수로 삭제되는 것을 어떻게 방지합니까?

사용자가 객체에 DELETE 작업을 수행하면 후속 간편(버전 관리되지 않음) 요청에서는 해당 객체를 더는 검색하지 않습니다. 그러나 해당 객체의 모든 버전은 계속해서 Amazon S3 버킷에 보존되므로 검색하거나 복원할 수 있습니다. Amazon S3 버킷 소유자만이 영구적으로 버전을 삭제할 수 있습니다. 수명 주기 규칙을 설정하여 객체의 여러 버전에 대한 저장 기간과 비용을 관리할 수 있습니다.

Q:  삭제와 덮어쓰기에서 복구할 수 있도록 내 Amazon S3 객체에서 휴지통 또는 롤백 기간을 설정할 수 있습니까?

버전 관리와 함께 수명 주기 규칙을 사용하여 Amazon S3 객체에 대한 롤백 기간을 구현할 수 있습니다. 예를 들어 버전 관리가 활성화된 버킷이 있는 경우 모든 이전 버전을 비용이 저렴한 Glacier 스토리지 클래스에 아카이브하고 100일 후 삭제하는 규칙을 설정할 수 있습니다. 이렇게 하면 데이터의 모든 변경 사항을 롤백할 수 있는 100일의 기간이 생길 뿐만 아니라 스토리지 비용을 절감할 수 있습니다.

Q:  내 유지 버전에 대한 보호를 극대화하려면 어떻게 해야 합니까?

버전 관리의 Multi-Factor Authentication(MFA) Delete 기능을 사용하여 추가적인 보안 수단을 제공할 수 있습니다. 기본적으로 Amazon S3 버킷에 전송된 모든 요청에는 AWS 계정 자격 증명이 필요합니다. Amazon S3 버킷에서 MFA Delete로 버전 관리를 활성화한 경우 객체의 버전을 영구적으로 삭제하려면 두 가지 형식의 인증, 즉 AWS 계정 자격 증명과 실제로 소유한 인증 디바이스의 유효한 6자리 코드 및 일련 번호가 필요합니다. 인증 디바이스 구입 및 활성화 방법 등 MFA Delete로 버전 관리를 사용하는 방법에 대한 자세한 내용은 Amazon S3 기술 설명서를 참조하십시오.

Q:  버전 관리 요금은 어떻게 부과됩니까?

저장되거나 요청된 객체의 모든 버전에는 일반 Amazon S3 요금이 적용됩니다. 예를 들어, 버전 관리를 사용할 경우 스토리지 비용을 산정하는 다음 시나리오를 살펴보겠습니다(현재 월의 일수가 31일이라고 가정).

1) 해당 월의 1일: 버킷에서 4GB(4,294,967,296바이트)의 PUT를 수행합니다.
2) 해당 월의 16일: 동일한 버킷 내에서 1일의 원본 PUT와 동일한 키를 사용해 5GB(5,368,709,120바이트)의 PUT를 수행합니다.

위 작업의 스토리지 비용을 분석할 경우 15일에 5GB 객체를 기록할 때 1일의 4GB 객체가 버킷에서 삭제되지 않는다는 점에 유의하십시오. 그 대신, 4GB 객체가 기존 버전으로 보존되고 5GB 객체가 버킷 내에서 가장 최근에 기록된 버전의 객체가 됩니다. 월말:

총 바이트-시간 사용량
[4,294,967,296바이트 x 31일 x (24시간/일)] + [5,368,709,120바이트 x 16일 x (24시간/일)] = 5,257,039,970,304바이트-시간.

총 GB-월로 변환
5,257,039,970,304바이트-시간 x (1GB/1,073,741,824바이트) x (1개월/744시간) = 6.581GB-월

요금은 Amazon S3 요금 페이지에 명시된 고객 리전의 현재 요금을 기준으로 계산됩니다.

스토리지 클래스

S3 Intelligent-Tiering

Q: S3 Intelligent-Tiering이란 무엇입니까?

Amazon S3 Intelligent-Tiering(S3 Intelligent-Tiering)은 운영 오버헤드 없이 가장 비용 효과적인 액세스 계층으로 데이터를 자동으로 이동하여 스토리지 비용을 최적화하기 위해 설계된 S3 스토리지 클래스입니다. 그리고 액세스 패턴이 변화할 때 액세스 계층 사이에서 세분화된 객체 수준으로 객체를 이동하여 자동 비용 절감 효과를 제공하는 최초의 클라우드 스토리지입니다. 액세스 패턴을 알 수 없거나 액세스 패턴이 변화하는 데이터에 대한 스토리지 비용을 최적화하려는 경우에 완벽한 스토리지 클래스입니다. 약간의 월별 객체 모니터링 및 자동화 요금만 지불하면 S3 Intelligent-Tiering에서 액세스 패턴을 모니터링하고 객체를 한 계층에서 다른 계층으로 자동으로 이동합니다. S3 Intelligent-Tiering에는 검색 요금이 없습니다. 나중에 Infrequent Access 티어의 객체에 액세스하는 경우 해당 객체가 자동으로 Frequent Access 티어로 다시 이동됩니다. 객체가 S3 Intelligent-Tiering 스토리지 클래스 내의 액세스 티어 간에 이동될 때는 계층화 요금이 추가로 적용되지 않습니다.

Q: S3 Intelligent-Tiering은 어떻게 작동합니까?

Amazon S3 Intelligent-Tiering 스토리지 클래스는 액세스 패턴이 변화할 때 가장 비용 효과적인 액세스 티어로 데이터를 자동으로 이동하여 스토리지 비용을 최적화하기 위해 설계되었습니다. 약간의 월별 객체 모니터링 및 자동화 요금만 지불하면 이용 가능한 S3 Intelligent-Tiering은 액세스 패턴을 모니터링하여 액세스하지 않은 객체를 저렴한 액세스 계층으로 자동으로 옮깁니다. S3 Intelligent-Tiering은 2개의 대기 시간이 짧고 처리량이 높은 액세스 티어에서 자동 스토리지 비용 절감 효과를 제공합니다. 비동기식으로 액세스할 수 있는 데이터의 경우, 고객은 S3 Intelligent-Tiering 스토리지 클래스 내에서 자동 아키이브 기능을 활성화할 수 있습니다. S3 Intelligent-Tiering에는 검색 요금이 없습니다. 나중에 Infrequent Access 티어의 객체에 액세스하는 경우 해당 객체가 자동으로 Frequent Access 티어로 다시 이동됩니다. 객체가 S3 Intelligent-Tiering 스토리지 클래스 내의 액세스 티어 간에 이동될 때는 계층화 또는 수명 주기 요금이 추가로 적용되지 않습니다.

S3 Intelligent-Tiering은 4개의 액세스 티어, 즉 빈번한 액세스와 간헐적인 액세스에 최적화된 2개의 대기 시간이 짧은 액세스 티어와 비동기 액세스용으로 설계되어 드문 액세스에 최적화된 2개의 선택적 아카이브 액세스 티어에 객체를 저장하는 방식으로 작동합니다. S3 Intelligent-Tiering에 업로드하거나 이전한 객체는 Frequent Access 티어에 자동으로 저장됩니다. S3 Intelligent-Tiering은 30일 연속 액세스되지 않은 객체를 Infrequent Access 티어로 이동합니다. 이 두 아카이브 액세스 티어를 하나 또는 모두 활성화하면 S3 Intelligent-Tiering이 90일 연속으로 액세스되지 않은 객체를 Archive Access 계층으로 이동하고, 이후 180일 연속으로 액세스되지 않으면 다시 Deep Archive Access 계층으로 이동합니다. 검색할 객체가 Archive 또는 Deep Archive Access 계층에 저장되어 있는 경우 객체를 검색하려면 먼저 RestoreObject를 사용하여 객체를 복원해야 합니다. 아카이빙된 객체를 복원하는 방법은 아카이빙된 객체 복원을 참조하세요. 이후에 객체에 액세스하면 객체가 Frequent Access 티어로 다시 이동됩니다. 검색 요금이 없으므로 액세스 패턴이 변화할 때 스토리지 청구 요금이 예기치 않게 증가하는 경우는 없습니다.

Q: 왜 S3 Intelligent-Tiering을 사용해야 하나요?

S3 Intelligent-Tiering은 2개 계층으로 구성된 유일한 스토리지 클래스입니다. 데이터를 바로 이동해야 할 때는 Frequent Access 계층에서 높은 처리량과 짧은 대기 시간을 지원할 수 있으며, 데이터 사용을 중단할 때 월별 TB당 1 USD의 저렴한 요금을 지원하는 2개의 선택적 Archive Access 계층으로 구성되어 있습니다. S3 Intelligent-Tiering은 액세스 패턴을 알 수 없거나 액세스 패턴이 변경되는 데이터에 적합합니다. 객체의 하위 세트에 오랫동안 거의 액세스하지 않아 액세스 패턴이 변경된 데이터 세트의 경우 Archive Access 계층을 통해 스토리지 비용을 최대 95% 절감할 수 있습니다.

Q: S3 Intelligent-Tiering은 어떤 성능을 제공합니까?

S3 Intelligent-Tiering Frequent 및 Infrequent Access 계층은 짧은 대기 시간과 높은 처리량의 성능을 제공합니다. Archive Access 계층은 S3 Glacier와 동일한 성능을 지원하며, Deep Archive Access 계층은 S3 Glacier Deep Archive 스토리지 클래스와 동일한 성능을 지원합니다. 애플리케이션에서 객체에 비동기적으로 액세스할 수 있는 경우에만 Archive Access 계층을 활성화해야 합니다. 검색할 객체가 Archive 또는 Deep Archive Access 계층에 저장되어 있는 경우 객체를 검색하려면 먼저 RestoreObject를 사용하여 객체를 복원해야 합니다. 아카이브된 객체를 복원하는 방법은 아카이브된 객체 복원을 참조하세요. Archive Access 계층의 객체는 3-5시간 이내에 Frequent Access 계층으로 이동되고, Deep Archive Access 계층에 있는 경우 12시간 이내에 이동됩니다. Archive Access 계층의 객체에 더 빠르게 액세스해야 하는 경우 콘솔에서 더 빠른 검색 속도 옵션을 선택하여 더 빠른 검색에 대한 요금을 지불할 수 있습니다.

Q: S3 Intelligent-Tiering의 내구성과 가용성은 얼마나 됩니까?

S3 Intelligent-Tiering은 S3 Standard 스토리지 클래스와 동일한 99.999999999% 내구성을 제공하도록 설계되었습니다. S3 Intelligent-Tiering은 99.9% 가용성을 제공하도록 설계되었으며, 어떤 결제 주기에서든 가용성이 서비스 약정에 미달하는 경우 서비스 수준 계약에 따라 서비스 크레딧을 제공합니다.

Q: S3 Intelligent-Tiering으로 데이터를 가져오려면 어떻게 해야 합니까?

S3 Intelligent-Tiering으로 데이터를 가져오려면 두 가지 방법을 사용할 수 있습니다. x-amz-storage 헤더에 INTELLIGENT_TIERING을 지정하여 S3 Intelligent-Tiering으로 직접 PUT하거나, S3 Standard 또는 S3 Standard-IA에서 S3 INTELLIGENT_TIERING으로 객체를 전환하도록 수명 주기 정책을 설정할 수 있습니다.

Q: S3 Intelligent-Tiering 요금은 어떻게 청구되나요?

S3 Intelligent-Tiering에서는 월별 스토리지, 요청 및 데이터 전송에 따라 요금을 청구하며, 객체당 모니터링 및 자동화에 대한 약간의 월별 요금도 청구합니다. S3 Intelligent-Tiering 스토리지 클래스는 2개의 스토리지 액세스 티어인 Frequent Access 티어(S3 Standard 스토리지 요금)와 Infrequent Access 티어(S3 Standard-Infrequent Access Storage 요금)에 객체를 저장합니다. 또한 S3 Intelligent-Tiering에는 2개의 선택적인 아카이브 티어인 Archive Access 티어(S3 Glacier 스토리지 요금)와 Deep Archive Access 티어(S3 Glacier Deep Archive 스토리지 요금)가 있습니다.

S3 Intelligent-Tiering에는 검색 요금이 없습니다. 약간의 모니터링 및 자동화 요금만 지불하면 이용 가능한 S3 Intelligent-Tiering에서 액세스 패턴을 모니터링하고 2개의 액세스 티어에서 자동으로 객체를 이동하여 2개의 선택적인 비동기식 아카이브 액세스 티어와 함께 스토리지 비용 및 성능을 최적화합니다.

S3 Intelligent-Tiering에는 청구 가능한 최소 객체 크기가 없지만, 128KB보다 작은 객체는 자동 계층화에 적합하지 않습니다. 이러한 작은 객체는 모니터링하지 않으며 모니터링 및 자동화 요금 없이 항상 Frequent Access 티어 요금이 부과됩니다. S3 Intelligent-Tiering에서 Archive Access 티어 또는 Deep Archive Access 티어에 아카이브된 각 객체의 경우 Amazon S3에서는 객체 및 기타 메타데이터 이름을 위해 8KB의 스토리지(S3 Standard 스토리지 요금으로 요금이 청구됨)와 인덱스 및 관련 메타데이터를 위해 32KB의 스토리지(S3 Glacier 및 S3 Glacier Deep Archive 스토리지 요금으로 요금이 청구됨)를 사용합니다.

Q: S3 Intelligent-Tiering의 Archive Access 계층을 활성화하려면 어떻게 해야 합니까?

Amazon S3 API, CLI 또는 S3 관리 콘솔에서 버킷, 접두사 또는 객체 태그 수준 구성을 생성하여 Archive Access 계층 및 Deep Archive Access 계층을 활성화할 수 있습니다. 애플리케이션에서 객체에 비동기적으로 액세스할 수 있는 경우에만 Archive Access 계층 중 하나 또는 모두를 활성화해야 합니다.

Q: S3 Intelligent-Tiering 스토리지 클래스에 객체를 아카이브하기 전에 기간을 늘릴 수 있습니까?

예. 버킷, 접두사 또는 객체 태그 수준 구성에서 S3 Intelligent-Tiering에 객체를 아카이브하는 마지막 액세스 시간을 늘릴 수 있습니다. 이 기능을 활성화하면 기본적으로 최소 90일 연속으로 액세스하지 않은 객체는 Archive Access 계층으로 자동으로 이동됩니다. 최소 180일 연속으로 액세스하지 않은 객체는 Deep Archive Access 계층으로 자동으로 이동됩니다. S3 Intelligent-Tiering에서 자동 아카이브를 수행하기 전에 마지막 액세스 이후 연속 일수에 대한 기본 구성은 최대 2년까지 늘릴 수 있습니다.

Q: S3 Intelligent-Tiering 스토리지 클래스에서 Archive Access 또는 Deep Archive Access 계층의 객체에 액세스하려면 어떻게 해야 합니까?

Archive Access 또는 Deep Archive Access 계층의 객체에 액세스하려면 복원 요청을 실행해야 합니다. 그러면 S3 Intelligent-Tiering 스토리지 클래스의 모든 객체가 Frequent Access 계층으로 다시 이동하기 시작합니다. Archive Access 계층의 객체는 3-5시간 이내에 Frequent Access 계층으로 이동되고, Deep Archive Access 계층의 객체는 12시간 이내에 Frequent Access 계층으로 이동됩니다. Frequent Access 계층에 객체가 배치되면 GET 요청을 실행하여 객체를 검색할 수 있습니다.

Q: 객체가 저장된 S3 Intelligent-Tiering의 액세스 계층을 확인하려면 어떻게 해야 합니까?

Amazon S3 Inventory를 사용하여 S3 Intelligent Tiering 스토리지 클래스에 저장된 객체의 액세스 계층을 보고할 수 있습니다. Amazon S3 Inventory는 일 또는 주 단위로 S3 버킷이나 공유된 접두사에 대한 객체 및 해당 메타데이터를 나열하는 CSV, ORC 또는 Parquet 출력 파일을 제공합니다. 또한, 객체에서 HEAD 요청을 수행하여 S3 Intelligent-Tiering Archive Access 계층을 보고할 수도 있습니다.

Q: S3 Intelligent-Tiering에 대한 최소 기간이 있습니까?

아니요. S3 Intelligent-Tiering 스토리지 클래스에는 최소 스토리지 기간이 없습니다.

Q: S3 Intelligent-Tiering에 대한 청구 가능한 최소 객체 크기가 있나요?

아니요. S3 Intelligent-Tiering 스토리지 클래스에는 청구 가능한 최소 객체 크기가 없지만, 128KB보다 작은 객체는 자동 계층화에 적합하지 않습니다. 이러한 작은 객체는 모니터링 및 자동화 요금 없이 항상 Frequent Access 티어 요금이 부과됩니다. S3 Intelligent-Tiering에서 Archive Access 티어 또는 Deep Archive Access 티어에 아카이브된 각 객체의 경우 Amazon S3에서는 객체 및 기타 메타데이터 이름을 위해 8KB의 스토리지(S3 Standard 스토리지 요금으로 요금이 청구됨)와 인덱스 및 관련 메타데이터를 위해 32KB의 스토리지(S3 Glacier 및 S3 Glacier Deep Archive 스토리지 요금으로 요금이 청구됨)를 사용합니다. 자세한 내용은 Amazon S3 요금 페이지를 참조하십시오. 

S3 Standard-Infrequent Access(S3 Standard-IA)

Q:  S3 Standard-Infrequent Access란 무엇입니까?

Amazon S3 Standard-Infrequent Access(S3 Standard-IA)는 액세스 빈도가 낮지만 필요할 때 빠르게 액세스해야 하는 데이터를 위한 Amazon S3 스토리지 클래스입니다. S3 Standard-IA는 저렴한 GB당 스토리지 요금과 GB당 검색 요금으로 Amazon S3 스탠다드 스토리지 클래스의 뛰어난 내구성, 처리량 및 짧은 지연을 제공합니다. 저렴한 비용과 뛰어난 성능의 조합을 제공하는 S3 Standard-IA는 장기 스토리지, 백업 및 재해 복구용 데이터 스토어에 적합합니다. S3 스탠다드–IA 스토리지 클래스는 객체 수준에서 설정되며 S3 스탠다드 또는 S3 One Zone-IA 스토리지 클래스와 같은 버킷에 존재할 수 있으므로, 애플리케이션 변경 없이 S3 수명 주기 정책을 사용하여 스토리지 간에 자동으로 객체를 전환할 수 있습니다.

Q:  왜 S3 Standard–IA를 사용해야 합니까?

S3 스탠다드–IA는 액세스 빈도가 낮지만 필요할 때 빠르게 액세스해야 하는 데이터에 적합합니다. S3 Standard–IA는 장기 파일 스토리지, 이전 동기화 및 공유 스토리지, 다른 오래된 데이터에 적합합니다.

Q: S3 Standard–IA가 제공하는 성능은 어떻습니까?

S3 Standard–IA는 S3 Standard 스토리지 클리스와 동일한 지연 시간 및 처리 성능을 제공합니다. 

 

Q: S3 Standard-IA에 데이터를 저장하려면 어떻게 해야 합니까?

S3 스탠다드–IA에 데이터를 저장하는 방법에는 2가지가 있습니다. x-amz-storage-class 헤더에 STANDARD_IA를 지정하여 S3 스탠다드–IA로 데이터를 직접 PUT할 수 있습니다. 또한, 수명 주기 정책을 설정하여 S3 Standard에서 S3 Standard–IA 스토리지 클래스로 객체를 전환할 수도 있습니다.

Q: COPY 요청을 통해 객체의 스토리지 클래스를 S3 Standard-IA에서 S3 Standard로 변경할 경우 어떤 비용이 발생합니까?

S3 스탠다드-IA COPY 요청과 S3 스탠다드-IA 데이터 검색에 대한 비용이 발생합니다.

Q:  S3 Standard-IA에는 최소 스토리지 기간 비용이 있습니까?

S3 스탠다드–IA는 수명이 길지만 액세스 빈도가 낮은 데이터를 수개월 또는 수년 동안 유지하도록 설계되었습니다. 30일 이내에 S3 스탠다드–IA에서 삭제된 데이터는 30일 전체에 대한 요금이 부과됩니다. S3 Standard–IA 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q:  S3 Standard-IA에는 최소 객체 스토리지 요금이 있습니까?

S3 스탠다드-IA는 크기가 큰 객체를 위해 설계되었으며 128KB의 최소 객체 스토리지 요금이 있습니다. 크기가 128KB보다 작은 객체에도 객체가 128KB일 때와 같은 스토리지 요금이 발생합니다. 예를 들어, S3 Standard-IA에 저장된 6KB 객체에는 6KB에 대한 S3 Standard-IA 스토리지 요금과 122KB에 해당하는 최소 객체 크기 요금이 추가로 발생하며, 122KB에 대한 요금은 S3 Standard–IA 스토리지 요금을 따릅니다. S3 Standard-IA 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: S3 Standard-IA에서 S3 One Zone-IA 또는 S3 Glacier로 객체를 계층화할 수 있습니까?

예. 수명 주기 정책을 사용하여 객체를 S3 Standard에서 S3 Standard-IA로 마이그레이션할 수 있을 뿐 아니라, S3 Standard-IA에서 S3 One Zone-IA 또는 S3 Glacier로 객체를 계층화하도록 수명 주기 정책을 설정할 수도 있습니다.

S3 One Zone-Infrequent Access(S3 One Zone-IA)

Q:  S3 One Zone-IA 스토리지 클래스란 무엇입니까?

S3 One Zone-IA 스토리지 클래스는 고객이 단일 가용 영역에 객체를 저장하도록 선택할 수 있는 Amazon S3 스토리지 클래스입니다. S3 One Zone-IA 스토리지는 단일 가용 영역 내에 데이터를 중복으로 저장하여, 지리적으로 분리된 여러 가용 영역 전체에 데이터를 중복 저장하는 지리적으로 중복된 S3 스탠다드-IA 스토리지보다 20% 저렴하게 스토리지 제공합니다.

S3 One Zone-IA는 99%의 가용성 SLA를 제공하며, 가용 영역 내에서 99.999999999%의 내구성을 제공하도록 설계되었습니다. 그러나 S3 One Zone-IA 스토리지 클래스의 데이터는 전체 가용 영역의 물리적 손실에 대해 복원력이 유지되지 않습니다.

S3 One Zone-IA 스토리지는 S3 Standard 및 S3 Standard-IA와 같은 Amazon S3 기능을 제공하며, Amazon S3 API, CLI 및 콘솔을 통해 사용할 수 있습니다. S3 One Zone-IA 스토리지 클래스는 객체 수준에서 설정되며 S3 스탠다드 및 S3 스탠다드-IA 스토리지 클래스와 같은 버킷에 존재할 수 있습니다. S3 수명 주기 정책을 사용하여 애플리케이션 변경 없이 자동으로 스토리지 클래스 간에 객체를 전환할 수 있습니다.

Q:  S3 One Zone-IA 스토리지 클래스에 가장 적합한 사용 사례는 무엇입니까?

고객은 백업 복사본, 재해 복구 복사본 또는, 손쉽게 재생성 가능한 기타 데이터 등 자주 액세스하지 않는 스토리지에 S3 One Zone-IA를 사용할 수 있습니다.

Q: S3 One Zone-IA 스토리지가 제공하는 성능은 어떻습니까?

S3 One Zone-IA 스토리지 클래스는 S3 Standard 및 S3 Standard-Infrequent Access 스토리지 클래스와 동일한 지연 시간 및 처리량 성능을 제공합니다.

Q: S3 One Zone-IA 스토리지 클래스의 내구성은 어떻습니까?

S3 One Zone-IA 스토리지 클래스는 가용 영역 내에서 99.999999999%의 내구성을 제공하도록 설계되었습니다. 그러나 S3 One Zone-IA 스토리지 클래스의 데이터는 가용 영역의 물리적 손실 또는 가용성 손실에 대해 복원력이 유지되지 않습니다. 반면에 S3 Standard, S3 Intelligent-Tiering, S3 Standard-Infrequent Access 및 S3 Glacier 스토리지는 가용 영역이 가용성을 상실하거나 완전히 파괴되는 것을 견디도록 설계되었습니다. S3 One Zone-IA는 가장 최신의 물리적 데이터 센터와 같거나 뛰어난 내구성 및 가용성을 제공하는 동시에 스토리지 탄력성과 Amazon S3 기능 세트라는 추가적인 이점을 제공합니다.

Q: S3 One Zone-IA에서 "Zone"은 AWS 가용 영역과 같은 의미입니까?

예. 각 AWS 리전은 별도의 지리적 영역입니다. 각 지역은 가용 영역이라고 알려진 격리된 위치를 여러 개 가지고 있습니다. Amazon S3 One Zone-IA 스토리지 클래스는 리전 내 개별 AWS 가용 영역 1개를 사용합니다.

Q: S3 One Zone-IA를 사용하면 재해 복구 보호를 어느 정도 포기해야 합니까?

각 가용 영역은 중복 전력 및 네트워킹을 사용합니다. AWS 리전 내 가용 영역은 서로 다른 범람원 및 지진 단층 지역에 위치하며 화재 보호를 위해 지리적으로 분리되어 있습니다. S3 Standard 및 S3 Standard-IA 스토리지 클래스는 여러 가용 영역에 데이터를 중복으로 저장하여 이러한 종류의 재해로부터 보호합니다. S3 One Zone-IA는 가용 영역 내에서 장비 결함에 대한 보호를 제공하지만, 가용 영역의 물리적 손실(지진 및 홍수와 같은 자연재해로 인한 손실)에 대해 복원력이 유지되지 않습니다. S3 One Zone-IA, S3 Standard 및 S3 Standard-IA를 사용하면 스토리지의 내구성 및 가용성 요구 사항에 가장 적합한 스토리지 클래스를 선택할 수 있습니다.

S3 on Outposts

Q:  Amazon S3 on Outposts는 무엇입니까?

Amazon S3 on Outposts는 S3 API와 현재 AWS에서 사용하는 기능을 통해 온프레미스 환경에 객체 스토리지를 제공합니다. AWS Outposts는 AWS 인프라, AWS 서비스, API 및 도구를 사실상 모든 데이터 센터, 코로케이션 공간, 온프레미스 시설로 확장하는 완전관리형 서비스입니다. S3 on Outposts를 사용하면 AWS 리전으로 옮기기 전에 온프레미스에서 생성된 고객 데이터를 안전하게 처리, 저장하거나, 로컬 위치에서 온프레미스에서 실행되는 애플리케이션의 데이터에 액세스하거나, 데이터 레지던시 요구 사항이 적용되는 위치나 규제받는 산업이 있는 지역의 기업이 Outpost에 데이터를 저장할 수 있습니다. S3 on Outposts에 대한 자세한 내용은 개요 페이지를 참조하세요.
 

Amazon S3 Glacier

Q: Amazon S3 Glacier란 무엇입니까?

Amazon S3 Glacier는 데이터 보관을 위한 안전하고 내구성을 지원하는 저렴한 스토리지 클래스입니다. 온프레미스 솔루션과 비슷하거나 더 저렴한 비용으로 원하는 양의 데이터를 안정적으로 저장할 수 있습니다. 비용을 낮게 유지하면서 동시에 다양한 요구를 지원하기 위해 Amazon S3 Glacier는 몇 분에서 몇 시간까지 소요되는 세 가지 검색 옵션을 제공합니다. Amazon S3 Glacier에 객체를 직접 업로드하거나, S3 수명 주기 정책을 사용하여 활성 데이터를 위한 모든 Amazon S3 스토리지 클래스(S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA)에서 S3 Glacier로 데이터를 전송할 수 있습니다.

Q:  왜 Amazon S3 Glacier를 사용하도록 선택해야 합니까?

Amazon S3 Glacier는 데이터 아카이브, 장기 백업 및 오프사이트 데이터 스토리지의 요구 사항에 이상적입니다. Amazon S3 Glacier는 일년에 한두 번 액세스하는 장기 아카이브 데이터 세트를 위한 저비용 옵션으로, 몇 분 이내에서 최대 12시간까지 검색을 지원할 수 있습니다. 아카이브 사용 사례의 일부 예로는 디지털 미디어 아카이브, 금융 및 의료 기록, 원시 게놈 서열 데이터, 장기 데이터베이스 백업 및 규제 준수를 위해 보관해야 하는 데이터가 있습니다.

Q: Amazon S3 Glacier에 내 데이터를 저장하려면 어떻게 해야 합니까?

Amazon S3 Glacier에 데이터를 저장하는 방법에는 2가지가 있습니다. x-amz-storage-class 헤더에 Glacier를 지정하여 Amazon S3 Glacier에 데이터를 직접 추가할 수 있습니다. 또한 S3 수명 주기 정책을 사용하여 활성 데이터를 위한 모든 Amazon S3 스토리지 클래스(S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA 및 S3 One Zone-IA)에서 개체 연령을 기준으로 Amazon S3 Glacier로 개체를 전환할 수 있습니다. Amazon S3 관리 콘솔, AWS SDK 또는 Amazon S3 API를 사용하여 Amazon S3 Glacier에 직접 넣거나 보관 규칙을 정의합니다.

참고: Amazon S3 Glacier는 원본의 직접 Glacier API와 Amazon S3 Glacier Management Console을 통해서도 이용할 수 있습니다. 수명 주기 관리, S3 복제, S3 스토리지 렌즈 등을 포함한 전체 S3 기능 세트를 보다 잘 활용하려면 S3 API 및 S3 관리 콘솔을 사용하여 S3 Glacier 기능을 사용하는 것이 좋습니다.

Q: Amazon S3 Glacier에 아카이브된 객체를 검색하려면 어떻게 해야 하며, 객체가 복원될 때 알림을 받습니까?

Amazon S3 Glacier에 보관된 객체는 비동기식으로 액세스됩니다. Amazon S3 Glacier 스토리지 클래스에 저장된 데이터를 검색하려면 Amazon S3 API 또는 Amazon S3 관리 콘솔을 사용하여 검색 요청을 시작합니다. 검색 요청은 아카이브된 데이터를 Amazon S3 Glacier에 그대로 두고 데이터의 임시 복사본을 S3 Standard-IA 스토리지 클래스에 생성합니다. Amazon S3에 임시 복사본을 저장할 기간(일수)을 지정할 수 있습니다. 그런 다음 아카이브된 객체에 대한 Amazon S3 GET 요청을 통해 S3의 임시 복사본에 액세스할 수 있습니다.

복원 알림 기능으로 객체가 S3 Glacier에서 성공적으로 복원되고 임시 복사본이 사용 가능하게 될 때 S3 이벤트 알림을 받을 수 있습니다. 버킷 소유자(또는 IAM 정책에서 허용되는 경우 다른 사람)는 Amazon Simple Queue Service(SQS) 또는 Amazon Simple Notification Service(SNS)로 알림을 실행하도록 설정할 수 있습니다. Lambda 함수를 통해 처리하기 위해 AWS Lambda로 알림을 전송할 수도 있습니다.

Q: Amazon S3 Glacier에 아카이브된 객체를 복원하는 데 시간이 얼마나 걸립니까?

검색 작업을 처리할 때 Amazon S3는 먼저 요청된 데이터를 Amazon S3 Glacier에서 검색한 다음 요청된 데이터의 임시 복사본을 Amazon S3에 만듭니다. 이 과정은 일반적으로 몇 분이 소요됩니다. 요청에 걸리는 액세스 시간은 선택한 검색 옵션(긴급, 표준 또는 대량 검색)에 따라 다릅니다. 긴급 검색을 사용하면 가장 큰 객체(250MB 이상)를 제외하고 모든 아카이브에서 보통 1~ 5분 이내에 데이터에 액세스할 수 있습니다. 표준 검색을 사용해 객체를 검색하면 보통 완료하는 데 3~5시간이 걸립니다. 대량 검색은 보통 5~12시간 이내에 완료됩니다. Amazon S3 Glacier 검색 옵션에 대한 자세한 내용은 S3 사용 설명서에서 보관된 객체 복원을 참조하세요.

Amazon S3 Glacier 프로비저닝 용량 단위를 사용하여 특정 월에 대해 고정 선불 요금을 지불하면 Amazon S3 Glacier에서 신속하게 검색할 수 있는 검색 용량을 확보할 수 있습니다. 월별로 프로비저닝 용량 단위를 2개 구입하여 검색 가능한 데이터 양을 늘릴 수 있습니다. 각 용량 단위로 최소 3건의 긴급 검색을 5분 간격으로 수행할 수 있으며, 최대 150MB/초의 검색 처리량을 제공합니다. 워크로드가 데이터 하위 집합에 대해 매우 안정적이고 예측 가능한 액세스를 몇 분 만에 완료해야 하는 경우 프로비저닝된 검색 용량을 구입해야 합니다. 프로비저닝된 용량이 없으면 수요가 많은 기간에 신속한 검색이 허용되지 않을 수 있습니다. 신속한 검색 액세스 권한이 필요한 모든 상황에서 프로비저닝된 검색 용량을 구입하는 것이 좋습니다.

프로비저닝된 용량은 Amazon S3 콘솔, 프로비저닝된 용량 구매 REST API, AWS SDK 또는 AWS CLI를 사용하여 구입할 수 있습니다. 프로비저닝된 용량 단위는 구입 날짜 및 시간을 기점으로 한 달 동안 지속됩니다. 단위는 시작 날짜로부터 정확히 한 달 후, 가장 가까운 초까지인 만료일에 만료됩니다. 프로비저닝된 용량 요금 정보는 Amazon S3 요금을 참조하십시오.

Q: Amazon S3 Glacier에 보관된 Amazon S3 객체에 대한 스토리지 요금은 어떻게 계산됩니까?

한 달에 청구되는 스토리지 양은 한 달 내내 사용하는 평균 스토리지를 기준해서 GB/월로 측정합니다. Amazon S3는 저장한 데이터 양에 추가 32KB의 Amazon S3 Glacier 데이터를 더하고 8KB의 Amazon S3 Standard 스토리지 클래스 데이터를 더하여 객체 크기를 계산합니다. Amazon S3 Glacier에서는 데이터를 식별하고 검색할 수 있도록 S3 Glacier의 인덱스와 메타데이터에 객체당 추가 32KB의 데이터가 필요합니다. Amazon S3에서는 Amazon S3 Glacier에 보관된 객체에 대한 사용자 정의 이름 및 메타데이터를 저장하고 유지 관리하는 데 8KB가 필요합니다. 그러면 Amazon S3 LIST API 또는 S3 Inventory 보고서를 사용하여 모든 Amazon S3 객체(Amazon S3 Glacier 스토리지 클래스를 사용하여 저장된 객체도 포함)의 실시간 목록을 가져올 수 있습니다. 

예를 들어 각각 1GB인 객체 100,000개를 보관한 경우 청구 대상 스토리지는 다음과 같습니다.
각 객체당 1.000032GB x 객체 100,000개 = 100,003.2GB의 Amazon S3 Glacier 스토리지
각 객체당 0.000008GB x 객체 100,000개 = 0.8GB의 Amazon S3 Standard 스토리지

요금은 Amazon S3 요금 페이지에 명시된 고객 AWS 리전의 현재 요금을 기준으로 계산됩니다. 추가적인 Amazon S3 요금 예제를 확인하려면 S3 결제 FAQ로 이동하거나 AWS 요금 계산기를 사용합니다.

Q: Amazon S3 Glacier에 대한 최소 스토리지 기간 및 최소 객체 스토리지 요금이 있습니까?

Amazon S3 Glacier는 수명이 길지만 액세스 빈도가 매우 낮은 데이터를 수개월 또는 수년 동안 유지하도록 설계되었습니다. S3에 보관된 객체는 최소 90일간 보관되며, 90일 이전에 삭제, 덮어쓰기, 또는 전환된 객체에 대해서는 남은 기간의 스토리지 비용에 해당하는 비례 할당으로 계산된 요금이 부과됩니다. Amazon S3 Glacier 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

Amazon S3 Glacier의 청구 가능한 최소 객체 스토리지 크기는 40KB입니다. 크기가 40KB보다 작은 객체는 저장될 수는 있지만, 40KB에 해당하는 요금이 부과됩니다. 

Q: Amazon S3 Glacier에서 데이터를 검색하는 데 비용이 얼마나 듭니까?

Amazon S3 Glacier에서 데이터를 검색하는 방법은 긴급, 표준 및 대량 검색 3가지가 있으며 각각 GB당 검색 비용과 요청당 비용이 각기 다릅니다(예: Amazon S3 객체에 대한 요청에 대해 계산). AWS 리전별 S3 Glacier 상세 요금은 Amazon S3 요금 페이지를 참조하세요.

Q: Amazon S3는 더 저렴한 비용의 스토리지 클래스에 객체를 보관할 수 있는 기능을 제공합니까?

예, Amazon S3에서는 거의 액세스하지 않는 스토리지 및 데이터 보관을 위해 Amazon S3 Glacier 및 Amazon S3 Glacier Deep Archive를 활용할 수 있습니다. Amazon S3 Glacier에서는 GB당 월 0.004 USD의 저렴한 비용으로 데이터를 저장할 수 있습니다. Amazon S3 Glacier는 비용을 낮게 유지하면서 동시에 다양한 검색 요구를 지원하기 위해 아카이브에 액세스하는 3가지 옵션(몇 분에서 몇 시간까지 소요)을 제공합니다. S3 Glacier Deep Archive는 Amazon S3에서 가장 저렴한 비용의 스토리지 클래스이며 1년에 한두 번 정도 액세스할 수 있는 데이터의 장기 보관 및 디지털 보존을 지원합니다. 아카이브 사용 사례의 일부 예로는 디지털 미디어 아카이브, 금융 및 의료 기록, 원시 게놈 서열 데이터, 장기 데이터베이스 백업 및 규제 준수를 위해 보관해야 하는 데이터가 있습니다.

Q: S3 Glacier 및 S3 Glacier Deep Archive 스토리지 클래스를 지원하는 백엔드 인프라는 무엇입니까?

AWS는 성능, 안정성, 가용성 및 보안의 고객 성과에 중점을 둡니다. 하지만 많은 고객들이 이와 관련한 질문을 주고 계십니다. AWS에서는 서로 다른 여러 기술을 활용하여 고객에게 제공되는 서비스의 가격을 책정합니다. AWS의 서비스는 일반적인 여러 데이터 스토리지 기술을 활용하여 구축되는데, 이러한 기술은 AWS에서 개발한 소프트웨어를 통해 특별히 구축되고 비용이 최적화된 시스템에 전문적으로 구성되어 있습니다. S3 Glacier는 입력 및 출력 시퀀스를 최적화하여 기본 스토리지 액세스 효율을 극대화하는 기능을 활용합니다.

Amazon S3 Glacier Deep Archive

Q: Amazon S3 Glacier Deep Archive란 무엇입니까?

S3 Glacier Deep Archive는 1년에 한두 번 정도 액세스하는 데이터의 장기 보존을 위한 안전하고 안정적인 객체 스토리지를 제공하는 Amazon S3 스토리지 클래스입니다. S3 Glacier Deep Archive는 온프레미스 마그네틱 테이프 라이브러리에서 데이터를 저장 및 유지 관리하거나 오프사이트에서 데이터를 보관하는 것보다 대폭 저렴한 가격으로 매월 GB당 0.00099 USD(1센트의 1/10 또는 TB당 약 1 USD 미만)로 클라우드에서 업계 최저 비용의 스토리지를 제공합니다.

Q: S3 Glacier Deep Archive에 가장 적합한 사용 사례는 무엇입니까?

S3 Glacier Deep Archive는 회사의 중요한 데이터 자산을 오프라인에서 보호해야 하는 경우 또는 회사 정책, 계약 또는 규정 준수 요건에 따라 데이터를 장기적으로 보존해야 하는 경우에 적합한 스토리지 클래스입니다. 금융 서비스, 의료, 오일 및 가스, 공공 부문처럼 규제가 엄격한 산업에서 종사하는 고객은 S3 Glacier Deep Archive를 활용하여 중요한 지적 재산, 금융 및 의료 기록, 연구 결과, 법률 문서, 지진 탐사 연구 및 장기 백업을 효과적으로 보호할 수 있습니다. 또한 미디어 및 엔터테인먼트 회사처럼 중요한 지적 재산의 백업 복사본을 유지하려는 조직도 있습니다. S3 Glacier Deep Archive를 사용하는 고객은 온프레미스 마그네틱 테이프 라이브러리 및 오프프레미스 테이프 아카이브 서비스의 이용을 줄이거나 이용하지 않게 되는 경우가 많습니다.

Q: S3 Glacier Deep Archive는 S3 Glacier와 어떻게 다릅니까?

S3 Glacier Deep Archive는 AWS의 데이터 아카이빙 제공 범위를 확장하여 스토리지와 검색 비용 그리고 검색 시간을 기준으로 최적의 스토리지 클래스를 선택할 수 있도록 합니다. 긴급 검색을 사용하여 일반적으로 1~5분 만에 아카이브된 데이터를 검색해야 하는 경우 S3 Glacier를 선택하십시오. 이와 반대로, S3 Glacier Deep Archive는 액세스할 가능성은 매우 낮지만 여전히 오랫동안 안정적으로 저장해야 하는, 사용 빈도가 낮은 데이터를 위해 설계되었습니다. S3 Glacier Deep Archive는 S3 Glacier보다 최대 75%가 저렴하며 표준 검색 속도 사용 시 12시간 이내에 검색 결과를 제공합니다. 48시간 이내에 데이터를 반환하는 대량 검색을 사용하여 검색 비용을 줄일 수도 있습니다.

Q: S3 Glacier Deep Archive를 시작하려면 어떻게 해야 합니까?

S3 Glacier Deep Archive에 데이터를 저장하는 가장 쉬운 방법은 데이터를 직접 업로드하기 위하여 S3 API를 사용하는 것입니다. 스토리지 클래스로 “S3 Glacier Deep Archive”를 지정하기만 하면 됩니다. 이렇게 하려면 AWS Management Console, S3 REST API, AWS SDK 또는 AWS 명령줄 인터페이스(CLI)를 사용하면 됩니다.

또한 객체의 수명 주기를 정의하고 스토리지 비용을 줄일 수 있는 S3 수명 주기를 사용하여 데이터를 마이그레이션하는 정책을 생성함으로써 S3 Glacier Deep Archive를 시작할 수도 있습니다. 이러한 정책은 객체의 사용 기간에 따라 객체를 S3 Glacier Deep Archive로 마이그레이션하도록 설정할 수 있습니다. S3 버킷이나 특정 접두사에 대한 정책을 설정할 수 있습니다. 수명 주기 전환에 대해서는 S3 Glacier Deep Archive 업로드 요금으로 비용이 청구됩니다.

AWS Storage Gateway의 클라우드 기반 가상 테이프 라이브러리 기능인 테이프 게이트웨이가 이제 S3 Glacier Deep Archive에 통합되어 가상 테이프 기반 장기 백업 및 아카이브를 S3 Glacier Deep Archive에 저장할 수 있으며, 그에 따라 클라우드에서 이러한 데이터를 업계 최저 비용으로 저장할 수 있게 되었습니다. 시작하려면 AWS Storage Gateway Console 또는 API를 이용해 새 가상 테이프를 만들고 아카이브 스토리지 대상을 S3 Glacier 또는 S3 Glacier Deep Archive로 설정하십시오. 백업 애플리케이션이 테이프를 꺼내면 사용자가 선택한 스토리지 대상으로 테이프가 아카이브됩니다.

Q: 기존 테이프 아카이브에서 S3 Glacier Deep Archive로 데이터를 마이그레이션할 때는 어떤 방법이 권장됩니까?

기존 테이프 아카이브에서 S3 Glacier Deep Archive로 데이터를 마이그레이션하는 방법에는 여러 가지가 있습니다. 먼저, AWS 테이프 라이브러리를 사용하여 가상 테이프 라이브러리(VTL) 인터페이스를 통해 기존 백업 애플리케이션과 통합할 수 있습니다. 이 인터페이스는 백업 애플리케이션에 가상 테이프를 제공합니다. 이러한 가상 테이프를 활용하면 Amazon S3, S3 Glacier 및 S3 Glacier Deep Archive에서 데이터를 즉시 저장할 수 있습니다.

AWS Snowball 또는 Snowmobile을 사용하여 데이터를 마이그레이션할 수도 있습니다. Snowball과 Snowmobile은 안전한 전송을 위해 설계된 물리적 스토리지 디바이스를 사용하여, AWS에서 송수신되는 테라바이트에서 페타바이트 규모의 데이터가 더 빨리 전송되도록 합니다. Snowball 및 Snowmobile을 사용하면 높은 네트워크 비용, 오랜 전송 시간, 보안 문제 등 대규모 데이터 전송 시 발생할 수 있는 문제를 없앨 수 있습니다.

마지막으로, AWS Direct Connect를 사용하여 온프레미스에서 AWS로 전용 네트워크 연결을 설정할 수 있습니다. AWS Direct Connect를 활용하면 많은 상황에서 네트워크 비용을 줄이고 대역폭 처리량을 늘리는 것은 물론, 인터넷 기반 연결보다 일관된 네트워크 환경을 구현할 수 있습니다.

Q: S3 Glacier Deep Archive에 저장된 객체를 검색하려면 어떻게 해야 합니까?

S3 Glacier Deep Archive에 저장된 데이터를 검색하려면 Amazon S3 API 또는 Amazon S3 Management Console을 사용하여 "복원" 요청을 시작합니다. 복원은 S3 One Zone-IA 스토리지 클래스에 데이터의 임시 사본을 생성하고 S3 Glacier Deep Archive에 아카이브된 데이터를 그대로 유지합니다. S3에 임시 복사본을 저장할 기간(일수)을 지정할 수 있습니다. 그런 다음 아카이브된 객체에 대한 Amazon S3 GET 요청을 통해 S3의 임시 복사본에 액세스할 수 있습니다.

아카이브된 객체를 복원하는 경우 요청 본문의 Tier(티어) 요소에서 두 가지 옵션 중 하나를 지정할 수 있습니다. 먼저 Standard(표준)는 기본 티어로, 아카이브된 객체에 12시간 이내에 액세스할 수 있고, Bulk(대량)는 페타바이트 규모의 데이터 같은 대용량 데이터도 저렴하게 검색할 수 있으며 일반적으로 48시간 이내에 검색이 완료됩니다.

Q: S3 Glacier Deep Archive의 사용 요금은 어떻게 청구됩니까?

S3 Glacier Deep Archive 스토리지 요금은 저장한 데이터의 양(GB), 수명 주기 전환 요청당 PUT 수, 검색량(GB), 복원 요청 수를 기준으로 부과됩니다. 이 요금 모델은 S3 Glacier와 비슷합니다. S3 Glacier Deep Archive 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: S3 Glacier Deep Archive 사용량이 AWS 청구서와 AWS 비용 관리 도구에 표시되도록 하려면 어떻게 해야 합니까?

S3 Glacier Deep Archive 사용량 및 비용은 월별 AWS 청구서에서 Amazon S3 사용량 및 비용과는 별개의 독립된 서비스 항목으로 표시됩니다. 하지만 AWS 비용 관리 도구를 사용하는 경우 S3 Glacier Deep Archive 사용량 및 비용은 월별 세부 사용 보고서의 Amazon S3 사용 및 비용에 포함되며 별도의 서비스 항목으로 분리되지 않습니다.

Q: S3 Glacier Deep Archive에 대한 최소 스토리지 기간 및 최소 객체 스토리지 요금이 있습니까?

S3 Glacier Deep Archive는 수명이 길지만 7-10년 이상 보존되며 거의 액세스하지 않는 데이터를 위한 서비스입니다. S3 Glacier Deep Archive에 아카이브된 객체는 최소 180일간 보관되며, 180일 이전에 삭제된 객체에 대해서는 남은 기간의 스토리지 비용에 해당하는 비례 할당으로 계산된 요금이 부과됩니다. S3 Glacier Deep Archive 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

S3 Glacier Deep Archive의 청구 가능한 최소 객체 스토리지 크기는 40KB입니다. 크기가 40KB보다 작은 객체는 저장될 수는 있지만, 40KB에 해당하는 요금이 부과됩니다. S3 Glacier Deep Archive 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

 

Q: S3 Glacier Deep Archive는 다른 AWS 서비스와 어떤 식으로 통합됩니까?

S3 Glacier Deep Archive는 S3 객체 태그 지정, S3 수명 주기 정책, S3 객체 잠금 및 S3 복제를 포함한 Amazon S3 기능과 통합됩니다. S3 스토리지 관리 기능을 활용하면 단일 Amazon S3 버킷으로 S3 Glacier Deep Archive, S3 Standard, S3 Standard-IA, S3 One Zone-IA 및 S3 Glacier 데이터를 혼합하여 저장할 수 있습니다. 이를 통해 스토리지 관리자는 데이터 및 데이터 액세스 패턴의 특성에 따라 의사 결정을 내릴 수 있습니다. 고객은 Amazon S3 수명 주기 정책을 사용하여 사용 기간이 오래된 데이터를 더 저렴한 스토리지 클래스로 자동으로 마이그레이션할 수도 있고, 교차 리전 복제 또는 동일 리전 복제 정책을 사용하여 데이터를 동일 또는 다른 리전에 복제할 수도 있습니다.

AWS Storage Gateway 서비스는 테이프 게이트웨이와 S3 Glacier Deep Archive 스토리지 클래스를 통합합니다. 따라서 사용자는 이를 통해 가장 저렴한 Amazon S3 스토리지 클래스에 가상 테이프를 저장할 수 있으므로 클라우드에 장기 데이터를 저장하는 데 들어가는 월 비용을 최대 75% 절약할 수 있습니다. 이 기능으로 테이프 게이트웨이는 새로운 가상 테이프를 S3 Glacier 및 S3 Glacier Deep Archive로 바로 보관하므로 사용자의 백업과 아카이브 및 복원 요건을 충족할 수 있습니다. 테이프 게이트웨이는 기존의 백업 워크플로를 변경하지 않고 테이프 기반의 백업을 AWS로 이동하도록 지원합니다. 테이프 게이트웨이는 Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect(Windows OS), Microsoft Data Protection Manager와 같은 대부분의 주요 백업 애플리케이션을 지원합니다.

스토리지 관리

S3 객체 태그

Q: S3 객체 태그란 무엇입니까?

S3 객체 태그는 S3 객체에 적용되는 키 값 페어로, 객체의 수명 주기 동안 언제든 이를 생성, 업데이트 또는 삭제할 수 있습니다. S3 객체 태그를 사용하면 Identity and Access Management(IAM) 정책을 생성하고, S3 수명 주기 정책을 설정하며, 스토리지 지표를 사용자 지정할 수 있습니다. 이러한 객체 수준의 태그는 스토리지 클래스 간 전환을 관리하고 백그라운드에 있는 객체를 만료시킬 수 있습니다. 새로운 객체를 업로드할 때 태그를 추가하거나 기존 객체에 태그를 추가할 수 있습니다. S3 객체당 최대 10개의 태그를 추가할 수 있고 AWS 관리 콘솔, REST API, AWS CLI 또는 AWS SDK를 사용하여 객체 태그를 추가할 수 있습니다. 

자세한 내용은 S3 객체 태그 사용 설명서를 참조하세요.

Q: 객체 태그를 사용해야 하는 이유는 무엇입니까?

객체 태그는 S3 스토리지를 간편하게 관리하는 데 사용할 수 있는 도구입니다. 객체의 수명 주기 동안 언제든 태그를 생성, 업데이트 및 삭제할 수 있는 기능을 통해 비즈니스 요구 사항에 맞게 대응하는 스토리지를 만들 수 있습니다. 이러한 태그를 사용하면 특정 키-값 페어가 태그로 지정된 객체에 대한 액세스를 제어할 수 있으므로 선택된 그룹 또는 사용자만 액세스하도록 기밀 데이터에 대한 보안을 강화할 수 있습니다. 특정 프로젝트나 사업부에 속하는 객체에 레이블을 지정할 때도 객체 태그를 사용할 수 있습니다. S3 수명 주기 정책과 함께 이 태그를 사용하여 다른 스토리지 클래스(S3 Standard-IA, S3 One Zone-IA 및 Amazon S3 Glacier)로 전환을 관리하거나, S3 복제와 함께 사용하여 AWS 리전 간에 데이터를 선택적으로 복사할 수 있습니다.

Q:  내 객체의 객체 태그를 업데이트하려면 어떻게 해야 합니까?

객체 태그는 S3 객체의 수명 주기 동안 언제든 변경할 수 있습니다. AWS Management Console, REST API, AWS CLI 또는 AWS SDK를 사용하여 객체 태그를 변경할 수 있습니다. AWS Management Console 외에 다른 방법으로 태그를 변경하는 경우 모든 변경 사항이 전체 태그 집합에 적용됩니다. 5개의 태그가 연결되어 있는 특정 객체에 6번째 태그를 추가하려는 경우 해당 요청에 원래 5개의 태그를 포함해야 합니다.

Q: 객체 태그의 비용은 어떻게 됩니까?

객체 태그 요금은 태그 수와 태그 추가를 위한 요청 비용을 기준으로 책정됩니다. 객체 태그 추가 및 업데이트와 관련된 요청의 요금은 기존 요청 요금과 동일합니다. 자세한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: 스토리지 클래스 분석을 시작하려면 어떻게 해야 합니까?

AWS Management Console 또는 S3 PUT Bucket Analytics API를 사용하여 S3 Standard-IA 또는 S3 One Zone-IA 스토리지 클래스로 전환하거나 Amazon S3 Glacier 스토리지 클래스로 아카이브할 수 있는 자주 액세스하지 않는 스토리지를 식별하도록 Storage Class Analysis 정책을 구성할 수 있습니다. S3 콘솔의 [관리(Management)] 탭으로 이동하여 스토리지 클래스 분석, S3 인벤토리 및 S3 CloudWatch 지표를 관리할 수 있습니다.

S3 인벤토리

Q:  S3 Inventory란 무엇입니까?

S3 Inventory 보고서는 Amazon S3의 동기식 List API에 대한 예약된 대안을 제공합니다. 일 또는 주 단위로 S3 버킷이나 접두사에 대한 객체 및 해당 메타데이터를 CSV, ORC 또는 Parquet 파일 출력으로 제공하도록 S3 Inventory를 구성할 수 있습니다. S3 Inventory를 통해 비즈니스 워크플로와 빅 데이터 작업을 간소화 및 가속화할 수 있습니다. S3 인벤토리를 사용해 객체의 암호화 및 복제 상태를 확인함으로써 비즈니스, 규정 준수 및 규제 요구 사항을 충족할 수 있습니다. 자세한 내용은 Amazon S3 인벤토리 사용 설명서를 참조하세요.

Q: S3 인벤토리를 시작하려면 어떻게 해야 합니까?

AWS 관리 콘솔 또는 PUT 버킷 인벤토리 구성 API를 사용하여 S3 버킷 내 모든 객체 또는 공유된 접두사에 해당하는 객체의 하위 집합에 대한 인벤토리 보고서를 일 또는 주 단위로 구성할 수 있습니다. 구성을 진행하면서 S3 인벤토리 보고서의 대상 S3 버킷, 출력 파일 형식(CSV, ORC, Parquet 등), 비즈니스 애플리케이션에 필요한 특정 객체 메타데이터(객체 이름, 크기, 최종 수정일, 스토리지 클래스, 버전 ID, 삭제 마커, 최신이 아닌 버전 플래그, 멀티파트 업로드 플래그, 복제 상태, 암호화 상태 등)를 지정할 수 있습니다. S3 인벤토리를 애플리케이션 워크플로 또는 빅 데이터 작업에 대한 직접 입력값으로 사용할 수 있습니다. 또한, Amazon Athena, Amazon Redshift Spectrum 및 기타 도구(Presto, Hive, Spark 등)에서 표준 SQL 언어를 사용하여 S3 인벤토리를 쿼리할 수도 있습니다.

자세한 내용은 Amazon S3 인벤토리 사용 설명서를 참조하세요.

Q: S3 인벤토리 사용 요금은 어떻게 청구됩니까?

S3 Inventory 요금은 Amazon S3 요금 페이지를 참조하세요. SSE-KMS를 사용한 암호화를 구성하면, 암호화에 대해 KMS 요금이 발생합니다. 세부 정보는 KMS 요금 페이지를 참조하세요.

S3 배치 작업

Q: S3 배치 작업이란 무엇입니까?

S3 배치 작업은 많은 객체에서 단일 작업의 실행(객체 복사 또는 AWS Lambda 함수 실행 등)을 자동화하려는 경우 사용할 수 있는 기능입니다. S3 배치 작업을 사용하면 사용자 지정 애플리케이션 코드를 작성하거나 스토리지 관리 애플리케이션을 위해 컴퓨팅 클러스터를 실행할 필요 없이 S3 콘솔 또는 단일 API 요청에서 몇 번의 클릭으로 수십억 개의 객체를 변경할 수 있습니다. S3 배치 작업 관리자는 많은 객체에서 스토리지 작업을 관리할 뿐 아니라, S3 배치 작업에서는 재시도 관리, 진행 상황 표시, 알림 전달, 완료 보고서 제공, 대상 객체에서 수행되는 모든 작업에 대해 AWS CloudTrail에 이벤트 전송 등도 수행합니다. S3 배치 작업은 S3 콘솔에서 또는 AWS CLI 및 SDK에서 사용할 수 있습니다. 

자세한 내용은 S3 배치 작업 페이지 또는 사용 설명서를 참조하세요.

Q: S3 배치 작업을 시작하려면 어떻게 해야 합니까?

Amazon S3 콘솔로 이동하거나 AWS CLI 또는 SDK를 사용하여 첫 번째 S3 배치 작업을 생성하면 S3 배치 작업을 시작할 수 있습니다. S3 배치 작업은 작업할 객체 목록과 수행할 작업 유형으로 구성됩니다(사용 가능한 전체 작업 목록 참조). 먼저, S3 인벤토리 보고서를 선택하거나 작업할 S3 배치 작업에 대한 고유의 사용자 지정 대상 목록을 제공합니다. S3 인벤토리 보고서는 S3 버킷에 저장된 모든 객체 또는 접두사가 나열된 파일입니다. 다음으로, 태그 세트 교체, ACL 변경, 버킷 간 스토리지 복사, Glacier에서 S3로 복원 시작 등과 같이 S3 배치 작업에서 지원되는 S3 작업 세트 중에서 선택합니다. 그런 다음, 태그 값, ACL 피부여자, 복원 기간 등과 같은 특정 파라미터로 S3 배치 작업을 사용자 지정할 수 있습니다. 스토리지 작업을 한층 더 사용자 지정하려면 Lambda 함수를 직접 작성하고 S3 배치 작업과 함께 해당 코드를 호출할 수 있습니다.

S3 배치 작업을 생성하면 S3 배치 작업에서 객체 목록을 처리하고 필요한 경우 해당 작업을 “확인을 기다리는 중” 상태로 전송할 수 있습니다. 작업 세부 정보를 확인하면 S3 배치 작업은 사용자가 지정한 작업을 실행하기 시작합니다. 프로그래밍 방식으로 또는 S3 콘솔을 통해 작업 진행 상황을 보고, 완료 시 알림을 수신하며, 스토리지에 대해 변경된 사항을 항목별로 정리하는 완료 보고서를 검토할 수 있습니다.

S3 배치 작업에 대해 더 알고 싶다면 자습서 동영상을 시청하고 관련 설명서를 참조하세요.

S3 객체 잠금

Q: Amazon S3 객체 잠금이란 무엇입니까?

Amazon S3 객체 잠금은 데이터 보호를 위한 추가 계층으로 또는 규제 규정 준수를 위해 보존 정책을 적용할 수 있도록 일정 기간 또는 무기한으로 객체 버전 삭제 또는 덮어쓰기를 차단하는 Amazon S3 기능입니다. 워크로드를 기존 Write-Once-Read-Many(WORM) 시스템에서 Amazon S3로 마이그레이션하고 객체 및 버킷 수준에서 S3 객체 잠금을 구성하여 사전 정의된 보존 만료 날짜 또는 무기한(법적 보존 날짜) 전에 객체 버전이 삭제되지 않도록 할 수 있습니다. S3 객체 잠금 보호는 객체 버전이 어떤 스토리지 클래스에 있든 상관없이 스토리지 클래스 간의 S3 수명 주기 전환 전반에 걸쳐 유지됩니다. 

데이터의 WORM을 보호해야 한다고 지정하는 규제 요구 사항이 있거나 Amazon S3의 데이터에 보호 계층을 추가하려는 경우 S3 객체 잠금을 사용해야 합니다. S3 객체 잠금은 변경 불가능한 형식으로 데이터를 저장해야 한다고 지정하는 규제 요구 사항을 준수하는 데 도움이 될 수 있으며 Amazon S3의 데이터를 우발적 또는 악의적 삭제로부터 보호할 수 있습니다.

자세한 내용은 S3 객체 잠금 사용 설명서를 참조하세요.

Q: Amazon S3 객체 잠금은 어떻게 작동합니까?

Amazon S3 객체 잠금은 법적 보존이 제거될 때까지 지정된 보존 기간 또는 무기한으로 객체 버전 삭제를 방지합니다. S3 객체 잠금을 통해 WORM 보호가 적용되는 동안 객체 버전을 변경할 수 없도록 보장할 수 있습니다. AWS SDK, CLI, REST API 또는 S3 관리 콘솔을 사용하여 보존 만료 날짜 또는 법적 보존을 객체 버전에 지정하여 WORM 보호를 적용할 수 있습니다. PUT 요청 내에서 보존 설정을 적용하거나 객체가 생성된 후 기존 객체에 보존 설정을 적용할 수 있습니다.

보존 기한 날짜는 객체 버전이 변경될 수 없도록 유지하는 기간을 정의합니다. 보존 만료 날짜를 객체에 지정하면 보존 만료 날짜가 경과할 때까지 해당 객체 버전을 수정하거나 삭제할 수 없습니다. 보존 만료 날짜 전에 사용자가 객체를 삭제하려고 하면 작업이 거부됩니다.

또는 해당 객체에 법적 보존을 적용하여 객체를 변경할 수 없도록 설정할 수 있습니다. 법적 보존은 명시적으로 제거될 때까지 무기한으로 객체 버전의 수정 또는 삭제를 방지합니다. 법적 보존을 설정하고 제거하려면 AWS 계정에 PutObjectLegalHold 작업에 대한 쓰기 권한이 있어야 합니다. 현재 보존 기간까지 데이터에 WORM 보호가 적용되는지 여부와 상관없이 S3 객체 잠금 지원 버킷의 객체에 법적 보존을 적용할 수 있습니다.

두 가지 모드 중 하나로 S3 객체 잠금을 구성할 수 있습니다. 거버넌스 모드로 배포된 경우 특정 IAM 권한이 있는 AWS 계정은 객체 버전에서 WORM 보호를 제거할 수 있습니다. 규정을 준수하기 위해 더 강력한 변경 불가능 지원이 필요한 경우 규정 준수 모드를 사용할 수 있습니다. 규정 준수 모드에서는 루트 계정을 포함한 어떤 사용자도 WORM 보호를 제거할 수 없습니다.

Q: 금융 서비스 규제를 기반으로 평가된 AWS 전자 스토리지 서비스는 무엇입니까?

S3 객체 잠금은 금융 서비스 산업의 고객을 위해 SEC Rule 17a-4(f), FINRA Rule 4511 또는 CFTC Regulation 1.31의 규제 요건을 충족하기 위해 삭제가 불가능하고 다시 쓰기가 불가능한 형식으로 기록을 보존해야 하는 증권 중개인에게 추가 지원을 제공합니다. 따라서 필요한 기간 동안 원래 형식으로 규제 아카이브를 보관하도록 기록 보관 시간대를 손쉽게 지정하는 것은 물론이고, 보유 기록이 제거될 때까지 데이터가 무기한으로 보관하도록 법적 보유 기간을 둘 수 있습니다.

Q: 담당 규제 기관에 통지하는 것과 관련된 SEC 17a-4(f)(2)(i) 및 CFTC 1.31(c) 요구 사항을 지원하는 AWS 설명서는 무엇입니까?

담당 규제 기관 또는 선택한 "지정 평가 기관(DEA)"에 Cohasset Assessment 사본과 함께 Amazon S3를 전자 스토리지로 사용한다는 알림을 제공하십시오. 이러한 요구 사항에 대해서는 AWS는 지정된 타사(D3P)가 아닙니다. D3P를 선택하고 해당 정보를 DEA에 제출하는 통지서에 추가하시기 바랍니다.

S3 CloudWatch 지표

Q: S3 CloudWatch 지표를 시작하려면 어떻게 해야 합니까? 

AWS 관리 콘솔을 사용하여 S3 버킷에 대한 1분 CloudWatch 요청 지표 생성을 활성화하거나 접두사, 객체 태그 또는 액세스 포인트를 사용하여 지표에 대한 필터를 구성할 수 있습니다. 또는 S3 PUT Bucket Metrics API를 호출하여 S3 스토리지 지표 게시를 활성화하고 구성할 수 있습니다. CloudWatch 요청 지표는 활성화된 후 15분 이내에 CloudWatch에서 사용할 수 있습니다. CloudWatch 스토리지 지표는 모든 버킷에 대해 기본적으로 활성화되어 있으며 하루에 한 번 보고됩니다. 자세한 내용은 Amazon S3용 CloudWatch 지표를 참조하세요.

Q: 스토리지 지표에 설정할 수 있는 경보에는 어떤 것이 있습니까?

CloudWatch를 사용하여 스토리지 지표 수, 타이머 또는 비율에 대한 임계값을 설정하고 임계값이 초과되면 작업을 트리거하도록 할 수 있습니다. 예를 들어 4xx 오류 응답의 백분율에 대한 임계값을 설정하고 최소한 3개의 데이터 요소가 임계값을 초과하면 CloudWatch 경보를 트리거하여 DevOps 엔지니어에게 알리도록 할 수 있습니다.

Q:  S3 CloudWatch 지표의 사용 요금은 어떻게 청구됩니까? 

CloudWatch 스토리지 지표는 무료로 제공됩니다. CloudWatch 요청 지표는 Amazon CloudWatch에 대한 사용자 지정 지표로 요금이 부과됩니다. S3 CloudWatch 지표 요금에 대한 일반 정보는 Amazon CloudWatch 요금 페이지를 참조하세요.

S3 수명 주기 관리

Q:  S3 수명 주기 관리란 무엇입니까?

S3 수명 주기 관리는 미리 정의된 정책으로 객체의 수명 주기를 정의하여 스토리지 비용을 절감할 수 있는 기능을 제공합니다. 수명 주기 전환 정책을 설정하여 S3 Standard 스토리지 클래스에 저장된 객체를 데이터 사용 기간에 따라 자동으로 S3 Standard-IA, S3 One Zone-IA 및/또는 S3 Glacier 스토리지 클래스로 마이그레이션할 수 있습니다. 또한, 객체 사용 기간에 따라 객체가 자동으로 삭제되도록 수명 주기 만료 정책을 설정할 수도 있습니다. 멀티파트 업로드 만료에 대한 정책을 설정할 수 있습니다. 이 정책에서는 업로드 수명에 따라 미완료 멀티파트 업로드를 만료합니다.

자세한 내용은 S3 수명 주기 사용 설명서를 참조하세요.

Q: S3 수명 주기 관리 정책을 설정하려면 어떻게 해야 합니까?

AWS Management Console, S3 REST API, AWS SDK 또는 AWS 명령줄 인터페이스(CLI)를 사용하여 수명 주기 정책을 설정 및 관리할 수 있습니다. 접두사 또는 버킷 수준에서 정책을 지정할 수 있습니다.

Q: Amazon S3의 수명 주기 관리를 사용하여 Amazon S3 스토리지 비용을 절감하려면 어떻게 해야 합니까?

Amazon S3 수명 주기 정책을 사용하면 객체를 S3 Standard 스토리지 클래스에서 S3 Standard-IA 또는 S3 One Zone-IA로 마이그레이션하고 S3 Glacier로 아카이브하도록 구성할 수 있습니다. 또한, 일정 기간이 지난 후 객체를 삭제하도록 S3 수명 주기 정책을 지정할 수 있습니다. 또한 이 정책 기반 자동화를 사용하여 빠르고 쉽게 스토리지 비용을 절감하고 시간을 절약할 수 있습니다. 각 규칙에 접두사, 기간, S3 Standard-IA, S3 One Zone-IA 또는 S3 Glacier로 전환 및/또는 만료를 지정할 수 있습니다. 예를 들어, 생성 후 30일이 경과되면 공통 접두사 “logs/”가 있는 모든 객체를 S3 Glacier에 아카이브하고 생성 후 365일이 경과되면 이러한 객체를 만료하는 규칙을 생성할 수 있습니다. 또한 접두사 “backups/”가 지정되어 있고 만든지 90일 된 모든 객체만 만료되는 별도의 규칙을 만들 수 있습니다. S3 수명 주기 정책은 기존 및 새로운 S3 객체 모두에 적용되어 데이터 검토나 마이그레이션 같은 시간이 걸리는 수동 작업 없이 스토리지를 최적화하면서 S3에 보관된 모든 현재 데이터와 새 데이터에 대한 비용 절감을 극대화할 수 있습니다. 수명 주기 규칙에서 접두사 필드는 규칙에 따라 객체를 식별합니다. 개별 객체에 규칙을 적용하려면 키 이름을 지정합니다. 객체 세트에 규칙을 적용하려면 공통 접두사(예: “logs/”)를 지정합니다. 보관할 객체에 대한 이전 작업과 삭제할 객체에 대한 만료 작업을 지정할 수 있습니다. 기간의 경우, 생성일(예: 2015년 1월 31일) 또는 생성일로부터 며칠 후(예: 30일)에 객체를 보관 또는 삭제할지를 지정합니다. 서로 다른 접두사에 대해 여러 규칙을 만들 수 있습니다.

Q: S3 수명 주기 관리 사용 비용은 얼마나 됩니까?

수명 주기 정책을 설정하고 적용하는 데는 추가 비용이 들지 않습니다. 수명 주기 규칙에 따라 객체가 전환될 시기가 되었을 때 객체당 전환 요청 요금이 부과됩니다. 자세한 요금 정보는 S3 요금 페이지를 참조하세요.

Q: S3 수명 주기 정책을 사용하여 미완료 멀티파트 업로드를 만료하는 이유는 무엇입니까?

미완료 멀티파트 업로드를 종료하는 S3 수명 주기 정책을 사용하면 완료되지 않은 멀티파트 업로드가 저장되는 시간을 제한하여 비용을 절약할 수 있습니다. 예를 들어 애플리케이션에서 여러 개의 멀티파트 객체 부분을 업로드하지만 이를 커밋하지 않은 경우에도 해당 스토리지에 대한 비용이 부과됩니다. 이 정책은 미리 정의된 기간 이후에 미완료 멀티파트 업로드 및 이와 관련된 스토리지를 자동으로 제거하여 S3 스토리지 비용을 절감할 수 있습니다.

S3 수명 주기를 사용한 미완료 멀티파트 업로드 만료에 대해 자세히 알아보기 »

스토리지 분석 및 인사이트

Q: Amazon S3에서 내 스토리지 사용량을 분석하는 데 사용할 수 있는 기능은 무엇인가요?

S3 스토리지 렌즈는 객체 스토리지 사용 및 활동 추세에 대한 조직 전체의 가시성을 제공하고 실행 가능한 권장 사항을 제공하여 비용 효율성을 개선하고 데이터 보호 모범 사례를 적용합니다. S3 스토리지 클래스 분석을 사용하면 객체 전반의 액세스 패턴을 모니터링하여 데이터를 적절한 스토리지 클래스로 전환하는 시점을 결정함으로써 비용을 최적화할 수 있습니다. 그런 다음 이 정보를 사용하여 데이터를 이동하는 S3 수명 주기 정책을 구성할 수 있습니다. Amazon S3 인벤토리는 S3 버킷 또는 접두사에 대해 매일 또는 매주 객체 및 해당 메타데이터에 대한 보고서를 제공합니다. 이 보고서를 사용하면 객체의 암호화 및 복제 상태를 확인하여 비즈니스, 규정 준수 및 규제 요구 사항을 충족하는 데 도움이 됩니다.

Q: Amazon S3 스토리지 렌즈란 무엇입니까?

Amazon S3 스토리지 렌즈는 객체 스토리지 사용 및 활동 추세에 대한 조직 전체의 가시성을 제공하고 실행 가능한 권장 사항을 제공하여 비용 효율성을 개선하고 데이터 보호 모범 사례를 적용합니다. 스토리지 렌즈는 조직 내 수십 또는 수백 개 계정의 객체 스토리지 사용 및 활동에 대한 단일 보기가 포함된 대화형 대시보드를 제공하며, 드릴다운하여 계정, 버킷 또는 접두사 수준에서 인사이트를 생성하는 기능도 있습니다. 여기에는 바이트, 객체 수, 요청 등의 지표 그리고 암호화된 객체 수, 삭제 마커 수 등의 S3 기능 사용률을 설명하는 지표가 포함되어 있습니다. 또한, S3 스토리지 렌즈는 스토리지 비용을 절감하고 수십 또는 수백 개 계정 및 버킷에서 데이터 보호에 대한 모범 사례를 적용하는 방법을 찾도록 상황에 맞는 권장 사항을 제공합니다.

자세한 내용은 S3 스토리지 렌즈 사용 설명서를 참조하세요.

Q: S3 스토리지 렌즈는 어떻게 작동합니까?

S3 스토리지 렌즈는 매일의 스토리지 사용량 및 활동 지표를 집계하여 S3 스토리지 렌즈 대화형 대시보드에 시각화하거나 CVS 또는 Parquet 파일 형식의 지표 내보내기로 사용할 수 있습니다. 기본 대시보드는 계정 수준에서 자동으로 생성되며 AWS 조직 또는 특정 계정, 리전 또는 버킷으로 범위가 지정된 추가 사용자 지정 대시보드를 생성할 수 있는 옵션이 있습니다. 대시보드를 구성할 때 기본 지표 선택을 사용하거나 추가 비용을 내고 고급 지표와 권장 사항을 받을 수 있습니다. S3 스토리지 렌즈는 대시보드에서 스토리지 지표에 대한 상황에 맞는 권장 사항을 제공하므로, 사용자는 지표를 기반으로 스토리지를 최적화하기 위한 조치를 취할 수 있습니다.

Q: S3 스토리지 렌즈 지표를 사용하여 답변할 수 있는 주요 질문은 무엇입니까?

S3 스토리지 렌즈 대시보드는 스토리지에 대해 답변할 수 있는 3가지 주요 질문 유형으로 구성되어 있습니다. 요약 보기에서, 전체 스토리지 사용량 및 활동 추세와 관련된 최상위 질문을 탐색할 수 있습니다. 예: “시간이 지나면서 내 전체 바이트 수와 요청 수가 얼마나 빠르게 증가하고 있습니까?” 비용 효율성 보기에서, 스토리지 비용 절감과 관련된 질문을 탐색할 수 있습니다(예: “최신이 아닌 버전을 적게 유지하여 비용을 절감할 수 있습니까?”). 데이터 보호 보기에서, 데이터 보안에 대한 질문에 답할 수 있습니다(예: “내 스토리지가 우발적 또는 의도적 삭제로부터 보호됩니까?”). 이러한 각 질문은 드릴다운 분석으로 이어질 수 있는 첫 번째 질문 계층을 나타냅니다.

Q: S3 스토리지 렌즈에서 사용할 수 있는 지표는 무엇입니까?

S3 스토리지 렌즈에는 사용량 지표(계정에 있는 객체의 일일 스냅샷 결과) 및 활동 지표(검색된 요청 및 바이트 추적)에 따라 그룹화된 30개 이상의 지표가 포함되어 있습니다. 이 지표는 요약, 비용 효율성, 데이터 보호라는 3가지 주요 범주로 구성됩니다. 또한, 파생된 지표는 기본 지표를 결합하여 제공됩니다. 예를 들어, “검색 속도”는 “다운로드된 바이트 수”를 “총 바이트 수”로 나누어 계산된 지표입니다. 전체 지표 목록을 보려면 S3 스토리지 렌즈 설명서를 참조하세요.

Q: 대시보드 구성 옵션으로는 무엇이 있습니까?

기본 대시보드는 전체 계정에 자동으로 제공되도록 구성되며, AWS 조직, 특정 리전 또는 계정 내 버킷으로 범위 지정이 가능한 추가 사용자 지정 대시보드를 생성할 수 있는 옵션이 있습니다. 여러 개의 사용자 지정 대시보드를 설정할 수 있습니다. 이러한 대시보드는 다양한 내부 팀을 나타내기 위해 버킷을 세분화하는 것과 같이 스토리지 분석에서 일부 논리적 분리가 필요한 경우에 유용할 수 있습니다. 기본적으로 대시보드는 S3 스토리지 렌즈 무료 지표를 수신하지만, S3 스토리지 렌즈 고급 지표와 권장 사항을 수신하도록 업그레이드할 수 있는 옵션이 있습니다. 또한, 각 대시보드에 대해 대상 버킷과 암호화 유형을 지정하는 추가 옵션과 함께 지표 내보내기를 활성화할 수 있습니다.

Q: S3 스토리지 렌즈에서 사용할 수 있는 기록 데이터는 얼마나 됩니까?

대화형 대시보드에 표시되는 지표의 경우, 스토리지 렌즈 무료 지표는 14일간의 기록 데이터를 유지하고 고급 지표와 권장 사항은 15개월간의 기록 데이터를 유지합니다. 선택적 지표 내보내기의 경우, 원하는 보존 기간을 구성할 수 있으며 표준 S3 스토리지 요금이 적용됩니다.

Q: S3 스토리지 렌즈는 요금이 어떻게 청구됩니까?

S3 스토리지 렌즈는 두 가지 계층의 지표로 제공됩니다. 무료 지표는 모든 고객에게 추가 비용 없이 제공됩니다. S3 스토리지 렌즈 고급 지표와 권장 사항 요금 세부 정보는 S3 요금 페이지에서 확인할 수 있습니다. S3 스토리지 렌즈 무료 지표를 사용하면 버킷 수준에서 사용량 지표를 수신하고, 대시보드에서 14일간의 기록 데이터를 제공할 수 있습니다. S3 스토리지 렌즈 고급 지표와 권장 사항을 사용하면 접두사 수준, 활동 지표, 권장 사항에서 사용량 지표를 수신하고 대시보드에서 15개월간의 기록 데이터를 제공할 수 있습니다.

Q: S3 스토리지 렌즈와 S3 인벤토리의 차이점은 무엇입니까?

S3 인벤토리는 스토리지의 객체 수준 분석을 수행하는 데 사용할 수 있는 S3 버킷 또는 공유 접두사에 대한 객체 및 해당 메타데이터 목록을 제공합니다. S3 스토리지 렌즈는 조직, 계정, 리전, 스토리지 클래스, 버킷 및 접두사 수준에 따라 집계된 지표를 제공하여, 스토리지에 대한 조직 전체의 가시성을 높입니다.

Q: S3 스토리지 렌즈와 S3 스토리지 클래스 분석(SCA)의 차이점은 무엇입니까?

S3 스토리지 클래스 분석은 이전 30~90일간의 개별 버킷/접두사/태그 내에서 객체 수준 액세스 패턴을 기반으로 객체 연령 그룹을 생성하여 최적의 스토리지 클래스에 대한 권장 사항을 제공합니다. S3 스토리지 렌즈는 비용 효율성을 개선하고 데이터 보호 모범 사례를 적용하는 방법에 대한 조직 수준의 권장 사항, 그리고 계정, 리전, 스토리지 클래스, 버킷 또는 접두사에 따른 추가 세부 권장 사항을 매일 제공합니다.  

스토리지 클래스 분석

Q: 스토리지 클래스 분석이란 무엇입니까?

스토리지 클래스 분석을 사용하면 스토리지 액세스 패턴을 분석하여 스토리지에 대한 최적의 스토리지 클래스로 결정할 수 있습니다. 이 S3 기능은 빈도가 낮은 액세스 패턴이 있으면 이를 자동으로 파악하여 스토리지를 S3 Standard–IA로 전환하도록 지원합니다. 전체 버킷, 접두사 또는 객체 태그를 모니터링하도록 스토리지 클래스 분석 정책을 구성할 수 있습니다. 빈도가 낮은 액세스 패턴이 관찰되면 해당 결과를 바탕으로 손쉽게 새로운 S3 수명 주기 기간 정책을 생성할 수 있습니다. 스토리지 클래스 분석은 AWS 관리 콘솔에서 스토리지 사용에 대한 일별 시각화를 제공하며, S3 버킷으로 보고서를 내보내 원하는 비즈니스 인텔리전스 도구(예: Amazon QuickSight)를 사용하여 분석할 수 있습니다.

자세한 내용과 시작하는 방법은 S3 스토리지 클래스 분석 사용 설명서를 참조하세요.

Q: 스토리지 클래스 분석은 얼마나 자주 업데이트됩니까?

스토리지 클래스 분석은 S3 관리 콘솔에서 매일 업데이트되지만, 스토리지 클래스 전환에 대한 첫 권장 사항은 30일 이후에 제공됩니다.

현재 위치 쿼리

Q:  "현재 위치 쿼리" 기능이란 무엇입니까?

Amazon S3에서는 데이터를 별도의 분석 플랫폼으로 이동할 필요 없이 저장된 데이터를 대상으로 정교한 쿼리를 실행할 수 있습니다. Amazon S3에서 이 데이터를 현재 위치에서 쿼리하는 기능은 S3를 데이터 레이크로 활용하는 분석 솔루션의 성능을 크게 향상시키고 비용을 줄여줍니다. S3는 S3 Select, Amazon Athena 및 Amazon Redshift Spectrum을 포함하여 여러 개의 현재 위치 쿼리 옵션을 제공하므로 사용 용도에 가장 적합한 위치를 선택할 수 있습니다. AWS Lambda가 포함된 Amazon S3 Select를 사용하여 S3 Select가 제공하는 현재 위치 처리 기능의 이점을 활용하는 서버리스 앱을 구축할 수 있습니다.

Q:  S3 Select란 무엇입니까?

S3 Select는 전체 객체를 검색하지 않아도 간단한 SQL 표현식을 사용하여 객체 콘텐츠에서 특정 데이터를 쉽게 검색할 수 있는 Amazon S3 기능입니다. S3 Select는 객체 콘텐츠를 보다 작고 대상이 지정된 데이터 집합으로 검사 및 필터링하는 기능을 간소화하는 동시에 최대 400%까지 성능을 향상시킵니다. S3 Select를 사용하면 컴퓨팅 클러스터를 운영 또는 관리할 필요 없이 Amazon S3에서 로그 파일에 대한 운영 조사를 수행할 수 있습니다. 

S3 Select를 사용하면 CSV, JSON 또는 Apache Parquet 형식으로 저장된 객체의 데이터 하위 세트를 SELECT 및 WHERE와 같은 SQL 절로 검색할 수 있습니다. 이 기능은 GZIP 또는 BZIP2로 압축된 객체(CSV 및 JSON 객체에 한함)와 서버 측 암호화된 객체에도 사용할 수 있습니다.

AWS Lambda가 포함된 S3 Select에서 S3 Select를 사용하는 서버리스 애플리케이션을 구축하면 전체 객체를 검색하고 처리하지 않아도 Amazon S3에서 효율적이고 손쉽게 데이터를 검색할 수 있습니다. Presto, Apache Hive 및 Apache Spark와 같은 빅 데이터 프레임워크와 함께 S3 Select를 사용하여 Amazon S3에서 데이터를 검사하고 필터링할 수 있습니다.

자세한 내용은 S3 Select 사용 설명서를 참조하세요.

Q:  Amazon Athena란 무엇입니까?

Amazon Athena는 표준 SQL을 사용해 Amazon S3에 저장된 데이터를 간편하게 분석할 수 있는 대화식 쿼리 서비스입니다. Athena는 서버리스 서비스이므로 설정하거나 관리할 인프라가 없으며 데이터 분석을 즉시 시작할 수 있습니다. Athena로 데이터를 로드할 필요도 없이 S3 스토리지 클래스에 저장된 데이터를 바로 사용할 수 있습니다. 시작하려면 Athena Management Console에 로그인하여 스키마를 정의한 후 쿼리를 시작하십시오. Amazon Athena는 표준 SQL을 완벽 지원하는 Presto를 사용하며, CSV, JSON, ORC, Apache Parquet, Avro 등 다양한 표준 데이터 형식과 호환됩니다. Athena는 무엇보다도 신속한 임의 쿼리 작업에 적합하며, Amazon QuickSight와 통합하여 손쉽게 시각화할 수 있을 뿐만 아니라 대규모 조인, 윈도우 함수 및 어레이 등 복잡한 분석을 처리할 수도 있습니다.

Q:  Amazon Redshift Spectrum이란 무엇입니까?

Amazon Redshift Spectrum은 로딩이나 ETL 없이도 Amazon S3에 있는 엑사바이트 규모의 비정형 데이터에 대해 쿼리를 실행할 수 있는 Amazon Redshift의 기능입니다. 쿼리를 발행하면, Amazon Redshift SQL 엔드포인트로 전달되고 여기에서 쿼리 플랜을 생성하고 최적화합니다. Amazon Redshift는 로컬에 있는 데이터와 Amazon S3에 있는 데이터가 무엇인지 파악하고, 읽어와야 하는 Amazon S3 데이터 양을 최소화하기 위한 플랜을 생성하고, 공유 리소스 풀의 Amazon Redshift Spectrum 작업자에 Amazon S3에서 데이터를 읽고 처리하도록 요청합니다.

Redshift Spectrum은 필요한 경우 수천 개의 인스턴스로 확장되므로 데이터 크기와 관계없이 쿼리가 빠르게 실행됩니다. 또한, Amazon S3 데이터에 대해 Amazon Redshift 쿼리에서 사용하는 것과 정확히 동일한 SQL을 사용하고, 동일한 BI 도구를 사용하여 동일한 Amazon Redshift 엔드포인트에 연결할 수 있습니다. Redshift Spectrum을 사용하면 스토리지와 컴퓨팅을 분리할 수 있으므로 개별적으로 확장이 가능합니다. Amazon S3 데이터 레이크를 쿼리하는 데 필요한 수만큼 Amazon Redshift 클러스터를 설정할 수 있으므로, 고가용성과 제한 없는 동시성이 제공됩니다. Redshift Spectrum은 원하는 장소에 원하는 형식으로 데이터를 저장하고 필요할 때 처리할 수 있습니다.

복제

Q: Amazon S3 복제란 무엇인가요?

Amazon S3 복제를 사용하면 Amazon S3 버킷 전체에 걸쳐 객체를 비동기식으로 자동 복사할 수 있습니다. 객체 복제를 위해 구성된 버킷은 동일한 AWS 계정 또는 다른 AWS 계정에서 소유할 수 있습니다. 서로 다른 AWS 리전 간(S3 교차 리전 복제) 또는 동일한 AWS 리전 내(S3 동일 리전 복제)에서 하나 이상의 대상 버킷에 객체를 복사할 수 있습니다. 자세한 내용은 S3 복제 사용 설명서를 참조하세요.

Q: Amazon S3 교차 리전 복제(CRR)란 무엇입니까?

CRR은 다른 AWS 리전에 걸쳐 버킷 간에 데이터를 자동으로 복제하는 Amazon S3 기능입니다. CRR의 경우 버킷 수준 또는 공유 접두사 수준에서 복제를 설정하거나 S3 객체 태그를 사용하여 객체 수준에서 복제를 설정할 수 있습니다. CRR을 통해 여러 지역의 리전에서 지연 시간이 더 낮은 데이터 액세스를 제공할 수 있습니다. 또한, 수백 킬로미터 떨어진 곳에 데이터 사본을 저장해야 한다는 규정 준수 요구 사항이 있는 경우 CRR을 활용할 수 있습니다. 복제된 객체의 계정 소유권을 변경하여 실수로 데이터를 삭제하지 못하도록 보호하는 데 CRR을 사용할 수도 있습니다. 자세한 내용은 S3 CRR 사용 설명서를 참조하세요.

Q: Amazon S3 동일 리전 복제(SRR)란 무엇입니까?

SRR은 동일한 AWS 리전 내의 버킷 간에 데이터를 자동으로 복제하는 Amazon S3 기능입니다. SRR의 경우 버킷 수준 또는 공유 접두사 수준에서 복제를 설정하거나 S3 객체 태그를 사용하여 객체 수준에서 복제를 설정할 수 있습니다. SRR을 사용하여 동일한 AWS 리전에 데이터의 하나 이상의 복사본을 만들 수 있습니다. SRR을 통해 데이터의 사본을 원본과 동일한 AWS 리전의 별도 AWS 계정에 보관하여 데이터 주권 및 규정 준수 요구 사항을 충족하도록 할 수 있습니다. 복제된 객체의 계정 소유권을 변경하여 실수로 데이터를 삭제하지 못하도록 보호하는 데 SRR을 사용할 수도 있습니다. 또한, SRR을 통해 서로 다른 S3 버킷에서 로그를 손쉽게 집계하여 리전 내에서 처리하거나, 테스트 환경과 개발 환경 간에 실시간 복제를 구성할 수 있습니다. 자세한 내용은 S3 SRR 사용 설명서를 참조하세요.

Q: Amazon S3 복제(교차 리전 복제 및 동일 리전 복제)를 활성화하려면 어떻게 해야 합니까?

Amazon S3 복제(CRR 및 SRR)는 버킷 수준, 공유 접두사 수준 또는 S3 객체 태그를 사용하는 객체 수준에서 구성됩니다. 동일 AWS 리전 또는 다른 AWS 리전에 복제할 대상 버킷을 지정하여 소스 버킷에 복제 구성을 추가합니다.

S3 Management Console, API, AWS CLI, AWS SDK 또는 AWS CloudFormation을 사용하여 복제를 활성화할 수 있습니다. 복제를 활성화하려면 소스 및 대상 버킷 모두에서 버전 관리가 활성화되어 있어야 합니다. 자세한 내용은 Amazon S3 개발자 안내서에서 복제 설정 개요를 참조하십시오.

Q: S3 복제(CRR 및 SRR)를 S3 수명 주기 규칙과 함께 사용할 수 있습니까?

S3 복제(CRR 및 SRR)를 사용하면 동일 또는 다른 리전의 다른 스토리지 클래스에 객체의 복사본을 만들도록 복제 규칙을 설정할 수 있습니다. 수명 주기 작업은 복제되지 않으며, 소스 버킷과 대상 버킷 모두에 동일한 수명 주기 구성을 적용하려면 두 버킷 모두에 대해 동일한 수명 주기 구성을 활성화하십시오. 

예를 들어 S3 Standard 스토리지 클래스에서 S3 Standard-IA 또는 S3 One Zone-IA 스토리지 클래스로 데이터를 마이그레이션하거나, 대상 버킷의 S3 Glacier로 데이터를 아카이브하도록 수명 주기 규칙을 구성할 수 있습니다.

수명 주기 구성 몇 복제에 대한 자세한 내용은 S3 복제 개발자 안내서를 참조하세요. 

Q: S3 복제를 사용하여 둘 이상의 대상 버킷에 복제할 수 있습니까?

예. S3 복제를 사용하면 고객이 동일하거나 다른 AWS 리전의 여러 대상 버킷에 데이터를 복제할 수 있습니다. 설정할 때는 단순히 기존 복제 구성에 새 대상 버킷을 지정하거나 여러 대상 버킷이 있는 새 복제 구성을 생성합니다. 사용자가 지정하는 각각의 새 대상에 대해, 대상 버킷, 암호화 유형, 복제 지표와 알림, 복제 시간 제어(RTC) 및 기타 속성의 스토리지 클래스를 유연하게 선택할 수 있습니다.

Q: S3 복제를 사용하여 S3 버킷 간의 양방향 복제를 설정할 수 있습니까?

예. 양방향 복제를 설정하려면, 버킷 A에서 버킷 B로 복제 규칙을 생성하고 버킷 B에서 버킷 A로 다른 복제 규칙을 설정합니다. 복제된 객체에 대한 객체 액세스 제어 목록(ACL), 객체 태그, 객체 잠금 등의 복제 메타데이터 변경 사항을 복제하려면 버킷 A와 B 모두에서 복제본 수정 동기화를 활성화해야 합니다.

Q: AWS 계정 전체에서 복제를 사용하여 악의적 또는 우발적 삭제를 방지할 수 있습니까?

예. CRR 및 SRR의 경우 AWS 계정 전체에 복제를 설정하여 복제된 데이터를 대상 리전의 다른 계정에 저장할 수 있습니다. 복제 구성에서 소유권 덮어쓰기를 사용하여 원본과 대상 사이에 고유한 소유권 스택을 유지하고 복제된 스토리지에 대상 계정 소유권을 부여할 수 있습니다.

Q: 교차 리전 복제를 사용하는 경우 객체 태그가 복제됩니까?

객체 태그는 교차 리전 복제를 사용해 AWS 리전 간에 복제될 수 있습니다. 교차 리전 복제가 이미 활성화된 고객의 경우 태그를 복제하려면 새로운 권한이 필요합니다. 교차 리전 복제를 설정하는 방법에 대한 자세한 내용은 Amazon S3 개발자 안내서에서 교차 리전 복제 설정 방법을 참조하십시오.

Q: 버킷 간에 삭제 마커를 복제할 수 있습니까?

예, 복제 구성에서 삭제 마커 복제를 활성화하면 원본에서 대상으로 삭제 마커를 복제할 수 있습니다. 삭제 마커를 복제하면 Amazon S3가 두 버킷 모두에서 객체가 삭제된 것처럼 작동합니다. 신규 또는 기존 복제 규칙에 대해 삭제 마커 복제를 활성화할 수 있습니다. 접두사 기반 복제 규칙을 사용하여 전체 버킷 또는 특정 접두사가 있는 Amazon S3 객체에 삭제 마커 복제를 적용할 수 있습니다. Amazon S3 복제는 객체 태그 기반 복제 규칙에 대해 삭제 마커 복제를 지원하지 않습니다. 삭제 마커 복제 활성화에 대한 자세한 내용은 버킷 간에 삭제 마커 복제를 참조하십시오.

Q: 다른 AWS 리전에서 중국으로 데이터를 복제할 수 있습니까? 고객이 중국 리전 외부의 한 중국 리전 버킷에서 복제할 수 있습니까?

아니요, AWS 중국 리전과 중국 외부의 AWS 리전 간에는 Amazon S3 복제를 사용할 수 없습니다. 중국 리전 내에서만 복제할 수 있습니다.

Q: 교차 계정 데이터 복제의 요금은 어떻게 됩니까?

S3 복제를 사용하면 서로 다른 AWS 계정에서 소스 및 대상 버킷을 소유하는 교차 계정 복제를 구성할 수 있습니다. S3 스토리지 및 해당되는 검색 요금을 제외하고, 고객은 S3 복제를 사용할 때 S3에서 대상 리전으로 리전 간 데이터 송신 및 복제 PUT 요청에 대한 비용을 지불합니다. 복제 규칙에서 S3 복제 시간 제어(S3 RTC)를 활성화한 경우 S3 RTC에 따라 다른 데이터 송신 및 복제 PUT 요청 요금이 표시됩니다. 교차 계정 복제의 경우 소스 계정은 모든 데이터 전송(S3 RTC 및 S3 CRR)에 대한 비용을 지불하고, 대상 계정은 복제 PUT 요청에 대한 비용을 지불합니다. 데이터 전송 요금은 S3 교차 리전 복제(S3 CRR) 및 S3 복제 시간 제어(S3 RTC)에만 적용되며, S3 동일 리전 복제(S3 SRR)에 대한 데이터 전송 요금은 없습니다. S3 복제 요금에 대한 자세한 내용은 S3 요금 페이지를 참조하세요.

S3 복제 시간 제어

Q: Amazon S3 복제 시간 제어란 무엇입니까?

Amazon S3 복제 시간 제어는 예측 가능한 복제 성능을 제공하고 규정 준수 또는 비즈니스 요구 사항을 충족하도록 도와줍니다. S3 복제 시간 제어는 대부분의 객체는 몇 초 만에, 99%의 객체는 5분 이내에, 99.99%의 객체는 15분 이내에 복제하도록 설계되었습니다. S3 복제 시간 제어에는 월별 청구 기간 동안 각 복제 리전 쌍에 대해 객체의 99.9%가 15분 이내에 복제된다는 서비스 수준 계약(SLA) 약정이 적용됩니다. 복제 시간은 모든 S3 복제 기능에서 지원됩니다. 자세한 내용은 복제 개발자 안내서를 참조하시기 바랍니다.

Q: Amazon S3 복제 시간 제어를 활성화하려면 어떻게 해야 합니까?

Amazon S3 복제 시간 제어는 각 복제 규칙에 대한 옵션으로 활성화됩니다. S3 복제 시간 제어를 적용하여 새로운 S3 복제 정책을 생성하거나, 기존 정책에서 이 기능을 활성화할 수 있습니다.

S3 Management Console, API, AWS CLI, AWS SDK 또는 AWS CloudFormation을 사용하여 복제를 구성할 수 있습니다. 자세한 내용은 Amazon S3 개발자 안내서에서 복제 설정 개요를 참조하세요.

Q: Amazon S3 복제 지표 및 이벤트란 무엇입니까?

Amazon S3 복제 지표 및 이벤트는 Amazon S3 복제에 대한 가시성을 제공합니다. S3 복제 지표를 사용하면 복제 보류 중인 객체 크기와 총 작업 수 및 각 S3 복제 규칙의 원본과 대상 간 복제 지연 시간을 모니터링할 수 있습니다. 복제 지표는 Amazon S3 Management Console과 Amazon CloudWatch를 통해 사용할 수 있습니다. S3 복제 이벤트는 복제 실패를 알려주므로 신속하게 문제를 진단하고 수정할 수 있습니다. S3 복제 시간 제어(S3 RTC)를 활성화하면 객체 복제에 15분 이상 소요되거나 해당 객체가 대상으로 성공적으로 복제될 때도 사용자가 알림을 수신합니다. 다른 Amazon S3 이벤트와 마찬가지로 S3 복제 이벤트는 Amazon Simple Queue Service(Amazon SQS), Amazon Simple Notification Service(Amazon SNS) 또는 AWS Lambda를 통해 사용할 수 있습니다.

Q: Amazon S3 복제 지표 및 이벤트를 활성화하려면 어떻게 해야 합니까?

Amazon S3 복제 지표 및 이벤트는 각각의 신규 또는 기존 복제 규칙에 사용 가능하며 S3 복제 시간 제어 사용 규칙에 기본적으로 활성화됩니다. Amazon S3 Management Console 및 Amazon CloudWatch를 통해 S3 복제 지표에 액세스할 수 있습니다. 다른 Amazon S3 이벤트와 마찬가지로 S3 복제 이벤트는 Amazon Simple Queue Service(Amazon SQS), Amazon Simple Notification Service(Amazon SNS) 또는 AWS Lambda를 통해 사용할 수 있습니다. 자세히 알아보려면 Amazon S3 개발자 안내서의 Monitoring progress with replication metrics and Amazon S3 event notifications을 참조하십시오.

Q: Amazon S3 복제 시간 제어 서비스 수준 계약(SLA)이란 무엇입니까?

Amazon S3 복제 시간 제어는 15분 이내에 객체의 99.99%를 복제하도록 설계되었으며 서비스 수준 계약의 적용을 받습니다. 월별 청구 주기 동안 각 복제 리전 쌍에서 15분 이내에 복제된 객체가 99.9% 미만인 경우, S3 RTC SLA는 복제하는 데 15분이 넘게 걸린 모든 객체에 대한 서비스 크레딧을 제공합니다. 서비스 크레딧에는 영향을 받은 월별 청구 주기에서 RTC 비용, 복제 대역폭 및 요청 비용, 대상 리전에 복제본을 저장하는 데 드는 비용을 비롯하여 SLA를 충족하지 않는 객체와 관련된 모든 복제 관련 비용의 백분율이 포함됩니다. 자세한 내용은 S3 복제 시간 제어 SLA를 참조하세요.

Q: S3 복제 및 S3 복제 시간 제어의 요금은 어떻게 되나요?

S3 복제(교차 리전 복제 및 동일 리전 복제)의 경우 선택한 대상 S3 스토리지 클래스에 대한 S3 요금, 기본 복사본의 스토리지 요금, 복제 PUT 요청 및 해당하는 Infrequent Access Storage 검색 요금을 지불합니다. CRR의 경우 S3에서 대상 리전으로의 리전 간 데이터 전송(송신) 비용도 지불합니다. S3 복제 지표는 Amazon CloudWatch 사용자 지정 지표와 동일한 요금으로 청구됩니다. 또한, S3 복제 시간 제어를 사용하면 복제 시간 제어 데이터 전송 요금도 지불합니다. 자세한 내용은 S3 요금 페이지를 참조하세요.

멀티파트 업로드 기능으로 원본 객체를 업로드하는 경우, 동일한 파트 수 및 파트 크기를 사용하여 객체가 복제됩니다. 예를 들어 멀티파트 업로드 기능으로 업로드된 100GB 객체(각각 128MB의 파트 800개)에는 복제 시 802회 요청(파트 업로드 요청 800회 + 멀티파트 업로드 시작 요청 1회 + 멀티파트 업로드 완료 요청 1회)에 대한 비용이 발생합니다. 따라서 요청 비용 0.00401 USD(802회 요청 x 1,000회 요청당 0.005 USD)와 복제가 서로 다른 AWS 리전 간에 발생한 경우 리전 간 데이터 전송 비용 2.00 USD(1GB 전송당 0.020 USD x 100GB)가 청구됩니다. 복제 후에는 대상 리전의 요율에 따라 100GB에 대한 스토리지 비용이 발생합니다.

S3 다중 리전 액세스 포인트

Q: S3 다중 리전 액세스 포인트란 무엇인가요?

Amazon S3 다중 리전 액세스 포인트는 다중 AWS 리전 전체에 복제되는 데이터 세트에 액세스할 때 최대 60%까지 성능을 개선합니다. S3 다중 리전 액세스 포인트는 AWS Global Accelerator를 기반으로 네트워크 정체 및 요청 애플리케이션의 위치와 같은 요소를 고려하여 데이터의 최단 지연 시간 복사를 위해 AWS 네트워크에 대한 요청을 동적으로 라우팅합니다. 이 자동 라우팅을 통해 간편한 애플리케이션 아키텍처를 유지하면서 AWS의 글로벌 인프라를 활용할 수 있습니다.

Q: S3 다중 리전 액세스 포인트를 사용해야 하는 이유는 무엇인가요?

S3 다중 리전 액세스 포인트는 다중 리전 애플리케이션을 위한 스토리지를 개선하고 간소화합니다. S3 다중 리전 액세스 포인트는 복제된 데이터 세트에 대한 S3 요청을 동적으로 라우팅함으로써 대기 시간을 감소시켜 애플리케이션이 최대 60% 더 빠르게 실행됩니다. 또한 리전에 국한되지 않는 애플리케이션용 간편한 아키텍처를 유지하면서 AWS의 글로벌 인프라를 활용할 수 있습니다.

Q: S3 다중 리전 액세스 포인트는 어떻게 작동하나요?

다중 리전 액세스 포인트는 하나 이상의 기본 S3 버킷에 클라이언트 요청을 동적으로 라우팅합니다. 최대 20개 AWS 리전까지 AWS 리전당 하나의 버킷에 라우팅하도록 다중 리전 액세스 포인트를 구성할 수 있습니다. 다중 리전 액세스 포인트를 생성할 때 S3가 DNS 호환 이름을 자동으로 생성합니다. 이 이름은 클라이언트가 사용할 수 있는 글로벌 엔드포인트로 사용됩니다. 클라이언트가 이 엔드포인트를 요청하면 S3가 다중 리전 액세스 포인트의 구성에 지정된 기본 버킷 중 하나로 이러한 요청을 동적으로 라우팅합니다.

기본적으로 S3 다중 리전 액세스 포인트는 네트워크 대기 시간을 기반으로, 클라이언트에게 가장 가까운 기본 버킷에 요청을 라우팅합니다. 예를 들어 US-EAST-1과 AP-SOUTH-1의 기본 버킷으로 다중 리전 액세스 포인트를 구성할 수 있습니다. 이 구성을 사용하여 북아메리카에 있는 클라이언트는 US-EAST-1에 라우팅하고, 아시아에 있는 클라이언트는 AP-SOUTH-1에 라우팅합니다. 이를 통해 S3에 대한 요청 대기 시간을 줄여 애플리케이션의 성능을 개선합니다.

애플리케이션이 인터넷을 통해 S3에 액세스하는 경우, S3는 클라이언트에 가장 가까운 AWS 로케이션을 통해 요청을 라우팅한 다음, 글로벌 프라이빗 AWS 네트워크를 통해 S3에 라우팅하기 때문에 S3 다중 리전 액세스 포인트로 성능이 더욱 개선됩니다. 요청은 인터넷에서 정체된 네트워크 세그먼트를 피하여, 네트워크 대기 시간 및 지터를 줄이는 동시에 성능을 개선합니다.

Q: S3 다중 리전 액세스 포인트를 시작하려면 어떻게 해야 하나요?

S3 관리 콘솔은 S3에서 다중 리전 스토리지를 실행하는 데 필요한 모든 것을 단 세 단계로 빠르게 설정할 수 있는 간단한 안내형 워크플로를 제공합니다. 먼저, 다중 리전 액세스 포인트에 대한 고유한 글로벌 호스트 이름이 자동으로 생성됩니다. AWS 리전을 지정할 필요 없이 클라이언트와 애플리케이션을 연결할 수 있습니다. 둘째, 이 새로운 호스트 이름 뒤로 라우팅하려는 S3에서 하나 이상의 버킷을 선택합니다. 기존 버킷을 선택하거나 새 버킷을 생성할 수 있습니다. 셋째, S3 리전 간 복제 규칙을 지정합니다.

또는 CloudFormation을 사용하여 다중 리전 스토리지 구성을 자동화할 수 있습니다. CloudFormation은 S3 다중 리전 액세스 포인트를 포함한 S3의 다중 리전 스토리지를 설정하는 데 필요한 모든 빌딩 블록을 지원하므로, S3 관리 콘솔 외부의 반복 가능한 설정 프로세스를 쉽게 자동화할 수 있습니다.

Q: S3 리전 간 복제(S3 CRR)와 S3 다중 리전 액세스 포인트의 차이점은 무엇인가요?

S3 CRR과 S3 다중 리전 액세스 포인트는 AWS 리전 전체에 데이터를 복제한 다음, 최단 대기 시간으로 복제한 복사본에 요청을 자동으로 라우팅하기 위해 함께 작동하는 보완 기능입니다. S3 다중 리전 액세스 포인트는 AWS 리전 전체의 요청을 관리하는 데 도움이 되는 반면, CRR을 사용하면 AWS 리전 전체의 데이터를 이동하여 격리된 복제본을 생성할 수 있습니다. S3 다중 리전 액세스 포인트와 CRR을 함께 사용하여 단일 글로벌 엔드포인트에서 액세스 가능한 복제된 다중 리전 데이터 집합을 생성합니다.

Q: S3 다중 리전 액세스 포인트의 비용은 얼마인가요?

S3 다중 리전 액세스 포인트를 사용하여 AWS 내에서 요청을 라우팅하는 경우, 처리된 각 기가바이트(GB)에 대해 저렴한 GB당 데이터 라우팅 요금과 S3 요청, 스토리지, 데이터 전송 및 복제에 대한 표준 요금을 지불합니다. 애플리케이션이 AWS 외부에서 실행되며 인터넷을 통해 S3에 액세스하는 경우, 글로벌 프라이빗 AWS 네트워크에서 AWS 엣지 로케이션을 통해 액세스 대기 시간을 기반으로 가장 가까운 데이터 복사본으로 요청을 자동으로 라우팅하여 S3 다중 리전 액세스 포인트의 성능이 증가합니다. 인터넷을 통해 이루어진 요청을 가속화하는 경우 데이터 라우팅 요금과 인터넷 가속화 요금을 지불합니다. S3 다중 리전 액세스 포인트 인터넷 가속화 요금은 소스 클라이언트가 대상 AWS 리전으로서 동일하거나 다른 로케이션이 있는지 여부에 따라 다르며, 표준 S3 데이터 전송 요금에 추가됩니다. 자세한 요금 정보는 S3 요금 페이지 및 데이터 전송(Data Transfer) 탭을 참조하세요.

Q: S3 Transfer Acceleration은 S3 다중 리전 액세스 포인트와 어떻게 다른가요?

S3 Transfer Acceleration의 경우 AWS 글로벌 네트워크를 사용하여 단일 중앙 집중식 S3 버킷의 콘텐츠 송수신 속도를 높일 수 있습니다. 이것은 특히 대규모 객체의 장거리 전송 또는 웹이나 모바일 애플리케이션 제거에 유용합니다. S3 다중 리전 액세스 포인트를 사용하면 AWS 글로벌 네트워크를 통해 유사한 가속화 전송을 수행할 수 있지만, S3에서 송수신되는 인터넷 기반, VPC 기반, 온프레미스 요청의 경우 다중 AWS 리전의 여러 S3 버킷에서 작업이 가능합니다. S3 다중 리전 액세스 포인트와 S3 교차 복제를 결합하면 S3 다중 리전 액세스 포인트에서 여러 로케이션에 있는 클라이언트의 애플리케이션에 대해 대기 시간이 가장 짧은 데이터 복사본에 동적으로 요청을 라우팅할 수 있습니다.

데이터 처리

객체 Lambda

Q: S3 객체 Lambda란 무엇입니까?

S3 객체 Lambda를 통해 사용자 코드를 S3 GET 요청에 추가하여 애플리케이션으로 데이터가 반환될 때 데이터를 수정 및 처리할 수 있습니다. 처음으로, 사용자 지정 코드를 사용하여 행을 필터링하고 동적으로 이미지 크기를 조정하며 기밀 데이터를 교정하는 등 표준 S3 GET 요청에서 반환되는 데이터를 수정할 수 있습니다. S3 객체 Lambda를 사용하면 프록시 계층과 같은 추가 인프라를 구축 및 운영하지 않고도 또는 데이터의 여러 파생 사본을 생성 및 유지 관리하지 않고도 애플리케이션의 고유한 데이터 형식 요구 사항을 쉽게 충족할 수 있습니다. S3 객체 Lambda는 AWS Lambda 함수를 사용하여 표준 S3 GET 요청의 출력을 자동으로 처리합니다. AWS Lambda는 기본 컴퓨팅 리소스를 관리하지 않고도 고객이 정의한 코드를 실행하는 서버리스 컴퓨팅 서비스입니다. 

AWS 관리 콘솔에서 몇 번의 클릭만으로 Lambda 함수를 구성하고 S3 객체 Lambda 서비스 엔드포인트에 연결할 수 있습니다. 이후로는 S3에서 Lambda 함수를 자동으로 호출하여 S3 객체 Lambda 엔드포인트를 통해 검색된 데이터를 처리하고 애플리케이션에 변환된 결과를 다시 반환할 수 있습니다. 사용자 지정 Lambda 함수를 작성 및 실행하여 특정 사용 사례에 맞게 S3 객체 Lambda의 데이터 변환을 조정할 수 있습니다.

S3 객체 Lambda를 시작하려면 S3 관리 콘솔, SDK 또는 API를 사용할 수 있습니다. 자세한 내용은 S3 객체 Lambda 페이지 또는 S3 객체 Lambda 사용 설명서를 참조하세요.

Q: 왜 S3 객체 Lambda를 사용해야 합니까?

많은 애플리케이션에서 데이터의 단일 사본을 공유하려는 경우 사용자 지정 처리 인프라를 구축 및 운영하거나 데이터의 파생 사본을 저장하지 않으려면 S3 객체 Lambda를 사용해야 합니다. 예를 들어, S3 객체 Lambda를 사용하여 일반적인 S3 GET 요청을 처리하면 규정 준수를 위해 민감한 데이터를 마스킹하거나 기계 학습 애플리케이션과의 호환을 위해 원시 데이터를 재구성하거나 S3 객체 내 특정 콘텐츠에 대한 액세스를 제한하도록 데이터를 필터링하거나 다양한 추가 사용 사례를 해결할 수 있습니다. S3 객체 Lambda는 Amazon S3 관리 콘솔에서 몇 번의 클릭만으로도 설정 가능합니다. 자세한 내용은 사용자 안내서를 참조하세요.

Q: S3 객체 Lambda는 어떻게 작동합니까?

S3 객체 Lambda는 사용자가 지정한 Lambda 함수를 사용하여 표준 GET 요청의 출력을 처리합니다. 요청된 데이터를 처리할 Lambda 함수를 정의한 경우 해당 함수를 S3 객체 Lambda 액세스 포인트에 연결할 수 있습니다. 이제 S3 객체 Lambda 액세스 포인트를 통해 생성된 GET 요청은 지정된 Lambda 함수를 호출합니다. 그러면 Lambda는 클라이언트에서 요청한 S3 객체를 가져오고 해당 객체를 처리합니다. 처리가 완료되면 Lambda는 처리된 객체를 호출 클라이언트로 다시 스트리밍합니다. 자세한 내용은 S3 객체 Lambda 사용자 안내서를 참조하세요.

Q: S3 객체 Lambda를 시작하려면 어떻게 해야 합니까?

S3 객체 Lambda는 S3 관리 콘솔에서 간단한 3단계를 통해 설정할 수 있습니다. 먼저, 콘솔에서 [객체 Lambda 액세스 포인트(Object Lambda Access Point)] 탭으로 이동합니다. 두 번째로, S3 객체 Lambda 액세스 포인트를 생성합니다. 해당 구성에서 이 리소스에 대한 이름, S3에서 GET 요청에 대해 실행하려는 호출할 Lambda 함수, 지원 S3 액세스 포인트를 제공합니다. 서비스 이용에 도움이 되도록 AWS 설명서에서 Lambda 함수 구현 예제를 제공합니다. 마지막으로, 새 S3 객체 Lambda 액세스 포인트를 사용하고 원하는 언어 SDK로 S3에서 데이터를 검색하도록 SDK 및 애플리케이션을 업데이트합니다. 그러면 S3 객체 Lambda가 GET 요청을 처리하기 시작합니다. 자세한 내용은 S3 객체 Lambda 사용자 안내서를 참조하세요.

Q: S3 객체 Lambda에서는 어떤 종류의 작업을 수행할 수 있습니까?

Lambda 함수에서 지원되는 모든 작업이 S3 객체 Lambda에서 지원됩니다. 이를 통해 요청을 처리할 때 다양한 옵션을 사용할 수 있습니다. 자체 Lambda 함수를 제공하여 GET 요청에 대해 사용자 지정 계산을 실행하면 애플리케이션 요구 사항에 따라 유연하게 데이터를 처리할 수 있습니다. Lambda 처리 시간은 최대 60초로 제한됩니다. 자세한 내용은 여기 S3 객체 Lambda 설명서를 참조하세요.

Q: S3 객체 Lambda에서 지원하는 S3 요청 유형은 무엇입니까?

S3 객체 Lambda는 GET 요청을 지원합니다. S3 객체 Lambda 액세스 포인트를 통해 생성된 모든 기타 S3 API 호출은 표준 S3 API 응답을 반환합니다. S3 객체 Lambda에 대한 자세한 내용은 사용자 안내서를 참조하세요.

Q: S3 객체 Lambda 함수가 실패하면 어떻게 됩니까?

S3 객체 Lambda 함수가 실패하면 실패를 자세히 설명하는 요청 응답을 수신합니다. 다른 Lambda 함수의 호출과 같이, AWS는 사용자를 대신하여 함수를 자동으로 모니터링하고 Amazon CloudWatch를 통해 지표를 보고합니다. 실패를 해결하는 데 도움을 주기 위해 Lambda는 Amazon CloudWatch Logs를 통해 함수에서 처리한 모든 요청을 로깅하고 코드에서 생성된 로그를 자동으로 저장합니다. AWS Lambda에서 CloudWatch Logs에 액세스하는 방법에 대한 자세한 내용은 CloudWatch 설명서를 참조하세요.

Q: S3 객체 Lambda는 S3 가용성 SLA 또는 S3 내구성에 영향을 줍니까?

S3 객체 Lambda는 Amazon S3, AWS Lambda, 선택적으로 원하는 다른 AWS 서비스를 연결하여 요청 애플리케이션과 관련된 객체를 전달합니다. S3 객체 Lambda와 연결에 사용된 모든 AWS 서비스는 각 서비스 수준 계약(SLA)에 따라 규제됩니다. 예를 들어, 한 AWS 서비스가 서비스 약정을 충족하지 못하는 경우 해당 서비스의 SLA에 명시된 서비스 크레딧을 받을 수 있습니다. S3 객체 Lambda 액세스 포인트를 생성해도 객체 내구성에는 영향을 주지 않습니다. 그러나 S3 객체 Lambda는 사용자가 지정한 AWS Lambda 함수를 호출하며, 지정된 Lambda 함수가 의도한 대로, 올바른지 확인해야 합니다. 여기에서 최신 Amazon S3 SLA를 참조하세요.

Q: S3 객체 Lambda 비용이 얼마인가요?

S3 객체 Lambda를 사용하는 경우 S3 객체 Lambda를 통해 반환된 데이터의 모든 기가바이트에 대해 GB당 요금을 지불합니다. 또한, 요청된 데이터를 처리하기 위해 지정된 함수를 실행한 시간에 대한 AWS Lambda 컴퓨팅 요금 및 S3 GET 요청에 대한 비용을 지불합니다. 요금 세부 정보 및 예제를 보려면 S3 요금 페이지를 참조하세요.

시작할 준비가 되셨나요?

Standard Product Icons (Features) Squid Ink
제품 기능 알아보기

데이터 관리, 보안, 액세스 관리, 분석 등의 기능에 대해 자세히 알아보십시오.

자세히 알아보기 
Sign up for a free account
무료 계정 가입

지금 바로 AWS 프리 티어에 액세스하여 Amazon S3를 체험해 보세요. 

가입하기 
Standard Product Icons (Start Building) Squid Ink
AWS 콘솔에서 구축 시작

AWS 콘솔에서 Amazon S3 구축을 시작하세요.

시작하기