일반 S3 FAQ

Q: Amazon S3란 무엇입니까?

Amazon S3는 어디서나 원하는 양의 데이터를 저장하고 검색할 수 있도록 구축된 객체 스토리지입니다. S3는 업계 최고 수준의 내구성, 가용성, 성능, 보안 및 거의 무제한의 확장성을 아주 저렴한 요금으로 제공하는 단순한 스토리지 서비스입니다.

Q: Amazon S3로 무엇을 할 수 있나요?

Amazon S3는 언제든지 어디서나 원하는 양의 데이터를 저장하고 검색하는 데 사용할 수 있는 간편한 웹 서비스 인터페이스를 제공합니다. 이 서비스를 사용하면 클라우드 네이티브 스토리지를 사용하는 애플리케이션을 손쉽게 구축할 수 있습니다. Amazon S3는 확장성이 뛰어나고 사용한 만큼만 비용을 지불하므로 작은 규모에서 시작해 성능 또는 안정성 저하 없이 원하는 대로 애플리케이션을 확장할 수 있습니다.

또한, Amazon S3는 뛰어난 유연성을 제공하도록 설계되었습니다. 원하는 형식의 데이터를 원하는 만큼 저장하고, 동일한 데이터를 수백만 번 읽거나 비상 재해 복구 용도로만 사용하고, 간단한 FTP 애플리케이션 또는 Amazon.com 소매 웹 사이트와 같은 복잡한 웹 애플리케이션을 구축할 수 있습니다. Amazon S3를 사용하면 데이터 저장 방법을 찾는 데 시간을 쓰는 대신 혁신에 집중할 수 있습니다.

Q: Amazon S3를 시작하려면 어떻게 해야 하나요?

Amazon S3에 가입하려면 S3 콘솔로 이동하세요. 이 서비스에 액세스하려면 Amazon Web Services 계정이 있어야 합니다. 아직 계정이 없으면 Amazon S3 가입 절차를 시작할 때 계정을 만들라는 메시지가 나타납니다. 가입 후 Amazon S3 설명서, S3 시작하기 자료리소스 센터의 추가 리소스를 참조하여 Amazon S3 사용을 시작합니다.

Q: 온프레미스 솔루션으로는 할 수 없지만 Amazon S3로 할 수 있는 작업은 무엇인가요?

Amazon S3를 사용하면 사전 투자나 성능 저하 없이 Amazon의 방대한 규모가 제공하는 고유한 이점을 활용할 수 있습니다. Amazon S3를 사용하면 저렴한 비용으로 간단하게 신속한 데이터 액세스, 상시 가용성 및 보안을 보장할 수 있습니다.

Q: 어떤 종류의 데이터를 Amazon S3에 저장할 수 있나요?

거의 모든 종류의 데이터를 원하는 형식으로 저장할 수 있습니다. 자세한 내용은 Amazon Web Services 라이선스 계약을 참조하세요.

Q: 얼마나 많은 데이터를 Amazon S3에 저장할 수 있나요?

Amazon S3에 저장할 수 있는 데이터의 전체 볼륨과 객체 수에는 제한이 없습니다. Amazon S3 객체의 크기는 각각 최소 0바이트에서 최대 5TB까지 다양합니다. 단일 PUT 요청으로 업로드 가능한 객체의 최대 크기는 5GB입니다. 객체의 크기가 100MB를 넘는 경우, 멀티파트 업로드 기능을 사용하는 방법을 고려해야 합니다.

Q: S3 범용 버킷이란 무엇인가요?

버킷은 Amazon S3에 저장된 객체의 컨테이너이며, 버킷에 원하는 수의 객체를 저장할 수 있습니다. 범용 버킷은 원래 S3 버킷 유형이며, 단일 범용 버킷에는 S3 Express One Zone을 제외한 모든 스토리지 클래스에 저장된 객체가 포함될 수 있습니다. 대부분의 사용 사례와 액세스 패턴에 권장됩니다.

Q: S3 디렉터리 버킷이란 무엇인가요?

버킷은 Amazon S3에 저장된 객체의 컨테이너이며, 버킷에 원하는 수의 객체를 저장할 수 있습니다. S3 디렉터리 버킷은 단일 가용 영역 내에서 더 빠른 데이터 처리를 제공하는 S3 Express One Zone 스토리지 클래스에 객체만 저장할 수 있습니다. 지연 시간이 짧은 사용 사례에 권장됩니다. 각 S3 디렉터리 버킷은 버킷 내 디렉터리 수에 관계없이 수십만 TPS(초당 트랜잭션)를 지원할 수 있습니다.

Q: 범용 버킷과 디렉터리 버킷의 차이점은 무엇인가요?

버킷은 Amazon S3에 저장된 객체의 컨테이너이며, 버킷에 원하는 수의 객체를 저장할 수 있습니다. 범용 버킷은 원래 S3 버킷 유형이며, 단일 범용 버킷에는 S3 Express One Zone을 제외한 모든 스토리지 클래스에 저장된 객체가 포함될 수 있습니다. 대부분의 사용 사례와 액세스 패턴에 권장됩니다. S3 디렉토리 버킷은 단일 가용 영역 내에서 더 빠른 데이터 처리를 제공하는 S3 Express One Zone 스토리지 클래스에 객체만 저장할 수 있습니다. 지연 시간이 짧은 사용 사례에 권장됩니다. 각 S3 디렉터리 버킷은 버킷 내 디렉터리 수에 관계없이 수십만 TPS(초당 트랜잭션)를 지원할 수 있습니다.

Q: Amazon은 고객이 Amazon S3에 저장한 데이터로 무엇을 하나요?

Amazon은 청구 목적으로 고객의 데이터를 저장하고 관련된 사용량을 추적합니다. Amazon은 법적으로 요구되지 않는 한, Amazon S3 서비스 제공 이외의 다른 목적으로 사용자의 데이터에 액세스하지 않습니다. 자세한 내용은 Amazon Web Services 라이선스 계약을 참조하세요.

Q: Amazon은 자체 데이터를 Amazon S3에 저장하나요?

예. Amazon의 전체 조직이 다양한 프로젝트에 Amazon S3를 사용합니다. 이러한 프로젝트 대부분이 Amazon S3를 자산의 권한이 있는 데이터 스토리지로 사용하고, 비즈니스 크리티컬한 작업에 활용합니다.

Q: Amazon S3의 데이터는 어떻게 관리됩니까?

Amazon S3는 간단한 키 기반의 객체 스토리지입니다. 데이터를 저장할 때 나중에 데이터를 검색하는 데 사용할 수 있는 고유한 객체 키를 할당합니다. 키에는 어떤 문자열이나 사용할 수 있으며 계층적 속성을 모방하여 구성할 수 있습니다. 또는 S3 객체 태깅을 사용하여 모든 S3 버킷 및/또는 접두사에 걸쳐 데이터를 관리할 수 있습니다.

Q: Amazon S3에서는 어떤 인터페이스를 사용합니까?

Amazon S3는 간편한 표준 기반 REST 웹 서비스 인터페이스를 제공합니다. 이 인터페이스는 어느 인터넷 개발 도구 키트에서나 사용할 수 있도록 설계되었습니다. 조작 방식을 단순화하여 새로운 분산 프로토콜과 기능 계층을 손쉽게 추가할 수 있습니다.

Q: Amazon S3의 안정성은 어느 정도인가요?

Amazon S3를 사용하면 Amazon의 글로벌 웹 사이트 네트워크 운영에 사용되는 것과 동일한 데이터 스토리지 인프라에 액세스할 수 있습니다. 이 인프라는 뛰어난 확장성, 고가용성, 빠른 속도와 탁월한 경제성을 제공합니다. S3 Standard 스토리지 클래스는 99.99%의 가용성, S3 Standard-IA 스토리지 클래스, S3 Intelligent-Tiering 스토리지 클래스 및 S3 Glacier Instant Retrieval 스토리지 클래스는 99.9%의 가용성, S3 One Zone-IA 스토리지 클래스는 99.5%의 가용성, S3 Glacier Instant Retrieval 및 S3 Glacier Deep Archive 클래스는 99.99%의 가용성과 99.9%의 SLA를 제공하도록 설계되었습니다. 이 모든 스토리지 클래스는 Amazon S3 서비스 수준 계약의 영향을 받습니다.

Q: 내 애플리케이션의 트래픽이 급증하는 경우 Amazon S3는 어떻게 작동하나요?

Amazon S3는 처음부터 모든 인터넷 애플리케이션의 트래픽을 처리할 수 있도록 설계되었습니다. 사용량에 따른 요금과 무제한 용량으로 증분 원가가 변경되지 않으며 서비스가 중단되지 않습니다. Amazon S3의 큰 규모 덕분에 로드를 고르게 분산할 수 있어 트래픽이 급상승하더라도 개별 애플리케이션이 영향을 받지 않습니다.

Q: Amazon S3는 서비스 수준 계약(SLA)을 제공합니까?

예. Amazon S3 SLA는 고객의 월간 가동률이 월별 결제 주기 동안 서비스 약정보다 낮을 경우 서비스 크레딧을 제공합니다.

Q: Amazon S3의 일관성 모델이란 무엇입니까?

Amazon S3는 성능이나 가용성을 변경하지 않고, 애플리케이션에 대한 지역적 분리 없이 그리고 추가 비용 없이 강력한 쓰기 후 읽기 일관성을 자동으로 제공합니다.

새 객체를 성공적으로 쓴 후 또는 기존 객체를 덮어쓴 후, 후속 읽기 요청은 즉시 객체의 최신 버전을 수신합니다. 또한 S3는 목록 작업에 강력한 일관성을 제공하므로, 쓰기 후에 변경 사항이 반영된 버킷의 객체 목록을 즉시 수행할 수 있습니다.

Q: 강력한 쓰기 후 읽기 일관성이 도움이 되는 이유는 무엇인가요?

강력한 쓰기 후 읽기 일관성은 쓰기 직후 객체를 읽어야 하는 경우에 도움이 됩니다(예: 객체 쓰기 직후에 자주 읽고 나열하는 경우). 고성능 컴퓨팅 워크로드는 객체가 덮어쓰기된 후 동시에 여러 번 읽을 때 강력한 쓰기 후 읽기 일관성이 모든 읽기에서 최신의 쓰기를 읽도록 보장한다는 이점도 얻습니다. 이러한 애플리케이션은 강력한 쓰기 후 읽기 일관성에서 자동으로 그리고 즉시 이점을 얻습니다. 또한 S3의 강력한 일관성은 강력한 일관성을 제공하기 위한 추가 인프라의 필요성을 없애 비용을 절감합니다.  

AWS 리전

Q: 데이터는 어디에 저장됩니까?

Amazon S3 버킷을 생성할 때 AWS 리전을 지정합니다. S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive 스토리지 클래스의 경우, 객체는 최소 3개의 가용 영역에 걸쳐 여러 디바이스에 자동 저장됩니다. AZ는 다른 모든 AZ와 수 킬로미터에 상당하는 유의미한 거리를 두고 물리적으로 분리되어 있습니다. 다만 모든 AZ는 서로 100km(60마일) 이내의 거리에 위치합니다. S3 One Zone-IA 스토리지 클래스에 저장된 객체는 사용자가 선택한 AWS 리전의 단일 가용 영역에 중복 저장됩니다. S3 on Outposts는 AWS 리전으로 전송하기로 직접 선택한 경우를 제외하고 데이터를 Outpost 온프레미스 환경에 저장합니다. AWS 리전별 Amazon S3 서비스 가용성에 대한 자세한 내용은 AWS 리전별 서비스 목록을 참조하세요.

Q: AWS 리전이란 무엇인가요?

AWS 리전은 AWS가 데이터 센터를 클러스터링하는 전 세계의 물리적 위치입니다.  한 리전 내의 각 논리적 데이터 센터 그룹을 가용 영역(AZ)이라고 합니다. 각 AWS 리전은 지리적 영역 내에서 격리되고 물리적으로 분리된 최소 3개의 AZ로 구성됩니다. 흔히 리전을 단일 데이터 센터로 정의하는 다른 클라우드 공급자와 달리 모든 AWS 리전의 여러 AZ 설계는 고객에게 여러 가지 이점을 제공합니다. 각 AZ는 독립된 전원, 냉각 및 물리적 보안을 갖추고 있으며 지연 시간이 매우 짧은 중복 네트워크를 통해 연결됩니다.

Q: AWS 가용 영역(AZ)이란 무엇인가요?

가용 영역(AZ)은 AWS 리전의 중복 전력, 네트워킹 및 연결이 제공되는 하나 이상의 개별 데이터 센터로 구성됩니다. AZ를 사용하면 단일 데이터 센터를 사용하는 것보다 더 높은 가용성, 내결함성 및 확장성을 갖춘 프로덕션 애플리케이션과 데이터베이스를 운영할 수 있습니다. AWS 리전의 모든 AZ는 높은 대역폭, 지연 시간이 짧은 네트워킹, 완전한 중복성을 갖춘 전용 메트로 광 네트워크와 상호 연결되어 있어 AZ 간에 높은 처리량(throughput)과 대기 시간이 짧은 네트워킹을 제공합니다.

Amazon S3 Standard, S3 Standard-Infrequent Access, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive 스토리지 클래스는 하나의 AZ가 모두 손실되어도 데이터를 보호할 수 있도록 최소 3개의 AZ에 걸쳐 데이터를 복제합니다. 이는 공개적으로 사용할 수 있는 AZ가 3개 미만인 리전에도 동일하게 적용됩니다. 이러한 스토리지 클래스에 저장된 객체는 해당 AWS 리전 내 모든 AZ에서 액세스할 수 있습니다.

Amazon S3 One Zone-IA 스토리지 클래스는 단일 AZ 내에서 데이터를 복제합니다. 단, S3 One Zone-IA에 저장된 데이터는 가용 영역의 물리적 손실(지진, 화재 및 홍수와 같은 자연재해로 인한 손실)에 대해 복원력이 유지되지 않습니다.

Q:  데이터를 저장할 AWS 리전을 어떻게 결정하나요?

특정 애플리케이션에 따라 고려해야 할 몇 가지 요인이 있습니다. 예를 들어, 고객, 데이터 센터, 기타 AWS 리소스 가까이에 있는 리전에 데이터를 저장하여 데이터 액세스 대기 시간을 감소시키고 싶을 수 있습니다. 또한, 지리적 이중화 및 재해 복구 목적을 위해 다른 운영 지역에서 멀리 떨어진 리전에 데이터를 저장하고 싶을 수 있습니다. 아니면, 특정 법률 및 규제 요구 사항에 대응하거나 스토리지 비용을 절감할 수 있는 리전을 고려해야 합니다. 비용 절감을 위해 더 저렴한 리전을 선택할 수 있습니다. S3 요금 정보는 Amazon S3 요금 페이지를 참조하세요.

Q: 전 세계 어느 리전에서 Amazon S3를 사용할 수 있나요?

Amazon S3는 전 세계 AWS 리전에서 사용할 수 있으며, 고객의 위치와 관계없이 Amazon S3를 사용할 수 있습니다. 어느 AWS 리전에서 Amazon S3 데이터를 저장할지 선택하기만 하면 됩니다. 현재 S3를 사용할 수 있는 AWS 리전 목록은 AWS 리전별 서비스 목록을 참조하세요.

결제

Q:  Amazon S3 비용은 얼마입니까?

Amazon S3에서는 사용한 만큼만 비용을 청구하며, 최소 요금은 없습니다. AWS 요금 계산기를 사용해 월별 청구액을 추산할 수 있습니다.

비용이 적게 드는 부분에서는 고객에게도 더 적은 금액이 부과됩니다. 일부 요금은 Amazon S3 리전별로 다릅니다. 청구 요금은 S3 버킷의 위치를 기준으로 합니다. COPY 요청을 통해 Amazon S3 리전 내에서 전송된 데이터에 대해서는 데이터 전송 요금이 부과되지 않습니다. COPY 요청을 통해 AWS 리전 간에 데이터가 전송된 경우 Amazon S3 요금 페이지에 명시된 요금이 부과됩니다. 같은 리전에 있는 Amazon EC2(또는 모든 AWS 서비스)와 Amazon S3 간에 데이터를 전송한 경우(예: 미국 동부(버지니아 북부) 리전 내에서의 데이터 전송) 데이터 전송 요금이 청구되지 않습니다. 그 외 모든 리전의 Amazon EC2(또는 모든 AWS 서비스)와 Amazon S3 간에 전송된 데이터(예: Amazon EC2 미국 동부(버지니아 북부)와 Amazon S3 미국 서부(캘리포니아 북부) 리전 간)에 대해서는 Amazon S3 요금 페이지에 명시된 요금이 부과됩니다. 데이터 전송 비용은 소스 버킷 소유자에게 청구됩니다.

S3 on Outposts 요금은 Outposts 요금 페이지를 참조하세요.

Q:  Amazon S3의 사용료는 어떻게 과금 및 청구되나요?

Amazon S3를 시작하는 데 드는 설치 요금이나 약정은 없습니다. 월말에 해당 월 사용액이 자동으로 결제됩니다. Amazon Web Services 계정에 로그인하고 콘솔 프로필에 연결된 ‘Billing Dashboard(빌링 대시보드)’를 선택하여 현재 결제 기간에 대한 요금을 확인할 수 있습니다.

AWS 프리 티어*를 이용하면 AWS GovCloud 리전을 제외한 모든 리전에서 Amazon S3를 무료로 시작할 수 있습니다. AWS 신규 가입 고객은 1년 동안 매달 5GB의 Amazon S3 Standard 스토리지, 2만 건의 Get 요청, 2,000건의 Put 요청, 100GB의 데이터 송신(인터넷, 다른 AWS 리전 또는 Amazon CloudFront로 송신) 혜택을 받게 됩니다. 사용되지 않은 월별 사용량은 다음 달로 이월되지 않습니다.

Amazon S3는 다음과 같은 사용 유형에 대한 요금을 청구합니다. 아래 계산은 AWS 프리 티어가 없는 경우를 가정한 것입니다.

사용 스토리지:

Amazon S3 스토리지 요금은 Amazon S3 요금 페이지에 정리되어 있습니다.

한 달에 청구되는 스토리지 양은 한 달 내내 사용하는 평균 스토리지를 기준으로 합니다. 여기에는 사용자가 AWS 계정에서 생성한 버킷에 저장되는 모든 객체 데이터와 메타데이터가 포함됩니다. 당사는 "TimedStorage-ByteHrs"로 사용자의 스토리지 사용량을 측정합니다. 이는 월말에 사용량을 합산하여 월 요금을 생성합니다.

스토리지 예:

3월에 100GB(107,374,182,400바이트)의 데이터를 버킷의 Amazon S3 Standard에 15일 동안 저장하고 100TB(109,951,162,777,600바이트)의 데이터를 Amazon S3 Standard에 나머지 16일 동안 저장한다고 가정해 보겠습니다.

3월 말에 바이트-시간 사용량은 다음과 같이 산출됩니다. 총 바이트-시간 사용량 = [107,374,182,400바이트 x 15일 x (24시간/일)] + [109,951,162,777,600바이트 x 16일 x (24시간/일)] = 42,259,901,212,262,400바이트-시간. 해당 월의 실제 일수를 기준으로 시간을 계산하세요. 예를 들어 이 예에서는 31일 또는 744시간이 있는 3월 기준으로 했습니다.

이를 GB-월로 변환하면 다음과 같습니다. 42,259,901,212,262,400바이트-시간 / GB당 1,073,741,824바이트 / 월별 744시간 = 52,900GB-월

이 사용 볼륨은 두 개의 서로 다른 볼륨 티어를 포함합니다. 월별 스토리지 요금은 데이터가 미국 동부(버지니아 북부) 리전에 저장되어 있다는 가정 하에 다음과 같이 계산됩니다. 50TB 티어: 51,200GB x 0.023 USD = 1,177.60 USD 50TB~450TB 티어: 1,700GB x 0.022 USD = 37.40 USD

총 스토리지 비용 = 1,177.60 USD + 37.40 USD = 1,215.00 USD

수신되는 네트워크 데이터:

Amazon S3에서 데이터 수신 시 요금은 Amazon S3 요금 페이지에 정리되어 있습니다. 이것은 Amazon S3 버킷에 전송된 데이터의 양을 나타냅니다. 

송신되는 네트워크 데이터:

Amazon S3에서 데이터 송신 시 요금은 Amazon S3 요금 페이지에 정리되어 있습니다. Amazon S3에서는 특정 Amazon S3 지역 이외의 지역에 있는 버킷에서 데이터를 읽어올 때마다 요금이 부과됩니다.

데이터 송신 요금은 특정 한 지역에서 인터넷으로 송신된 Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS 및 Amazon VPC 전체 데이터 송신량을 합산한 것입니다. 이러한 티어는 한 AWS 리전 내 Amazon S3에서 다른 AWS 리전으로 데이터를 전송하는 경우에는 적용되지 않습니다.

데이터 전송 예:
미국 동부(버지니아 북부) 리전에서 1TB의 Amazon S3 데이터를 인터넷으로 한 달(31일 기준) 동안 매일 전송한다고 가정합니다. 1TB의 Amazon EC2 인스턴스 데이터를 같은 리전에서 인터넷으로 같은 31일 동안 전송한다고 가정합니다.

이때 총 데이터 전송량은 62TB(Amazon S3에서 31TB, Amazon EC2에서 31TB)입니다. 이는 63,488GB(62TB * 1024GB/TB)와 같습니다.

이 사용 볼륨은 세 개의 다른 볼륨 티어를 포함합니다. 데이터 전송이 미국 동부(버지니아 북부) 리전에서 발생한다고 가정할 때 월별 데이터 송신 요금은 아래와 같이 계산됩니다.
10TB 티어: 10,239GB(10×1024GB/TB – 1(무료)) x 0.09 USD = 921.51 USD
10TB~50TB 티어: 40,960GB(40×1024) x 0.085 USD = 3,481.60 USD
50TB~150TB 티어: 12,288GB(나머지) x 0.070 USD = 860.16 USD

총 데이터 전송 요금 = 921.51 USD + 3,481.60 USD + 860.16 USD = 5,263.27 USD

데이터 요청:

Amazon S3 요청 요금은 Amazon S3 요금 페이지에 정리되어 있습니다.

요청 예:
3월 한 달 동안 매일 Amazon S3로 10,000개의 파일을 수신하고 Amazon S3에서 20,000개의 파일을 전송한다고 가정합니다. 그리고 3월 31일에 5,000개의 파일을 삭제합니다.
총 PUT 요청 = 10,000건의 요청 x 31일 = 310,000건의 요청
총 GET 요청 = 20,000건의 요청 x 31일 = 620,000건의 요청
총 DELETE 요청 = 5,000건의 요청 × 1일 = 5,000건의 요청

버킷이 미국 동부(버지니아 북부) 리전에 있는 경우 요청 요금은 아래와 같이 계산됩니다.
310,000건의 PUT 요청: 310,000건의 요청 x 0.005 USD/1,000 = 1.55 USD
620,000건의 GET 요청: 620,000건의 요청 x 0.004 USD/10,000 = 0.25 USD
5,000건의 DELETE 요청 = 5,000건의 요청 x 0.00 USD(요금 없음) = 0.00 USD

데이터 검색:

Amazon S3 데이터 검색 요금은 S3 Standard-Infrequent Access(S3 Standard-IA)와 S3 One Zone-IA 스토리지 클래스에 적용되며 Amazon S3 요금 페이지에 정리되어 있습니다.

데이터 검색 예제:
한 달에 S3 Standard-IA에서 300GB를 검색하고, 인터넷으로 100GB를 전송하고, 같은 AWS 리전의 EC2로 100GB를 전송하고, 같은 AWS 리전의 Amazon CloudFront로 100GB를 전송한다고 가정해보겠습니다.

해당 월의 데이터 검색 요금은 300GB x 0.01 USD/GB = 3.00 USD로 계산됩니다. 인터넷으로 전송된 부분에 대한 네트워크 데이터 전송 요금도 지불해야 합니다.

* * 프리 티어의 사용량은 AWS GovCloud 리전을 제외한 모든 리전에서 매달 계산되어 청구서에 자동으로 적용됩니다. 월별 미사용 분은 이월되지 않습니다. 제약 조건이 적용됩니다. 자세한 내용은 제품 및 서비스 약관을 참조하세요.

Q:  선택한 Amazon S3 리전에 따라 요금이 다른 이유는 무엇인가요?

비용이 적게 드는 부분에서는 고객에게도 더 적은 금액이 부과됩니다. 예를 들어 미국 동부(버지니아 북부) 리전의 비용은 미국 서부(캘리포니아 북부) 리전보다 낮습니다.

Q: 버전 관리 요금은 어떻게 부과됩니까?

저장되거나 요청된 객체의 모든 버전에는 일반 Amazon S3 요금이 적용됩니다. 예를 들어, 버전 관리를 사용할 경우 스토리지 비용을 산정하는 다음 시나리오를 살펴보겠습니다(현재 월의 일수가 31일이라고 가정).

1) 해당 월의 1일: 버킷에서 4GB(4,294,967,296바이트)의 PUT를 수행합니다.
2) 해당 월의 16일: 동일한 버킷 내에서 1일의 원본 PUT와 동일한 키를 사용해 5GB(5,368,709,120바이트)의 PUT를 수행합니다.

위 작업의 스토리지 비용을 분석할 경우 15일에 5GB 객체를 기록할 때 1일의 4GB 객체가 버킷에서 삭제되지 않는다는 점에 유의하세요. 그 대신, 4GB 객체가 기존 버전으로 보존되고 5GB 객체가 버킷 내에서 가장 최근에 기록된 버전의 객체가 됩니다. 월말:

총 바이트-시간 사용량
[4,294,967,296바이트 x 31일 x (24시간/일)] + [5,368,709,120바이트 x 16일 x (24시간/일)] = 5,257,039,970,304바이트-시간.

총 GB-월로 변환
5,257,039,970,304바이트-시간 x (1GB/1,073,741,824바이트) x (1개월/744시간) = 6.581GB-월

요금은 Amazon S3 요금 페이지에 명시된 고객 리전의 현재 요금을 기준으로 계산됩니다.

Q:  AWS Management Console을 통해 Amazon S3에 액세스할 경우 요금은 어떻게 부과되나요?

AWS Management Console을 통해 서비스에 액세스할 경우 정상 Amazon S3 요금이 적용됩니다. 성능을 최적화하기 위해 AWS Management Console이 능동적으로 요청을 실행할 수 있습니다. 또한 일부 대화형 작업으로 인해 서비스에 둘 이상의 요청이 발생됩니다.

Q:  다른 AWS 계정에서 내 Amazon S3 버킷에 액세스하는 경우 요금은 어떻게 부과됩니까?

다른 AWS 계정에서 스토리지에 액세스하는 경우 일반 Amazon S3 요금이 적용됩니다. 또는 버킷을 요청자 지불 버킷으로 구성하도록 선택할 수 있습니다. 이 경우 요청자가 Amazon S3 데이터 요청 및 다운로드 비용을 지불하게 됩니다.

요청자 지불 버킷 구성에 대한 자세한 내용은 Amazon S3 설명서를 참조하세요.

Q: 요금에 세금이 포함되어 있나요?

명시된 경우를 제외하고 요금에는 VAT 및 해당 판매세를 비롯한 관련 조세 공과가 포함되지 않습니다. 청구지 주소가 일본으로 되어 있는 고객의 경우 AWS 서비스 사용 시 일본 소비세의 적용을 받게 됩니다.

AWS 서비스의 세금에 대해 자세히 알아보기 »

Q: 데이터를 AWS 외부로 이동할 때 인터넷으로의 데이터 전송 요금이 발생하나요?

적격 AWS 고객은 아래 프로세스에 따라 모든 데이터를 AWS 외부로 이동할 때 데이터를 인터넷으로 무료로 전송할 수 있습니다.

Q: 내 데이터를 AWS 외부로 옮기고 싶습니다. 인터넷으로의 무료 데이터 전송을 요청하려면 어떻게 해야 하나요?

다음 단계를 완료합니다.

1) 전담 AWS 계정 팀이 있는 경우 먼저 해당 팀에 연락하여 계획을 알려주세요. 경우에 따라 AWS와 약정을 협상한 경우 AWS 계정 팀과 옵션에 대해 논의하는 것이 좋습니다.

2) 이 페이지에 설명된 기준과 프로세스를 검토하세요.

3) AWS 고객 지원에 연락하여 ‘AWS 외부로의 무료 데이터 전송’을 요청한다고 명시하세요. AWS 고객 지원에서는 이동 계획을 검토하고, 무료 데이터 전송 자격 여부를 평가하며, 적절한 크레딧 금액을 계산하기 위한 정보 제공을 요청할 것입니다.

4) AWS 고객 지원에서 이동을 승인하면 AWS의 계산 시점에 AWS 서비스 전체에 저장된 모든 데이터의 양을 기준으로 데이터 전송 비용에 대한 임시 크레딧을 받게 됩니다. 승인되면 AWS 고객 지원에서 알려드리며, 60일 이내에 AWS 이전을 완료해야 합니다. 크레딧은 데이터 전송 사용량에만 적용되며 다른 서비스 사용에는 적용되지 않습니다. AWS 서비스를 종료한 후 60일 이내에 AWS 계정에 남아 있는 모든 데이터와 워크로드를 삭제해야 합니다. 또는 AWS 계정을 해지해도 됩니다.

이전하는 IT 제공업체를 위한 무료 데이터 전송에는 다음 기준도 적용됩니다.

a) 유효한 상태의 AWS 계정을 보유한 고객만 무료 데이터 전송을 받을 수 있습니다.

b) AWS 계정에 저장된 데이터가 100GB 미만인 경우 AWS의 기존 월간 100GB 프리 티어에 따라 이 데이터를 AWS 외부로 무료로 옮길 수 있습니다. AWS 계정에 저장된 데이터가 100GB 미만인 고객은 추가 크레딧을 받을 수 없습니다.

c) 모든 데이터를 AWS 외부로 이동할 때 AWS는 인터넷으로의 무료 데이터 전송을 제공합니다. 전체 서비스가 아닌 단일 서비스의 총 사용량만 옮기고 싶은 경우에는 AWS 고객 지원으로 문의하세요.

d) 계획이 변경되거나 60일 이내에 AWS 이전을 완료할 수 없는 경우 AWS 고객 지원에 알려야 합니다.

e) AWS 서비스 사용에 대한 표준 서비스 요금은 포함되지 않습니다. AWS에서 다른 곳으로 이전하는 데 드는 데이터 전송 비용만 크레딧을 받을 수 있습니다. 하지만 Amazon CloudFront, AWS Direct Connect, AWS Snow Family, AWS Global Accelerator와 같은 전문 데이터 전송 서비스를 통한 데이터 전송은 포함되지 않습니다.

f) AWS는 서비스 사용량을 검토하여 이러한 요구 사항을 준수하는지 확인할 수 있습니다. 데이터 전송이 AWS 외부로 이전하는 것이 아닌 다른 목적으로 사용된 것으로 판단되는 경우 크레딧을 받은 데이터 전송에 대해 비용을 청구할 수 있습니다.

g) AWS는 인터넷으로의 무료 데이터 전송과 관련하여 언제든지 변경할 수 있습니다.

Q: 데이터를 AWS 외부로 이동하기 전에 인터넷으로의 무료 데이터 전송에 대해 AWS의 사전 승인을 요청해야 하는 이유는 무엇인가요?

AWS 고객은 매일 수억 건의 데이터를 전송하지만 일반적으로 AWS는 데이터 전송의 이유를 알 수 없습니다. 예를 들어 고객은 백업 목적으로 애플리케이션의 최종 사용자, 웹 사이트 방문자 또는 다른 클라우드 또는 온프레미스 환경으로 데이터를 전송할 수 있습니다. 따라서 사용자의 데이터 전송이 AWS 외부로의 이전을 지원하는 것임을 알 수 있는 유일한 방법은 사전에 알려주는 것입니다.

Amazon S3 및 IPv6

Q: IPv6란 무엇입니까?

인터넷에 연결된 모든 서버 및 디바이스는 고유한 주소를 가지고 있습니다. Internet Protocol Version 4(IPv4)는 원래 32비트 주소 지정 체계였습니다. 하지만 인터넷의 지속적인 성장은 시간이 지나면서 사용할 수 있는 모든 IPv4 주소가 소모될 것임을 의미합니다. Internet Protocol Version 6(IPv6)는 IPv4의 전 세계적인 주소 한계를 극복하기 위해 설계된 주소 지정 메커니즘입니다.

Q: IPv6로 어떤 작업을 할 수 있습니까?

Amazon S3의 IPv6 지원 기능을 사용하면 애플리케이션이 IPv6에서 IPv4로의 변환 소프트웨어나 시스템 없이도 Amazon S3에 연결할 수 있습니다. 규정 준수 요구 사항을 충족하고, 좀 더 쉽게 기존 IPv6 기반 온프레미스 애플리케이션과 통합할 수 있으며, 주소 변환을 처리하기 위해 고가의 네트워킹 장비를 구매할 필요가 없습니다. 또한, 이제 IAM 정책 및 버킷 정책에 있는 기존의 소스 주소 필터링 기능을 IPv6 주소에 활용하여 Amazon S3와 상호 작용하는 애플리케이션의 보안에 대한 옵션을 확장할 수 있습니다.

Q: Amazon S3에서 IPv6를 시작하려면 어떻게 해야 하나요?

시작하려면 애플리케이션이 Amazon S3의 ‘이중 스택’ 엔드포인트를 가리키도록 합니다. 이 엔드포인트는 IPv4와 IPv6 모두를 지원합니다. 네트워크 클라이언트 대부분이 기본적으로 IPv6 주소를 선택하므로 대부분의 경우에는 추가 구성 없이 IPv6를 통해 액세스할 수 있습니다. IPv6 사용 시 애플리케이션이 영향을 받는 경우 언제든 표준 IPv4 전용 엔드포인트로 다시 전환할 수 있습니다. AWS GovCloud(미국) 리전, Sinnet에서 운영하는 Amazon Web Services 중국(베이징) 리전, NWCD에서 운영하는 Amazon Web Services 중국(닝샤) 리전을 비롯한 모든 상용 AWS 리전에서 Amazon S3에 IPv6를 사용할 수 있습니다. 

Q: IPv6를 사용하면 Amazon S3 성능에 변화가 있나요?

아니요. Amazon S3에서 IPv4 또는 IPv6 어느 것을 사용하든 성능은 동일합니다.

S3 이벤트 알림

Q: Amazon S3 이벤트 알림이란 무엇인가요?

Amazon S3 이벤트 알림 기능을 사용하면 S3 버킷에서 PUT, POST, COPY 및 DELETE 이벤트와 같은 특정 이벤트가 발생할 때 알림을 받을 수 있습니다. 알림은 Amazon EventBridgeAmazon SNS, Amazon SQS 또는 AWS Lambda에 직접 게시할 수 있습니다.

Q: Amazon S3 이벤트 알림으로 무엇을 할 수 있나요?

Amazon S3 이벤트 알림을 사용하면 S3에 저장된 객체의 변경에 대한 응답으로 워크플로를 실행하거나, 알림을 보내거나, 기타 작업을 수행할 수 있습니다. S3 이벤트 알림을 사용하여 미디어 파일이 업로드되면 이를 트랜스코딩하고, 데이터 파일이 사용 가능해지면 이를 처리하며, S3 객체를 다른 데이터 스토어와 동기화하는 등의 작업을 수행하도록 트리거를 설정할 수 있습니다. 또한, 객체 이름의 접두사 및 접미사에 따라 이벤트 알림을 설정할 수도 있습니다. 예를 들어, ‘images/’로 시작하는 객체 이름에 대한 알림을 수신하도록 설정할 수 있습니다.

Q: Amazon S3 이벤트 알림에는 어떤 정보가 포함되나요?

Amazon S3 이벤트 알림 메시지에 포함되는 정보에 대한 자세한 설명은 Amazon S3 이벤트 알림 구성 설명서를 참조하세요. 

Q: Amazon S3 이벤트 알림을 설정하려면 어떻게 해야 하나요?

이벤트 알림을 구성하는 방법에 대한 자세한 설명은 Amazon S3 이벤트 알림 구성 설명서를 참조하세요. AWS 메시징 서비스에 대한 자세한 내용은 Amazon SNS 설명서Amazon SQS 설명서를 참조하세요.

Q: Amazon S3 이벤트 알림을 사용하는 비용은 얼마인가요?

Amazon S3의 이벤트 알림은 추가 비용 없이 사용할 수 있습니다. 이벤트 알림을 전송하기 위해 사용한 Amazon SNS 또는 Amazon SQS에 대한 비용 또는 AWS Lambda 함수를 실행하는 비용만 지불하면 됩니다. 이러한 서비스의 요금 내역은 Amazon SNS, Amazon SQS 또는 AWS Lambda 요금 페이지를 참조하세요.

Amazon S3 Transfer Acceleration

Q: S3 Transfer Acceleration이란 무엇인가요?

Amazon S3 Transfer Acceleration은 거리가 먼 클라이언트와 Amazon S3 버킷 간에 파일을 빠르고, 쉽고, 안전하게 전송할 수 있게 합니다. S3 Transfer Acceleration은 전 세계적으로 분산된 Amazon CloudFront의 AWS 엣지 로케이션을 활용합니다. 데이터가 AWS 엣지 로케이션에 도착하면, 이 데이터는 최적화된 네트워크 경로를 통해 Amazon S3 버킷으로 라우팅됩니다.

Q: S3 Transfer Acceleration을 시작하려면 어떻게 해야 하나요?

S3 Transfer Acceleration을 시작하려면 Amazon S3 콘솔, Amazon S3 API 또는 AWS CLI를 사용하여 S3 버킷에 대해 S3 Transfer Acceleration을 사용하도록 설정합니다. S3 Transfer Acceleration이 사용된 후에는 Amazon S3 PUT 및 GET 요청이 s3-accelerate 엔드포인트 도메인 이름을 가리키도록 할 수 있습니다. 데이터 전송 애플리케이션이 더 빠른 데이터 전송을 위해 버킷에 액세스하기 위해서는 두 가지 유형의 엔드포인트, 즉 '이중 스택' 엔드포인트용 .s3-accelerate.dualstack.amazonaws.com 또는 .s3-accelerate.amazonaws.com 중 하나를 사용해야 합니다. 표준 데이터 전송을 사용하려면, 일반 엔드포인트를 계속 사용하면 됩니다.

버킷에서 S3 Transfer Acceleration을 지원하기 위해서는 몇 가지 제약 사항이 따릅니다. 자세한 내용은 Amazon S3 설명서를 참조하세요.

Q: S3 Transfer Acceleration의 속도는 어떻게 되나요?

S3 Transfer Acceleration은 대역폭을 충분히 사용하고, 거리가 처리량에 미치는 영향을 최소화할 수 있으며, 클라이언트의 위치와 상관없이 데이터를 Amazon S3로 일관되게 빠른 속도로 전송할 수 있도록 설계되었습니다. 가속화의 수준은 기본적으로 사용 가능한 대역폭, 소스와 대상 간의 거리, 네트워크 경로의 패킷 손실률에 따라 달라집니다. 일반적으로 소스와 대상 간의 거리가 더 멀고, 사용 가능한 대역폭이 많고, 객체 크기가 클수록 가속화가 잘 되는 것을 볼 수 있습니다.

한 고객은 미국, 유럽 및 아시아 일부에 분산된 글로벌 사용자 기반에서 300MB 파일을 아시아 태평양(시드니) 리전에 있는 버킷으로 수집하는 데 걸리는 시간을 평균 50% 단축했습니다. 다른 고객은 동남아시아와 호주의 사용자가 250MB 파일(50MB 단위로 나누어)을 미국 동부(버지니아 북부) 리전에 있는 S3 버킷으로 업로드할 때 성능이 500% 이상 향상된 사례를 확인했습니다.

S3 Transfer Acceleration 속도 비교 도구를 사용하여 해당하는 위치에서 예상되는 성능 혜택을 미리 확인해 보시기 바랍니다.

Q: S3 Transfer Acceleration은 누가 사용해야 하나요?

S3 Transfer Acceleration은 전 세계에서 S3 버킷으로 전송되는 속도를 최적화하도록 설계되었습니다. 지리적으로 분산된 위치에서 중앙 집중식 버킷으로 데이터를 업로드하거나, 대륙 간에 GB 또는 TB 규모의 데이터를 정기적으로 전송하는 경우, S3 Transfer Acceleration을 사용하면 몇 시간 또는 며칠의 데이터 전송 시간을 절약할 수 있습니다.

Q: S3 Transfer Acceleration은 얼마나 안전한가요?

S3 Transfer Acceleration은 Amazon S3로 전송되는 일반 전송과 같은 보안을 제공합니다. 클라이언트의 IP 주소에 따라 액세스를 제한하는 등 모든 Amazon S3 보안 기능이 지원됩니다. S3 Transfer Acceleration은 표준 TCP를 통해 클라이언트와 통신하며 방화벽을 변경할 필요가 없습니다. AWS 엣지 로케이션에는 어떤 데이터도 저장되지 않습니다.

Q: S3 Transfer Acceleration이 일반 Amazon S3 전송보다 빠르지 않을 경우는 어떻게 되나요?

사용자가 S3 Transfer Acceleration을 사용하여 객체를 업로드할 때마다, AWS에서는 S3 Transfer Acceleration이 일반 Amazon S3 전송보다 속도가 빠른지 확인합니다. 동일한 대상 AWS 리전으로 동일한 객체를 전송하는 일반 Amazon S3보다 S3 Transfer Acceleration의 속도가 빠르지 않다고 AWS에서 확인하면, AWS에서는 해당 전송에 대해 S3 Transfer Acceleration 사용 요금을 부과하지 않으며, 해당 업로드는 S3 Transfer Acceleration 시스템을 우회할 수 있습니다.

Q: 멀티파트 업로드에 S3 Transfer Acceleration을 사용할 수 있습니까?

예. S3 Transfer Acceleration은 멀티파트 업로드를 비롯한 모든 버킷 수준의 기능을 지원합니다.

Q: S3 Transfer Acceleration과 Amazon CloudFront의 PUT/POST 중 어떤 것을 선택해야 합니까?

S3 Transfer Acceleration은 클라이언트와 S3 버킷 간의 TCP 프로토콜을 최적화하고 인텔리전스를 추가하므로, 더 높은 처리량이 필요한 경우 S3 Transfer Acceleration이 더 적합합니다. 객체가 1GB보다 작거나 데이터 세트가 1GB보다 작은 경우, 최적의 성능을 위해서는 Amazon CloudFront의 PUT/POST 명령을 사용하는 것이 좋습니다.

Q: S3 Transfer Acceleration과 AWS Snow Family 중에서 선택할 때는 어떻게 해야 하나요?

AWS Snowball 패밀리는 대용량 데이터 배치를 한 번에 옮기려는 고객에게 적합합니다. AWS Snowball은 보통 한번 사용하는 데 5~7일이 걸립니다. 경험으로 보아, S3 Transfer Acceleration은 1Gbps 라인을 충분히 사용할 수 있는 경우 같은 시간에 최대 75TB를 전송할 수 있습니다. 일반적으로, 인터넷을 통해 전송하는 데 일주일보다 오래 걸리거나, 반복되는 전송 작업이 있고 사용 가능한 대역폭이 25Mbps보다 큰 경우, S3 Transfer Acceleration이 적합한 옵션입니다. 또 다른 옵션은 둘 다 사용하는 것입니다. 용량이 큰 초기 전송에는 AWS Snowball(또는 AWS Snowball 시리즈)을 사용한 다음, 지속적인 증분 변경은 S3 Transfer Acceleration을 통해 전송합니다.

Q: S3 Transfer Acceleration으로 AWS Direct Connect를 보완할 수 있나요?

AWS Direct Connect는 프라이빗 네트워킹이 필요하거나, AWS Direct Connect 교환에 액세스할 수 있는 고객에게 적합한 옵션입니다. S3 Transfer Acceleration은 분산된 클라이언트 위치에서 퍼블릭 인터넷을 통해 데이터를 전송하거나, 가변적인 네트워크 환경으로 처리량(throughput)이 낮은 경우에 적합합니다. 일부 AWS Direct Connect 고객은 열악한 인터넷 성능의 영향을 받는 원격 사무실 전송에 S3 Transfer Acceleration을 사용합니다.

Q: S3 Transfer Acceleration으로 AWS Storage Gateway 또는 서드 파티 게이트웨이를 보완할 수 있나요?

서드 파티 게이트웨이의 버킷 대상에서 S3 Transfer Acceleration 엔드포인트 도메인을 사용하도록 구성할 수 있다면 이점을 누릴 수 있을 것입니다.

AWS 구현에 대한 자세한 내용은 Storage Gateway FAQ의 파일 섹션을 참조하세요.

Q: S3 Transfer Acceleration으로 타사 통합 소프트웨어를 보완할 수 있나요?

예. Amazon S3에 직접 연결되는 소프트웨어 패키지는 작업을 Amazon S3로 전송할 때 S3 Transfer Acceleration을 활용할 수 있습니다.

스토리지 파트너 솔루션에 대해 자세히 알아보기 »

Q: S3 Transfer Acceleration은 HIPAA 적격 서비스인가요?

예. AWS는 S3 Transfer Acceleration을 HIPAA 적격 서비스로 포함하도록 HIPAA 규정 준수 프로그램을 확장했습니다. AWS와 비즈니스 제휴 계약(BAA)을 체결한 경우 S3 Transfer Acceleration을 사용하여 거리가 먼 클라이언트와 Amazon S3 버킷 간에 개인 건강 정보(PHI)를 비롯한 파일을 빠르고, 쉽고, 안전하게 전송할 수 있습니다.

보안

Q: Amazon S3에 있는 내 데이터는 얼마나 안전합니까?     

Amazon S3는 기본적으로 안전합니다. 생성 시 사용자가 생성한 Amazon S3 버킷에 대한 액세스는 사용자에게만 있으며, 데이터에 액세스하는 사람에 대한 모든 제어를 보유합니다. Amazon S3는 데이터에 대한 액세스를 제어하기 위해 사용자 인증을 지원합니다. 버킷 정책과 같은 액세스 제어 메커니즘을 사용해 선택적으로 사용자 및 사용자 그룹에 권한을 부여할 수 있습니다. Amazon S3 콘솔은 공개적으로 액세스할 수 있는 버킷을 강조 표시하고, 공개적으로 액세스가 가능한 소스를 표시하며, 사용자가 버킷 정책 또는 버킷 ACL을 변경하는 경우 버킷이 공개적으로 액세스할 수 있는 상태가 될 수 있음을 경고합니다. 퍼블릭 액세스를 원하지 않는 모든 계정 및 버킷에 대해 Amazon S3 퍼블릭 액세스 차단을 사용해야 합니다. 모든 새 버킷에는 퍼블릭 액세스 차단이 기본적으로 활성화되어 있습니다.

HTTPS 프로토콜을 사용하는 SSL 엔드포인트를 통해 Amazon S3에 데이터를 안전하게 업로드/다운로드할 수 있습니다. Amazon S3는 버킷에 업로드되는 모든 객체를 자동으로 암호화합니다(2023년 1월 5일 기준). 또는 Amazon S3에 저장하기 전에 자체 암호화 라이브러리를 사용하여 데이터를 암호화할 수도 있습니다.

AWS의 보안에 대한 자세한 내용은 AWS 보안 페이지, S3 보안 정보는 S3 보안 페이지S3 보안 모범 사례 가이드를 참조하세요.

Q: Amazon S3에 저장된 데이터에 대한 액세스를 제어하려면 어떻게 해야 하나요?

고객은 AWS Identity and Access Management(IAM) 정책, 버킷 정책, 액세스 포인트 정책, 액세스 제어 목록(ACL), 쿼리 문자열 인증, Amazon Virtual Private Cloud(VPC) 엔드포인트 정책, AWS Organizations의 서비스 제어 정책(SCP) 및 Amazon S3 퍼블릭 액세스 차단을 포함하여 Amazon S3 리소스에 대한 액세스를 제어하는 다양한 메커니즘을 사용할 수 있습니다.

IAM
직원이 여러 명인 조직은 IAM을 통해 하나의 AWS 계정에서 여러 사용자를 생성하고 관리할 수 있습니다. 고객은 IAM 정책을 사용하여 IAM 사용자에게 Amazon S3 버킷 또는 객체에 대한 세분화된 제어 권한을 부여하는 동시에 사용자가 하는 모든 작업을 완전히 제어할 수 있습니다.

버킷 및 액세스 포인트 정책
버킷 정책 및 액세스 포인트 정책을 사용하면 Amazon S3 리소스의 하위 집합에 대한 쓰기 권한을 부여하는 등 Amazon S3 리소스에 대한 모든 요청에 폭넓게 적용할 규칙을 정의할 수 있습니다. 고객은 HTTP 참조자나 IP 주소와 같은 요청의 측면을 기준으로 액세스를 제한할 수도 있습니다.

ACL
Amazon S3에서는 S3의 원래 액세스 제어 방법인 액세스 제어 목록(ACL)을 지원합니다. ACL을 사용하여 개별 버킷 또는 객체의 특정 사용자에게 특정 권한(READ, WRITE, FULL_CONTROL)을 부여할 수 있습니다. 액세스 제어에 대해 배타적 정책을 사용하려는 고객을 위해 Amazon S3에서는 ACL을 사용 중지하는 S3 객체 소유권 기능을 제공합니다. IAM 기반 버킷 정책으로 마이그레이션할 때 S3 객체 소유권을 사용하도록 설정하기 전에 S3 인벤토리를 사용하여 버킷의 ACL 사용량을 검토할 수 있습니다.

쿼리 문자열 인증
쿼리 문자열 인증을 사용하면 제한된 시간에만 유효한 Amazon S3 객체의 URL을 생성할 수 있습니다. Amazon S3에서 사용할 수 있는 다양한 액세스 제어 정책에 대한 자세한 내용은
세스 제어 설명서를 참조하세요.

Amazon VPC
고객이 Amazon VPC 엔드포인트를 생성하면 연결된 Amazon S3 리소스에 대한 액세스를 제어하는 위치에 엔드포인트 정책을 연결할 수 있습니다. 또한, 고객은 Amazon S3 버킷 정책을 사용하여 특정 엔드포인트 또는 특정 VPC에서 버킷에 대한 액세스를 제어할 수 있습니다.

서비스 제어 정책
서비스 제어 정책(SCP)은 고객이 조직에서 권한을 관리하는 데 사용할 수 있는 AWS Organizations 정책 유형입니다. SCP에서는 조직의 모든 계정에서 사용 가능한 최대 권한에 대한 중앙식 제어를 제공합니다. SCP를 사용하면 고객은 조직의 액세스 제어 지침 내에서 계정을 관리할 수 있습니다.

S3 퍼블릭 액세스 차단
Amazon S3 퍼블릭 액세스 차단에서는 고객이 Amazon S3 리소스에 대한 퍼블릭 액세스를 관리하는 데 도움이 되는 액세스 포인트, 버킷 및 계정에 대한 설정을 제공합니다. S3 퍼블릭 액세스 차단을 사용하는 경우 계정 관리자 및 버킷 소유자는 리소스 생성 방식에 상관없이 시행되는 Amazon S3 리소스에 대한 퍼블릭 액세스를 제한하기 위해 중앙식 제어를 쉽게 설정할 수 있습니다. 모든 새 버킷에는 보안 모범 사례로 퍼블릭 액세스 차단이 기본적으로 활성화되어 있습니다.

AWS IAM 설명서에서 정책 및 권한에 대해 자세히 알아보세요.

Q: Amazon S3에서는 데이터 액세스 감사 기능을 지원합니까?

예. 고객은 필요에 따라 Amazon S3 버킷에 전달된 모든 요청에 대한 액세스 로그 레코드를 생성하도록 Amazon S3 버킷을 구성할 수 있습니다. 또는 로그의 IAM/사용자 자격 증명 정보를 캡처해야 하는 고객은 AWS CloudTrail 데이터 이벤트를 구성할 수도 있습니다.

이러한 액세스 로그 레코드는 감사 목적으로 사용할 수 있으며, 요청 유형, 요청에 지정된 리소스, 요청이 처리된 시간 및 날짜와 같은 요청에 대한 세부 정보를 포함할 수 있습니다.

Q: Amazon S3에 저장된 데이터를 암호화하는 옵션이 있나요?

Amazon S3는 모든 버킷에 업로드되는 모든 새 데이터를 암호화합니다. Amazon S3는 S3 관리형 서버 측 암호화(SSE-S3)를 기본 암호화 수준으로 모든 객체 업로드에 적용합니다(2023년 1월 5일 기준). SSE-S3는 Amazon이 다중 보안 계층을 사용하여 키 관리 및 키 보호를 처리하는 완전관리형 솔루션을 제공합니다. Amazon에서 키를 관리하도록 하려면 SSE-S3를 계속 사용해야 합니다. 또한 SSE-C, SSE-KMS, DSSE-KMS 또는 Amazon S3 암호화 클라이언트 같은 클라이언트 라이브러리를 사용하여 데이터를 암호화하도록 선택할 수 있습니다. 각 옵션을 사용하여 민감한 데이터를 암호화된 상태로 Amazon S3에 저장할 수 있습니다.

SSE-C를 사용하는 경우 Amazon S3에서 객체의 암호화 및 복호화를 수행하는 동안 암호화 키를 사용자가 제어할 수 있습니다. SSE-C를 사용하면 Amazon S3에 저장한 객체에 대한 암호화 및 암호 해독을 수행하기 위해 클라이언트 측 라이브러리를 구현하거나 사용하지 않아도 되지만, 객체를 암호화하거나 해독하기 위해 Amazon S3로 전송한 키는 관리해야 합니다. 자체 암호화 키를 유지 관리하고 싶지만 클라이언트 측 암호화 라이브러리를 구현하거나 활용하고 싶지 않은 경우에는 SSE-C를 사용하세요.

SSE-KMS를 사용하면 AWS Key Management Service(AWS KMS)로 암호화 키를 관리할 수 있습니다. AWS KMS를 사용해 키를 관리하면 다양한 이점을 얻을 수 있습니다. AWS KMS를 사용하면 KMS 키를 사용할 수 있는 별도의 권한이 있으므로 Amazon S3에 저장된 객체에 대한 무단 액세스를 차단하고 추가 제어 계층을 제공할 수 있습니다. AWS KMS는 감사 추적을 제공하므로 데이터 암호 해독 권한이 없는 사용자의 실패한 데이터 액세스 시도를 볼 수 있을 뿐 아니라 누가 키를 사용해 어떤 객체에 언제 액세스했는지도 확인할 수 있습니다. 또한 AWS KMS는 PCI-DSS, HIPAA/HITECH 및 FedRAMP 산업 요구 사항을 준수하기 위한 고객의 노력을 지원하기 위해 추가 보안 규제 항목을 제공합니다.

DSSE-KMS를 사용하면 클라이언트측 암호화에 필요한 인프라에 투자하지 않고도 데이터에 2계층 암호화를 간편하게 적용할 수 있습니다. 각 암호화 계층은 Galois Counter Mode(AES-GCM) 알고리즘을 적용한 256비트 고급 암호화 표준의 다른 구현을 사용하며, 심사를 거쳐 일급 기밀 워크로드에 사용할 수 있도록 승인되었습니다. DSSE-KMS는 AWS KMS를 사용하여 데이터 키를 생성하고 AWS KMS를 통해 암호화 키를 관리합니다. AWS KMS를 사용하면 KMS 키를 사용할 수 있는 별도의 권한이 있으므로 Amazon S3에 저장된 객체에 대한 무단 액세스를 차단하고 추가 제어 계층을 제공할 수 있습니다. AWS KMS는 감사 추적을 제공하므로 데이터 암호 해독 권한이 없는 사용자의 실패한 데이터 액세스 시도를 볼 수 있을 뿐 아니라 누가 키를 사용해 어떤 객체에 언제 액세스했는지도 확인할 수 있습니다. 또한 AWS KMS는 PCI-DSS, HIPAA/HITECH 및 FedRAMP 산업 요구 사항을 준수하기 위한 고객의 노력을 지원하기 위해 추가 보안 규제 항목을 제공합니다.

암호화 클라이언트 라이브러리를 사용하면키에 대한 제어 권한을 유지할 수 있으며 원하는 암호화 라이브러리를 사용하여 클라이언트 측 객체 암호화 및 암호 해독을 완료할 수 있습니다. 일부 고객은 객체의 암호화 및 암호 해독에 대한 전체적인 엔드 투 엔드 제어 권한을 선호합니다. 이러한 방법을 사용하면 암호화된 객체만이 인터넷을 통해 Amazon S3로 전송됩니다. 암호화 키에 대한 제어 권한을 유지하고자 하며 클라이언트측 암호화 라이브러리를 구현 또는 사용할 수 있으며 스토리지를 위해 Amazon S3로 객체를 전송하기 전에 암호화해야 하는 경우에는 클라이언트 측 라이브러리를 사용하세요.

Amazon S3 SSE-S3, SSE-C 또는 SSE-KMS 사용에 대한 자세한 내용은 암호화를 사용하여 데이터 보호 설명서를 참조하세요.

Q: Amazon S3를 사용하여 유럽 데이터 프라이버시 규정을 준수할 수 있나요?

유럽(프랑크푸르트), 유럽(아일랜드), 유럽(파리), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(런던) 또는 유럽(취리히) 리전을 사용하여 모든 데이터를 유럽에 저장하도록 선택할 수 있습니다. 또한 Amazon S3 on Outposts를 사용하면 온프레미스에서 AWS Outpost에 모든 데이터를 저장할 수 있습니다. 원하는 경우 AWS Outposts 간에 또는 AWS 리전으로 데이터를 전송할 수 있습니다. 유럽 프라이버시법에 대한 준수를 확인할 책임은 고객에게 있습니다. 자세한 내용은 AWS 일반 데이터 보호 규정(GDPR) 센터AWS 데이터 프라이버시 센터를 참조하세요. 더욱 구체적인 위치 요구 사항이 있거나 AWS 리전이 아닌 위치에 데이터를 저장해야 하는 다른 데이터 프라이버시 규정이 있는 경우, S3 on Outposts를 사용할 수 있습니다.

Q: Amazon S3용 Amazon VPC 엔드포인트란 무엇인가요?

Amazon S3용 Amazon VPC 엔드포인트는 AWS 글로벌 네트워크를 통해 S3에 연결할 수 있도록 하는 VPC 내의 논리적 엔터티입니다. S3용 VPC 엔드포인트에는 게이트웨이 VPC 엔드포인트와 인터페이스 VPC 엔드포인트의 두 가지 유형이 있습니다. 게이트웨이 엔드포인트는 AWS 네트워크를 통해 VPC에서 S3에 액세스하기 위해 라우팅 테이블에 지정하는 게이트웨이입니다. 인터페이스 엔드포인트는 프라이빗 IP를 사용하여 VPC, 온프레미스 또는 다른 AWS 리전에서 S3로 요청을 라우팅함으로써 게이트웨이 엔드포인트의 기능을 확장합니다. 자세한 내용은 AWS PrivateLink for Amazon S3 설명서를 참조하세요.

Q: 특정 Amazon VPC 엔드포인트가 Amazon S3 버킷에 액세스하도록 허용할 수 있나요?

Amazon S3 버킷 정책을 사용하여 특정 Amazon VPC 엔드포인트 또는 엔드포인트 세트에서 버킷에 대한 액세스를 제한할 수 있습니다. 이제 S3 버킷 정책은 액세스 제한에 사용할 수 있는 조건인 aws:sourceVpce를 지원합니다. 자세한 내용과 예제 정책은 S3의 게이트웨이 엔드포인트 설명서를 읽어보세요. 

Q: Amazon S3용 AWS PrivateLink란 무엇인가요?

AWS PrivateLink for S3는 Amazon S3와 온프레미스 간의 프라이빗 연결을 제공합니다. VPC에서 S3용 인터페이스 VPC 엔드포인트를 프로비저닝하여 AWS Direct Connect나 AWS VPN을 통해 S3에 온프레미스 애플리케이션을 직접 연결할 수 있습니다. 이제 온프레미스에서 S3에 액세스하기 위해 인터넷 게이트웨이를 구성하거나 방화벽 규칙을 변경하거나 퍼블릭 IP를 사용할 필요가 없습니다. 자세히 알아보려면 S3용 AWS PrivateLink 설명서를 참조하세요.

Q: S3용 인터페이스 VPC 엔드포인트를 시작하려면 어떻게 해야 하나요?

AWS VPC Management Console, AWS Command Line Interface(AWS CLI), AWS SDK 또는 API를 사용하여 인터페이스 VPC 엔드포인트를 생성할 수 있습니다. 자세한 내용은 설명서를 참조하세요.

Q: 어떠한 경우 게이트웨이 VPC 엔드포인트와 AWS PrivateLink 기반의 인터페이스 VPC 엔드포인트를 선택해야 하나요?

온프레미스 또는 다른 AWS 리전의 VPC에서 S3에 액세스하려는 경우 인터페이스 VPC 엔드포인트를 사용하는 것이 좋습니다. S3와 동일한 AWS 리전에 있는 VPC에서 S3에 액세스하는 리소스의 경우 요금이 청구되지 않으므로 게이트웨이 VPC 엔드포인트를 사용하는 것이 좋습니다. 자세한 내용은 설명서를 참조하세요.

Q: 동일한 VPC에서 S3용 인터페이스 엔드포인트와 게이트웨이 엔드 포인트를 모두 사용할 수 있나요?

예. 기존 게이트웨이 VPC 엔드포인트가 있는 경우 VPC에 인터페이스 VPC 엔드포인트를 생성하고 VPC 엔드포인트 관련 엔드포인트 이름으로 클라이언트 애플리케이션을 업데이트합니다. 예를 들어 인터페이스 엔드포인트의 VPC 엔드포인트 ID가 us-east-1 리전에서 vpce-0fe5b17a0707d6abc-29p5708s인 경우 해당 엔드포인트 관련 DNS 이름은 vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com입니다. 이 경우 해당 VPC 엔드포인트 관련 이름에 대한 요청만 인터페이스 VPC 엔드포인트를 통해 S3로 라우팅되는 반면 다른 모든 요청은 게이트웨이 VPC 엔드포인트를 통해 계속 라우팅됩니다. 자세한 내용은 설명서를 참조하세요.

Q: Amazon Macie란 무엇이며, 데이터를 보호하기 위해 어떻게 사용해야 하나요?

Amazon Macie는 Amazon S3에 저장된 민감한 데이터를 자동으로 검색, 분류 및 보호하여 데이터 손실을 막는 데 도움을 주는 AI 기반 보안 서비스입니다. Amazon Macie는 기계 학습을 사용하여 개인 식별 정보(PII) 또는 지적 재산과 같은 민감한 데이터를 인식하고 비즈니스 가치를 부여하며 이 데이터가 저장된 장소와 이 데이터가 조직에서 어떤 방식으로 사용되는지 파악합니다. Amazon Macie는 비정상적인 데이터 액세스 활동을 지속적으로 모니터링하여 무단 액세스 또는 의도하지 않은 데이터 유출 위험이 감지될 경우 경고합니다.

Amazon Macie를 사용하여 데이터 및 계정 자격 증명을 지속적으로 모니터링하여 보안 위협을 차단할 수 있습니다. Amazon Macie를 통해 비즈니스 데이터를 간편하게 자동으로 검색 및 분류할 수 있습니다. 또한 의심스러운 동작이나 엔터티 또는 타사 애플리케이션에 대한 무단 데이터 액세스 발견 시 템플릿 기반 Lambda 함수를 통해 제공되는 제어 기능을 사용하여 액세스를 취소하거나 암호 재설정 정책을 트리거할 수 있습니다. 알림이 발생하면 Amazon Macie를 사고 대응에 사용해서 Amazon CloudWatch Events를 사용하여 데이터 보호를 위한 신속한 조치를 취할 수 있습니다. 자세한 내용은 Amazon Macie 설명서를 참조하세요.

Q: IAM Access Analyzer for Amazon S3란 무엇이며, 어떻게 작동하나요?

Access Analyzer for S3는 S3 버킷 및 액세스 포인트에 대한 정책을 설정, 확인, 구체화할 때 권한 관리를 단순화하는 데 도움이 되는 기능입니다. Access Analyzer for S3는 기존 액세스 정책을 모니터링하여 S3 리소스에 대한 필수 액세스 권한만 제공하는지 확인합니다. Access Analyzer for S3는 버킷 액세스 정책을 평가하여 액세스가 필요하지 않은 있는 버킷을 검색하고 신속하게 교정할 수 있게 합니다.

인터넷에서 누구나 액세스할 수 있게 버킷이 구성되어 있거나 버킷이 다른 AWS 계정과 공유되는 경우 Access Analyzer for S3에서 이를 알립니다. 사용자에게는 퍼블릭 또는 공유 액세스의 소스와 수준에 대한 결과가 전달됩니다. 예를 들어, 액세스 제어 목록이나 버킷 정책을 통해 필요하지 않은 읽기 또는 쓰기 액세스가 제공되는 경우 Access Analyzer for S3에서 이를 선제적으로 알립니다. 이러한 결과를 바탕으로 필요한 액세스 정책을 즉시 설정하거나 복원할 수 있습니다.

검토 결과, 버킷에 대한 공유 액세스 가능성이 있는 경우 S3 콘솔에서 한 번의 클릭으로 버킷에 대한 퍼블릭 액세스를 차단할 수 있습니다. 또한, 버킷 수준 권한 설정으로 드릴다운하여 세부적인 수준의 액세스를 구성할 수 있습니다. 감사를 위해 Access Analyzer for S3 결과를 CSV 보고서로 다운로드할 수 있습니다. 

또한, S3 콘솔은 S3 정책을 작성할 때 IAM Access Analyzer에서 보안 경고, 오류 및 제안 사항을 보고합니다. 콘솔은 100개가 넘는 정책 검사를 자동으로 실행하여 정책을 검증합니다. 이러한 검사는 시간을 절약해주고 문제 해결을 안내하며, 보안 모범 사례 적용을 도와줍니다.

자세한 내용은 IAM Access Analyzer 설명서를 참조하세요.

S3 Access Grants

Q: Amazon S3 Access Grants란 무엇인가요?

Amazon S3 Access Grants는 Active Directory와 같은 디렉터리의 자격 증명 또는 AWS Identity and Access Management(AWS IAM) 주체를 S3의 데이터 세트에 매핑합니다. 따라서 기업 자격 증명을 기반으로 최종 사용자에게 S3 액세스 권한을 자동으로 부여함으로써 대규모로 데이터 권한을 관리할 수 있습니다. 아울러 S3 Access Grants는 AWS CloudTrail에서 S3에 액세스하는 데 사용되는 최종 사용자 ID와 애플리케이션을 로깅합니다. 이렇게 하면 S3 버킷의 데이터에 대한 모든 액세스에 대해 최종 사용자 자격 증명까지 상세한 감사 기록을 제공할 수 있습니다.

Q: S3 Access Grants를 사용해야 하는 이유는 무엇인가요?

많은 사용자와 애플리케이션에서 S3 데이터를 공유하고 액세스하며, 일부 자격 증명(예: Okta 또는 Entra ID)가 기업 디렉터리에 있고, 이러한 S3 데이터 세트에 대규모 액세스 권한을 부여할 수 있는 확장 가능하고 간단하며 감사 가능한 방법이 필요한 경우 S3 Access Grants를 사용해야 합니다.

Q: S3 Access Grants를 시작하려면 어떻게 해야 하나요?

4단계로 S3 Access Grants를 시작할 수 있습니다. 먼저 S3 Access Grants 인스턴스를 구성합니다. 이 단계에서 기업 디렉터리의 사용자 및 그룹과 함께 S3 Access Grants를 사용하려면 AWS Identity Center를 활성화하고 S3 Access Grants를 Identity Center 인스턴스에 연결합니다. 둘째, S3 Access Grants에 위치를 등록합니다. 이 프로세스에서는 사용자와 애플리케이션이 S3에 액세스하는 데 사용할 수 있는 임시 S3 보안 인증을 생성하는 데 사용되는 IAM 역할을 S3 Access Grants에 부여합니다. 셋째, 누가 무엇에 액세스할 수 있는지 정의하는 권한 부여를 지정합니다. 마지막으로, 액세스 시점에 애플리케이션에서 S3 Access Grants에 임시 보안 인증을 요청하고 Access Grants에서 제공한 보안 인증을 사용하여 S3에 액세스합니다.

Q: S3 Access Grants 권한 부여에는 어떤 유형의 자격 증명이 지원되나요?

S3 Access Grants는 AWS Identity Center의 엔터프라이즈 사용자 또는 그룹 자격 증명과 IAM 사용자 및 역할을 포함한 AWS IAM 보안 주체의 두 가지 자격 증명을 지원합니다. AWS Identity Center와 함께 S3 Access Grants를 사용하는 경우 디렉터리 그룹 멤버십을 기반으로 데이터 권한을 정의할 수 있습니다. AWS Identity Center는 Entra ID, Okta, Ping 등을 포함하여 일반적으로 사용되는 자격 증명 공급자와 연결하는 AWS 서비스입니다. S3 Access Grants는 AWS Identity Center를 통해 디렉터리 자격 증명을 지원하는 것 외에도 IAM 사용자 및 역할을 비롯한 AWS IAM 보안 주체에 대한 권한 규칙도 지원합니다. 이는 AWS Identity Center를 통하지 않고 IAM 및 SAML 어설션(예제 구현)을 통해 사용자 지정 ID 페더레이션을 관리하거나, IAM 보안 주체를 기반으로 애플리케이션 자격 증명을 관리하면서도 확장성과 감사 가능성 때문에 S3 Access Grants를 계속 사용하려는 사용 사례를 위한 것입니다.

Q: S3 Access Grants가 제공하는 다양한 액세스 수준은 무엇인가요?

S3 Access Grants는 READ, WRITE, READWRITE의 세 가지 액세스 수준을 제공합니다. READ를 사용하면 S3에서 객체를 보고 검색할 수 있습니다. WRITE를 사용하면 S3에 쓰고 S3에서 삭제할 수 있습니다. READWRITE를 사용하면 읽기와 쓰기를 모두 수행할 수 있습니다.

Q: 액세스 수준을 사용자 지정할 수 있나요?

아니요, S3 Access Grants에서 제공하는 사전 정의된 세 가지 액세스 수준 (READ/WRITE/READWRITE)만 사용할 수 있습니다.

Q: S3 Access Grants에 제한이 있나요?

예. S3 Access Grants 인스턴스당 최대 100,000개의 권한 부여, S3 Access Grants 인스턴스당 최대 1,000개의 위치를 생성할 수 있습니다.

Q: S3 Access Grants를 사용할 때 데이터 액세스가 성능에 영향을 주나요?

아니요. S3 Access Grants에서 임시 보안 인증을 얻는 데 걸리는 지연 시간은 오늘날 AWS STS에서 임시 보안 인증을 얻는 것과 비슷합니다. S3 Access Grants에서 자격 증명을 얻은 후에는 만료되지 않은 보안 인증을 후속 요청에 재사용할 수 있습니다. 이러한 후속 요청의 경우 다른 방법에 비해 S3 Access Grants 보안 인증을 통해 인증된 요청에 대해 추가 지연 시간이 없습니다.

Q: S3 Access Grants를 사용하려면 어떤 다른 AWS 서비스가 필요한가요?

디렉터리 자격 증명에 S3 Access Grants를 사용하려면 먼저 AWS IAM Identity Center를 설정해야 합니다. AWS IAM Identity Center를 사용하면 자격 증명을 생성하여 Identity Center에 저장하든, 외부 타사 자격 증명 공급자에 저장하든 관계없이 직원 자격 증명을 생성하거나 연결할 수 있습니다. 설정 프로세스는 Identity Center 설명서를 참조하세요. Identity Center를 설정한 후에는 인스턴스를 S3 Access Grants에 연결할 수 있습니다. 이후 S3 Access Grants는 Identity Center를 사용하여 그룹 멤버십과 같은 사용자 속성을 검색하여 요청을 평가하고 권한 부여 결정을 내립니다.

Q: S3 Access Grants는 클라이언트 측 수정이 필요한가요?

예. 오늘날에는 애플리케이션과 연결된 IAM 보안 인증(예: EC2 또는 IAM Roles Anywhere의 IAM 역할 자격 증명, 또는 장기 IAM 사용자 자격 증명 사용)으로 S3 클라이언트를 초기화하는 반면, 애플리케이션은 S3 클라이언트를 초기화하기 전에 먼저 S3 Access Grants 보안 인증을 얻어야 합니다. 이러한 S3 Access Grants 보안 인증은 애플리케이션의 인증된 사용자에게만 적용됩니다. S3 클라이언트가 이러한 S3 Access Grants 보안 인증으로 초기화되면 보안 인증을 사용하여 평소와 같이 S3 데이터를 요청할 수 있습니다.

Q: 클라이언트 측 수정이 필요한데, 현재 어떤 AWS 서비스와 타사 애플리케이션이 S3 Access Grants와 바로 통합되어 있나요?

현재 S3 Access Grants는 이미 S3A 커넥터를 통해 EMR 및 오픈 소스 Spark와 통합되어 있습니다. 또한 S3 Access Grants는 Immuta 및 Informatica를 비롯한 타사 소프트웨어와 통합되므로 권한 관리를 중앙 집중화할 수 있습니다. 마지막으로, S3 Access Grants는 S3 Access Grants를 프로그래밍 방식으로 프로비저닝할 수 있도록 Terraform 및 CloudFormation을 지원합니다.

Q: S3 Access Grants는 AWS IAM을 대체하나요?

아니요. S3 Access Grants는 IAM을 대체하지 않으며 실제로 기존 IAM 기반 데이터 보호 전략(암호화, 네트워크, 데이터 경계 규칙)과도 잘 작동합니다. S3 Access Grants는 IAM 프리미티브를 기반으로 구축되었으며, 이를 통해 대규모로 더욱 세분화된 S3 권한을 표현할 수 있습니다.

Q: S3 Access Grants는 KMS와 함께 사용할 수 있니요?

예. KMS로 암호화된 객체에 대해 S3 Access Grants를 활용하기 위해 버킷 소유자는 위치 등록의 일부로 S3 Access Grants에 부여하는 IAM 역할에 필요한 KMS 권한을 포함해야 합니다. 이후 S3 Access Grants는 해당 IAM 역할을 활용하여 버킷의 KMS 암호화 객체에 액세스할 수 있습니다.

Q: S3 Access Grants 권한 부여를 확인하고 관리하려면 어떻게 해야 하나요?

AWS Management Console의 S3 Access Grants 콘솔 환경이나 SDK 및 CLI API를 사용하여 S3 Access Grants 권한을 확인하고 관리할 수 있습니다.

Q: S3 Access Grants를 사용하여 데이터에 대한 퍼블릭 액세스 권한을 부여할 수 있나요?

아니요, S3 Access Grants에서는 데이터에 대한 퍼블릭 액세스를 허용할 수 없습니다.

Q: S3 Access Grants를 통해 승인된 요청을 감사하려면 어떻게 해야 하나요?

S3 Access Grants를 사용하여 데이터 액세스 세션을 시작하라는 애플리케이션의 요청은 CloudTrail에 기록됩니다. CloudTrail은 요청을 하는 사용자의 ID와 사용자를 대신하여 데이터에 액세스하는 애플리케이션 자격 증명을 구별합니다. 이를 통해 누가 언제 어떤 데이터에 액세스했는지에 대한 최종 사용자 ID를 감사할 수 있습니다.

Q: S3 Access Grants의 가격은 어떻게 책정되나요?

S3 Access Grants는 S3 Access Grants에 대한 요청 수를 기준으로 요금이 청구됩니다. 자세한 내용은 요금 페이지를 참조하세요.

Q: S3 Access Grants와 Lake Formation 간의 관계는 무엇인가요?

AWS Lake Formation은 테이블 형식 데이터(예: Glue 테이블)에 대한 액세스를 관리해야 하고 행 및 열 수준의 액세스를 적용하려는 사용 사례에 적합합니다. S3 Access Grants는 비디오, 이미지, 로그 등을 포함한 비정형 데이터와 같은 직접적인 S3 권한에 대한 액세스를 관리하는 데 사용됩니다.

Q: S3 Access Grants는 IAM Access Analyzer와 통합되어 있나요?

아니요. S3 Access Grants는 현재 IAM Access Analyzer와 통합되지 않았습니다. 아직 IAM Access Analyzer를 사용하여 S3 Access Grants 권한 부여를 분석할 수는 없습니다. 고객은 S3 콘솔의 S3 Access Grants 페이지로 이동하거나 ListAccessGrants API를 사용하여 프로그래밍 방식으로 S3 Access Grants를 직접 감사할 수 있습니다.

S3 액세스 포인트

Q: Amazon S3 액세스 포인트란 무엇인가요?

이제, 여러 권한 수준을 사용하는 수백 개에 이르는 애플리케이션에 대한 액세스를 제어하는 단일 버킷 정책을 사용하여 S3 버킷에 대한 액세스를 관리합니다.

Amazon S3 액세스 포인트는 S3의 공유 데이터 세트를 사용하여 애플리케이션에 대한 대규모 데이터 액세스 관리를 간소화합니다. S3 액세스 포인트를 사용하여 버킷당 수백 개의 액세스 포인트를 쉽게 생성할 수 있습니다. 즉, 공유 데이터 세트에 대한 액세스를 프로비저닝하는 새로운 방식을 나타냅니다. 액세스 포인트는 고유한 호스트 이름과 액세스 포인트를 통해 생성된 모든 요청에 대해 특정 권한 및 네트워크 제어를 적용하는 액세스 정책을 사용하여 버킷으로의 사용자 지정된 경로를 제공합니다. S3 액세스 포인트는 동일한 계정 내의 버킷 또는 신뢰할 수 있는 다른 계정의 버킷과 연결할 수 있습니다. S3 액세스 포인트 페이지사용 설명서를 읽고 더 자세히 알아보세요.

Q: 액세스 포인트를 왜 사용해야 하나요?

S3 액세스 포인트는 S3의 공유 데이터 세트에 대한 데이터 액세스를 관리하는 방법을 단순화합니다. 더 이상 수백 개의 서로 다른 권한 규칙을 작성하며, 읽고, 추적하며, 감사해야 하는 하나의 복잡한 버킷 정책을 관리하지 않아도 됩니다. S3 액세스 포인트를 사용하면 액세스 포인트를 생성하거나 신뢰할 수 있는 계정에게 권한을 위임하여 버킷에 크로스 계정 액세스 포인트를 생성할 수 있습니다. 이렇게 하면 특정 애플리케이션에 맞게 조정된 정책이 있는 공유 데이터에 액세스할 수 있습니다.

액세스 포인트를 사용하면 대형 버킷 정책을 공유 데이터 집합에 액세스해야 하는 각 애플리케이션에 대해 분리된 개별 액세스 포인트 정책으로 분해할 수 있습니다. 그러면 공유 데이터 집합에서 다른 애플리케이션이 수행하는 작업을 방해하지 않고도, 더 간편하게 애플리케이션에 대한 올바른 액세스 정책을 구축하는 데 집중할 수 있습니다. 또한, 서비스 제어 정책(SCP)을 생성하고 프라이빗 네트워크 안에 데이터에 대한 방화벽을 구축하여 모든 액세스 포인트를 Virtual Private Cloud(VPC)로 제한하도록 요구할 수 있습니다. 

Q: S3 액세스 포인트는 어떻게 작동하나요?

각 S3 액세스 포인트는 특정 사용 사례 또는 특정 애플리케이션에 대한 액세스 정책으로 구성되며, 버킷은 수천 개의 액세스 포인트를 가질 수 있습니다. 예를 들어, 데이터 레이크에 대해 사용자 그룹 또는 애플리케이션 그룹에 대한 액세스를 부여하는 S3 버킷에 대한 액세스 포인트를 생성할 수 있습니다. 액세스 포인트는 계정 내나 계정 전반에서 단일 사용자나 애플리케이션 또는 사용자 그룹이나 애플리케이션의 그룹을 지원하므로, 각 액세스 포인트를 개별적으로 관리할 수 있습니다. 

또한 신뢰할 수 있는 계정에게 권한을 위임하여 버킷에 크로스 계정 액세스 포인트를 생성할 수 있습니다. 크로스 계정 액세스 포인트는 버킷 소유자로부터 권한을 부여받기 전에는 데이터에 대한 액세스 권한을 부여하지 않습니다.  버킷 소유자는 언제나 데이터에 대한 최종 제어권을 보유하고 있으며 크로스 계정 액세스 포인트로부터 보내는 요청을 승인하는 버킷 정책을 업데이트해야 합니다. 샘플 버킷 정책에 대한 정보는 사용 설명서를 참조하세요.

개별 액세스 포인트는 단일 버킷에 연결되며, 하나의 네트워크 오리진 제어와 퍼블릭 액세스 차단 제어를 포함합니다. AWS 클라우드의 논리적으로 격리된 섹션인 Virtual Private Cloud에서 스토리지 액세스만 허용하는 네트워크 오리진 제어를 포함하는 액세스 포인트를 생성할 수 있습니다. 또한 정의된 접두사의 객체나 특정 태그가 있는 객체에만 액세스하도록 구성된 액세스 포인트 정책을 포함하는 액세스 포인트를 생성할 수도 있습니다.

두 가지 방법 중 하나로 액세스 포인트를 통해 공유 버킷의 데이터에 액세스할 수 있습니다. S3 객체 작업을 경우 버킷 이름 대신 액세스 포인트 ARN을 사용할 수 있습니다. 표준 S3 버킷 이름 형식의 버킷 이름이 필요한 요청의 경우 대신 액세스 포인트 별칭을 사용할 수 있습니다. S3 액세스 포인트에 대한 별칭은 자동으로 생성되며 데이터 액세스에 버킷 이름을 사용하는 모든 곳에서 S3 버킷 이름과 상호 교환할 수 있습니다. 버킷에 대한 액세스 포인트를 생성할 때마다 S3는 새로운 액세스 포인트 별칭을 자동으로 생성합니다. 호환되는 작업 및 AWS 서비스의 전체 집합을 확인하려면 S3 설명서를 참조하세요.

Q: 생성할 수 있는 액세스 포인트 수에 대한 할당량이 있나요?

기본적으로 사용자의 계정 및 교차 계정에 있는 버킷에서는 1개의 리전과 1개의 계정당 10,000개의 액세스 포인트를 생성할 수 있습니다. S3 버킷과 달리, AWS 계정당 액세스 포인트 수에 하드 제한은 없습니다. AWS Service Quotas에서 이 할당량 증가를 요청하세요.

Q: 액세스 포인트를 사용할 때 요청은 어떻게 인증되나요?

S3 액세스 포인트는 자체 IAM 액세스 포인트 정책이 있습니다. 버킷 정책과 같은 방식으로 액세스 포인트 ARN을 리소스로 사용하여 액세스 포인트 정책을 작성합니다. 액세스 포인트 정책은 액세스 포인트를 통해 요청된 S3 데이터에 대한 액세스를 승인하거나 제한합니다. Amazon S3는 요청을 승인할지 결정하기 위해 액세스 제어 목록 뿐 아니라 사용자, 버킷, 액세스 포인트, VPC 종단점 및 서비스 제어 정책에 포함된 모든 관련 정책을 평가합니다.

Q: 액세스 포인트 정책은 어떻게 작성합니까?

정책 문서의 권한과 액세스 포인트 ARN을 제어하는 IAM 규칙을 사용하여 버킷 정책과 같이 액세스 포인트 정책을 작성할 수 있습니다.

Q: 액세스 포인트에 네트워크 오리진 컨트롤을 사용하여 특정 VPC에 액세스를 제한하는 방법은 버킷 정책을 사용하여 VPC에 액세스를 제한하는 방법과 어떻게 다릅니까?

버킷 정책을 사용하여 지정된 VPC에 대한 버킷 액세스를 계속 제한할 수 있습니다. 액세스 포인트는 API 제어를 통해 공유 데이터 세트의 모든 데이터 또는 데이터의 서브셋을 조직의 모든 애플리케이션에 대한 VPC 전용 트래픽으로 잠그는 간편하고 감사 가능한 방법을 제공합니다. AWS Organizations SCP(서비스 제어 정책)를 사용하여 조직에서 생성한 모든 액세스 포인트의 "network origin control" API 파라미터 값을 ‘vpc’로 설정하도록 명령할 수 있습니다. 그리고 생성된 모든 새 액세스 포인트의 데이터 액세스를 VPC 전용 트래픽으로 자동으로 제한합니다. 데이터 요청이 지정된 VPC에서만 처리되도록 하기 위해 추가 액세스 정책은 필요하지 않습니다.

Q: “인터넷 데이터 액세스 불가” 정책을 조직의 모든 액세스 포인트에 적용할 수 있나요?

예. 조직의 모든 액세스 포인트에 “인터넷 데이터 액세스 불가” 정책을 적용하기 위해 모든 액세스 포인트에서 VPC 전용 액세스를 적용하는지 확인해야 합니다. 이를 위해, create_access_point() API의 "network origin control" 파라미터에 대해 "vpc" 값만 지원하도록 AWS SCP를 작성해야 합니다. 이전에 생성한 액세스 포인트를 지원하는 인터넷이 있으면 제거해야 합니다. 개별 버킷에서 버킷 정책을 수정하여 버킷에 대한 인터넷 액세스를 버킷 호스트 이름을 사용하여 직접 제한해야 합니다. 다른 AWS 서비스에서 버킷에 직접 액세스할 수 있으므로 원하는 AWS를 허용하도록 정책을 수정하여 해당 AWS 서비스를 허용하도록 액세스 권한을 설정해야 합니다. 수행 방법의 예제에 대해서는 S3 설명서를 참조하세요.

Q: 버킷 호스트 이름을 사용하여 버킷에 대한 직접 액세스를 완전하게 비활성화할 수 있나요?

현재는 비활성화할 수 없습니다. 하지만 액세스 포인트를 사용하지 않은 요청을 거부하는 버킷 정책을 연결할 수 있습니다. 자세한 내용은 S3 설명서를 참조하세요.

Q: 버킷에서 액세스 포인트를 교체하거나 삭제할 수 있나요?

예. 액세스 포인트를 삭제할 때 다른 액세스 포인트 또는 버킷 호스트 이름을 통해 연결된 액세스는 중단되지 않습니다.

Q: Amazon S3 액세스 포인트 요금은 얼마입니까?

액세스 포인트 또는 액세스 포인트를 사용하는 버킷에 대한 추가 요금은 부과하지 않습니다. 일반 Amazon S3 요청 요금이 적용됩니다.

Q: S3 액세스 포인트를 시작하려면 어떻게 해야 하나요?

AWS Management Console, AWS CLI(Command Line Interface), API(Application Programming Interface), AWS SDK(Software Development Kit) 클라이언트를 통해 기존 버킷과 새 버킷에서 S3 액세스 포인트를 생성할 수 있습니다. S3 액세스 포인트에 대한 자세한 내용은 사용 설명서를 참조하세요.

내구성 및 데이터 보호

Q: Amazon S3의 내구성은 어느 정도입니까?

Amazon S3는 클라우드에서 가장 뛰어난 내구성의 스토리지를 제공합니다. 고유한 아키텍처를 기반으로 하는 S3는 99.999999999%(9 11개)의 데이터 내구성을 제공하도록 설계되었습니다. 또한 S3는 기본적으로 최소 3개의 가용 영역(AZ)에 데이터를 중복 저장하여 광범위한 장애에 대비한 복원력을 제공합니다. 고객은 스토리지 비용 또는 지연 시간을 최소화하기 위해 단일 AZ에 데이터를 저장하거나, 전체 데이터 센터의 영구적 손실에 대비한 복원력을 위해 여러 AZ에 또는 지리적 복원력 요구 사항을 충족하기 위해 여러 AWS 리전에 데이터를 저장할 수 있습니다.

Q: Amazon S3는 어떻게 99.999999999%의 내구성을 제공하도록 설계되었나요?

Amazon S3의 내구성 설계는 스토리지 디바이스 장애율과 S3가 장애를 감지하여 해당 디바이스에 데이터를 재복제할 수 있는 비율의 함수입니다. S3는 모든 객체 업로드에 대해 종합적인 무결성 검사 기능을 제공하며 업로드가 성공한 것으로 간주하기 전에 모든 데이터가 여러 스토리지 디바이스에 정확하고 중복 저장되었는지 확인합니다. 데이터가 S3에 저장되면 S3는 저장된 모든 데이터의 정기적인 무결성 검사를 통해 시간이 지남에 따라 데이터 내구성을 지속적으로 모니터링합니다. 또한 S3는 데이터의 중복성을 능동적으로 모니터링하여 객체가 여러 스토리지 디바이스의 동시 장애를 견딜 수 있는지 확인하는 데 도움을 줍니다.

Q: One Zone 스토리지 클래스에 저장된 데이터는 가용 영역의 손상이나 손실로부터 보호됩니까?

드문 경우지만 AWS 가용 영역 전체 또는 일부가 손실되거나 손상되는 경우 One Zone 스토리지 클래스의 데이터가 손실될 수 있습니다. 예를 들어, 화재 및 침수 피해와 같은 이벤트로 인해 데이터가 손실될 수 있습니다. 이러한 유형의 이벤트 외에도 One Zone 스토리지 클래스는 리전 스토리지 클래스와 유사한 엔지니어링 설계를 사용하여 독립 디스크, 호스트 및 랙 수준 장애로부터 객체를 보호하며, 각 클래스는 99.999999999%의 데이터 내구성을 제공하도록 설계되었습니다.

Q: Amazon S3의 내구성을 99.999999999% 이상으로 향상시키려면 어떻게 해야 하나요?

Amazon S3는 강력한 내구성 문화를 가지고 있으며, 내구성 모범 사례는 처음부터 Amazon 시스템과 소프트웨어에 설계되었습니다. AWS는 다른 어떤 클라우드 공급자보다 내구성이 뛰어난 스토리지를 운영한 경험이 많으며, 이러한 경험을 바탕으로 내구성 위험을 완화하고 우리가 하는 모든 일에 내구성 보호 장치를 통합합니다.

Q: 내구성이 이렇게 높은데 여전히 중요한 데이터를 백업해야 하나요?

예. Amazon S3의 내구성 시스템은 우발적 또는 악의적인 삭제로부터 보호하지 못합니다. S3에서는 고객이 어떤 데이터를 보관할지, 어떤 데이터를 제거할지, 사고나 악의적으로 인한 잘못된 삭제로부터 보호하기 위해 어떤 선택적 제어 기능이 필요한지를 결정합니다. Amazon S3에 데이터를 삭제하라고 지시하면 해당 데이터는 즉시 삭제되며 AWS에서 복구할 수 없습니다. 이러한 방식으로 삭제 요청을 처리하는 것은 서비스의 중요한 특징입니다.

Q: Amazon S3는 우발적 또는 악의적인 삭제로부터 데이터를 보호하기 위해 어떤 기능을 제공하나요?

S3 객체 버전 관리, S3 복제 및 S3 객체 잠금은 모두 S3가 자동으로 제공하는 내구성 외에도 추가 데이터 보호를 추가하는 데 사용할 수 있는 선택적 기능입니다. 또한 백업 애플리케이션을 사용하여 S3 버킷의 전체 또는 일부 데이터를 백업할 수 있습니다.

Q: Amazon S3에서 데이터 무결성 검사를 위해 어떤 체크섬을 지원하나요?

Amazon S3는 Content-MD5 체크섬, 보안 해시 알고리즘(SHA), 주기적 중복 검사(CRC)를 함께 사용해 데이터 무결성을 확인합니다. Amazon S3는 저장된 데이터에 이러한 체크섬을 실행하여 중복 데이터를 사용해 불일치를 복구합니다. 이 외에도 S3는 데이터를 저장 또는 검색할 때 모든 네트워크 트래픽에서 체크섬을 계산하여 데이터 패킷 변경을 감지합니다. 업로드 및 다운로드 요청에 대한 데이터 무결성 검사에 지원되는 4가지 체크섬 알고리즘 중에서 선택할 수 있습니다. 애플리케이션의 필요에 따라 SHA-1, SHA-256, CRC32 또는 CRC32C 체크섬 알고리즘을 선택할 수 있습니다. S3에서 데이터를 저장 또는 검색함에 따라 체크섬을 자동으로 계산 및 확인하며 언제라도 GetObjectAttributes S3 API 또는 S3 인벤토리 보고서를 사용하여 체크섬 정보에 액세스할 수 있습니다. 데이터가 S3에 스트리밍될 때 체크섬을 계산하도록 하면 두 개의 연속적 작업이 아니라 단일 패스로 데이터를 확인 및 송신할 수 있어 시간이 절약됩니다. 데이터 검증을 위해 체크섬을 사용하는 것은 데이터 내구성에 대한 모범 사례이며 해당 기능은 성능을 증가시키고 이를 위한 비용은 줄입니다.

Q: 버전 관리란 무엇입니까?

버전 관리를 사용해 Amazon S3 버킷에 저장된 모든 버전의 모든 객체를 보존, 검색 및 복원할 수 있습니다. 버킷에 버전 관리를 활성화하면 Amazon S3가 기존 객체에서 PUT, POST, COPY 또는 DELETE 작업이 수행될 때마다 해당 객체를 보존합니다. 기본적으로 GET 요청은 가장 최근에 기록된 버전을 검색합니다. 요청에 버전을 지정하면 덮어쓰거나 삭제된 객체의 기존 버전을 검색할 수 있습니다.

Q: 왜 버전 관리를 사용해야 합니까?

Amazon S3는 고객에게 내구성이 뛰어난 스토리지 인프라를 제공합니다. 버전 관리는 고객이 실수로 객체를 덮어쓰거나 삭제할 경우 복구 수단을 제공하여 추가 보호 수준을 제공합니다. 따라서 의도하지 않은 사용자 작업 및 애플리케이션 장애로부터 객체를 쉽게 복구할 수 있습니다. 또한 버전 관리를 사용해 데이터를 보존 및 보관할 수 있습니다.

Q: 버전 관리를 시작하려면 어떻게 해야 합니까?

Amazon S3 버킷에서 설정을 활성화하여 버전 관리를 시작할 수 있습니다. 버전 관리를 사용하는 방법에 대한 자세한 내용은 Amazon S3 설명서를 참조하세요.

Q: 버전 관리는 내 객체가 실수로 삭제되는 것을 어떻게 방지하나요?

사용자가 객체에 DELETE 작업을 수행하면 후속 간편(버전 관리되지 않음) 요청에서는 해당 객체를 더는 검색하지 않습니다. 그러나 해당 객체의 모든 버전은 계속해서 Amazon S3 버킷에 보존되므로 검색하거나 복원할 수 있습니다. Amazon S3 버킷 소유자만이 영구적으로 버전을 삭제할 수 있습니다. 수명 주기 규칙을 설정하여 객체의 여러 버전에 대한 저장 기간과 비용을 관리할 수 있습니다.

Q: 삭제와 덮어쓰기에서 복구할 수 있도록 내 Amazon S3 객체에서 휴지통 또는 롤백 기간을 설정할 수 있나요?

S3 버전 관리와 함께 Amazon S3 수명 주기 규칙을 사용하여 S3 객체에 대한 롤백 기간을 구현할 수 있습니다. 예를 들어, 버전 관리를 사용하는 버킷이 있는 경우 모든 이전 버전을 비용이 저렴한 S3 Glacier Flexible Retrieval 스토리지 클래스에 아카이브하고 100일 후 삭제하는 규칙을 설정할 수 있습니다. 이렇게 하면 데이터의 모든 변경 사항을 롤백할 수 있는 100일의 기간이 생길 뿐만 아니라 스토리지 비용을 절감할 수 있습니다. 또한, 5일이 경과한 후 2개 이상의 새로운 객체 버전이 있을 경우 오래된 객체 버전(최신이 아님)을 삭제하여 비용을 절약할 수 있습니다. 비용 최적화 요구 사항에 따라 일 수 또는 최신 버전 수를 변경할 수 있습니다. 이렇게 하면 필요에 따라 객체의 추가 버전을 유지할 수 있으면서, 특정 기간 경과 후에 해당 버전을 전환 또는 제거하여 비용을 절약할 수 있습니다.

Q: 내 유지 버전에 대한 보호를 극대화하려면 어떻게 해야 하나요?

버전 관리의 다중 인증(MFA) 삭제 기능을 사용하여 추가적인 보안 수단을 제공할 수 있습니다. 기본적으로 Amazon S3 버킷에 전송된 모든 요청에는 AWS 계정 자격 증명이 필요합니다. Amazon S3 버킷에서 MFA 삭제와 함께 버전 관리를 사용하도록 설정한 경우 객체의 버전을 영구적으로 삭제하려면 두 가지 형식의 인증, 즉 AWS 계정 보안 인증 정보와 실제로 소유한 인증 디바이스의 유효한 6자리 코드 및 일련 번호가 필요합니다. 인증 디바이스 구입 및 사용 방법 등 MFA 삭제로 버전 관리를 사용하는 방법에 대한 자세한 내용은 Amazon S3 설명서를 참조하세요.

Q: 버전 관리 요금은 어떻게 부과되나요?

저장되거나 요청된 객체의 모든 버전에는 일반 Amazon S3 요금이 적용됩니다. 예를 들어, 버전 관리를 사용할 경우 스토리지 비용을 산정하는 다음 시나리오를 살펴보겠습니다(현재 월의 일수가 31일이라고 가정).

1) 해당 월의 1일: 버킷에서 4GB(4,294,967,296바이트)의 PUT를 수행합니다.
2) 해당 월의 16일: 동일한 버킷 내에서 1일의 원본 PUT와 동일한 키를 사용해 5GB(5,368,709,120바이트)의 PUT를 수행합니다.

위 작업의 스토리지 비용을 분석할 경우 15일에 5GB 객체를 기록할 때 1일의 4GB 객체가 버킷에서 삭제되지 않는다는 점에 유의하세요. 그 대신, 4GB 객체가 기존 버전으로 보존되고 5GB 객체가 버킷 내에서 가장 최근에 기록된 버전의 객체가 됩니다. 월말:

총 바이트-시간 사용량
[4,294,967,296바이트 x 31일 x (24시간/일)] + [5,368,709,120바이트 x 16일 x (24시간/일)] = 5,257,039,970,304바이트-시간.

총 GB-월로 변환
5,257,039,970,304바이트-시간 x (1GB/1,073,741,824바이트) x (1개월/744시간) = 6.581GB-월

요금은 Amazon S3 요금 페이지에 명시된 고객 리전의 현재 요금을 기준으로 계산됩니다.

S3 객체 잠금

Q: Amazon S3 객체 잠금이란 무엇입니까?

Amazon S3 객체 잠금은 데이터 보호를 위한 추가 계층으로서 또는 규정 준수를 위해 보존 정책을 적용할 수 있도록 일정 기간 또는 무기한으로 객체 버전 삭제 또는 덮어쓰기를 차단하는 Amazon S3 기능입니다. 워크로드를 기존 Write-Once-Read-Many(WORM) 시스템에서 Amazon S3로 마이그레이션하고 객체 및 버킷 수준에서 S3 객체 잠금을 구성하여 사전 정의된 보존 만료 날짜 전에 또는 무기한으로(법적 보존 날짜) 객체 버전이 삭제되지 않도록 할 수 있습니다. S3 객체 잠금 보호는 객체 버전이 어떤 스토리지 클래스에 있든 상관없이 스토리지 클래스 간의 S3 수명 주기 전환 전반에 걸쳐 유지됩니다. 

데이터의 WORM을 보호해야 한다고 지정하는 규제 요구 사항이 있거나 Amazon S3의 데이터에 보호 계층을 추가하려는 경우 S3 객체 잠금을 사용해야 합니다. S3 객체 잠금은 변경 불가능한 형식으로 데이터를 저장해야 한다고 지정하는 규제 요구 사항을 준수하는 데 도움이 될 수 있으며 Amazon S3의 데이터를 우발적 또는 악의적 삭제로부터 보호할 수 있습니다.

자세한 내용은 S3 객체 잠금 사용 설명서를 참조하세요.

Q: Amazon S3 객체 잠금은 어떻게 작동합니까?

Amazon S3 객체 잠금은 법적 보존이 제거될 때까지 지정된 보존 기간 또는 무기한으로 객체 버전 삭제를 방지합니다. S3 객체 잠금을 통해 WORM 보호가 적용되는 동안 객체 버전을 변경할 수 없도록 보장할 수 있습니다. AWS SDK, CLI, REST API 또는 S3 관리 콘솔을 사용하여 보존 만료 날짜 또는 법적 보존을 객체 버전에 지정하여 WORM 보호를 적용할 수 있습니다. PUT 요청 내에서 보존 설정을 적용하거나 객체가 생성된 후 기존 객체에 보존 설정을 적용할 수 있습니다.

보존 기한 날짜는 객체 버전이 변경될 수 없도록 유지하는 기간을 정의합니다. 보존 만료 날짜를 객체에 지정하면 보존 만료 날짜가 경과할 때까지 해당 객체 버전을 수정하거나 삭제할 수 없습니다. 보존 만료 날짜 전에 사용자가 객체를 삭제하려고 하면 작업이 거부됩니다.

또는 해당 객체에 법적 보존을 적용하여 객체를 변경할 수 없도록 설정할 수 있습니다. 법적 보존은 명시적으로 제거될 때까지 무기한으로 객체 버전의 수정 또는 삭제를 방지합니다. 법적 보존을 설정하고 제거하려면 AWS 계정에 PutObjectLegalHold 작업에 대한 쓰기 권한이 있어야 합니다. 현재 보존 기간까지 데이터에 WORM 보호가 적용되는지 여부와 상관없이 S3 객체 잠금 지원 버킷의 객체에 법적 보존을 적용할 수 있습니다.

두 가지 모드 중 하나로 S3 객체 잠금을 구성할 수 있습니다. 거버넌스 모드로 배포된 경우 특정 IAM 권한이 있는 AWS 계정은 객체 버전에서 WORM 보호를 제거할 수 있습니다. 규정을 준수하기 위해 더 강력한 변경 불가능 지원이 필요한 경우 규정 준수 모드를 사용할 수 있습니다. 규정 준수 모드에서는 루트 계정을 포함한 어떤 사용자도 WORM 보호를 제거할 수 없습니다.

버킷에서 Amazon S3 객체 잠금을 활성화하려면 어떻게 해야 하나요?

Amazon S3 콘솔, AWS API 또는 AWS CLI를 사용하여 새 버킷을 생성할 때 S3 객체 잠금을 활성화하거나 기존 버킷에 S3 객체 잠금을 구성할 수 있습니다. 기존 버킷에서 S3 객체 잠금을 활성화하려면 Amazon S3 콘솔을 사용하여 버킷 속성 탭, PutObjectLockConfiguration AWS API 또는 AWS CLI에서 S3 객체 잠금 설정을 편집할 수 있습니다. S3 Object Lock이 활성화되면 버킷에 업로드된 모든 새 객체에 적용할 기본 버킷 수준 보존 모드 및 시간을 설정할 수 있습니다. 자세한 내용은 S3 콘솔, AWS API 사용AWS CLI를 사용하여 S3 객체 잠금을 구성하는 방법에 대한 설명서를 참조하세요. 

Q: 기존 버킷에서 S3 객체 잠금을 활성화하면 버킷에 업로드된 새 객체에 어떤 영향을 미치나요?

기존 버킷에서 S3 객체 잠금을 활성화한 후, 버킷에 업로드된 모든 새 객체에 대해 기본 S3 객체 잠금 보존 모드 및 기간을 설정할 수 있습니다. S3 콘솔에서 선택한 버킷의 속성 탭을 사용하고 버킷에 업로드된 모든 새 객체에 대해 기본 보존 모드 및 보존 기간을 활성화하여 이 작업을 수행할 수 있습니다. 또는 버킷 수준의 객체 잠금 설정을 구성하지 않도록 선택할 수도 있습니다. 이렇게 하면 버킷의 새 객체가 잠금 해제된 상태로 유지됩니다. 그런 다음 객체 속성 탭에서 S3 객체 잠금 설정을 편집하여 개별 객체를 잠그거나 S3 배치 작업을 사용하여 객체를 대량으로 잠글 수 있습니다. 자세한 내용은 기본 보존 설정 에 대한 설명서를 참조하세요.

Q: 기존 버킷에 S3 객체 잠금을 활성화하면 버킷에 이미 존재하는 객체에 어떤 영향을 미칩니까?

기존 버킷에서 S3 객체 잠금을 활성화한 후에는 보존 설정이 버킷에 업로드된 새 객체에만 적용됩니다. 버킷에 이미 존재하는 객체를 잠그려면 Amazon S3 콘솔, AWS CLI 또는 AWS API를 사용하여 개별 객체 수준 보존 속성을 변경하도록 선택할 수 있습니다. S3 콘솔에서는 객체의 속성 탭에서 이 작업을 수행하고 객체 잠금 법적 보존 또는 객체 잠금 보존 설정을 편집할 수 있습니다. 또는 S3 배치 작업을 사용하여 보존을 관리하거나 여러 객체에 대한 법적 보류를 한 번에 활성화할 수 있습니다. 자세한 내용은 S3 배치 작업을 사용하여 S3 객체 잠금을 활성화하는 방법에 대한 설명서를 참조하세요.

Q: S3 객체 잠금을 활성화한 후에 비활성화할 수 있나요?

아니요, S3 객체 활성화된 후에는 버킷에 대한 S3 객체 잠금 또는 S3 버전 관리를 비활성화할 수 없습니다.

Q: S3 객체 잠금이 활성화된 버킷에서 객체 복제를 시작하려면 어떻게 해야 하나요?

S3 객체 잠금이 활성화된 버킷에서 S3 복제를 사용하여 객체 복제를 시작하려면 동일하거나 다른 AWS 리전 및 동일하거나 다른 AWS 계정에서 대상 버킷을 지정하여 원본 버킷에 복제 구성을 추가할 수 있습니다. S3 버킷 수준에서 모든 객체를 복제하거나, 공유 접두사 수준 또는 S3 객체 태그를 사용하여 객체 수준에서 객체를 필터링하도록 선택할 수 있습니다. 또한 복제 작업을 수행하는 데 필요한 권한이 있는 AWS Identity and Access Management(IAM) 역할을 지정해야 합니다. S3 콘솔, AWS API, AWS CLI, AWS SDK 또는 AWS CloudFormation을 사용하여 복제를 활성화할 수 있으며, 원본 및 대상 버킷 모두에 대해 S3 버전 관리를 활성화해야 합니다. 또한 S3 객체 잠금이 활성화된 버킷에서 객체를 복제하려면 대상 버킷에도 S3 객체 잠금이 활성화되어 있어야 합니다. 자세한 내용은 S3 복제 설정S3 복제 포함 S3 객체 잠금 사용에 대한 설명서를 참조하세요. 

Q: S3 객체 잠금이 활성화된 버킷에서 객체를 복제하려면 추가 권한이 필요합니까?

예. S3 객체 잠금이 활성화된 버킷에서 객체를 복제하려면 복제 설정에 사용하는 IAM 역할의 원본 버킷에 s3:GetObjectRetention 및 s3:GetObjectLegalHold라는 두 가지 새로운 권한을 부여해야 합니다. 또는 IAM 역할에 s3:Get* 권한이 있는 경우 요구 사항을 충족합니다. 자세한 내용은 S3 복제와 함께 S3 객체 잠금을 사용하는 방법에 대한 설명서를 참조하세요.

Q: S3 객체 잠금 버킷에서 복제하는 동안 S3 복제를 사용하는 데 제한이 있니요?

아니요. S3 객체 잠금 버킷에서 복제하는 동안에는 S3 동일 리전 복제(S3 SRR), S3 리전 간 복제(S3 CRR), 진행 상황을 추적하기 위한 S3 복제 메트릭, S3 복제 시간 제어(S3 RTC), S3 배치 복제와 같은 S3 복제의 모든 기능이 지원됩니다.

Q: S3 객체 잠금이 활성화된 버킷에서 기존 객체를 복제하려면 어떻게 해야 하나요?

S3 배치 복제를 사용하여 S3 객체 잠금이 활성화된 버킷에서 기존 객체를 복제할 수 있습니다. 기존 객체 복제에 대한 자세한 내용은 S3 배치 복제 문서를 참조하세요.

Q: S3 객체 잠금으로 보호되는 소스 객체 복제본의 보존 상태는 어떻습니까?

S3 객체 잠금으로 보호되는 객체의 복제본은 소스 객체와 동일한 보존 정책을 따릅니다. GET Object 또는 HEAD Object 명령을 사용하여 복제본 객체의 객체 잠금 상태를 볼 수 있습니다. 두 명령 모두 지정된 객체 버전의 보존 모드, 보존 기한 및 법적 보존 상태를 반환합니다. 또한 버킷의 모든 객체에 대한 보존 기한, 보존 모드, 법적 보류 상태를 포함하도록 Amazon S3 Inventory 보고서를 버킷에 구성할 수 있습니다. 자세한 내용은 객체에 대한 S3 객체 잠금 정보 보기Amazon S3 인벤토리 구성에 대한 설명서를 참조하세요.

스토리지 클래스

Q: Amazon S3 스토리지 클래스란?

Amazon S3는 워크로드의 데이터 액세스, 복원력 및 비용 요구 사항에 따라 선택할 수 있는 다양한 스토리지 클래스를 제공합니다. S3 스토리지 클래스는 다양한 액세스 패턴에 대해 가장 저렴한 스토리지를 제공하기 위해 특별히 구축되었습니다. S3 스토리지 클래스는 까다로운 성능 요구 사항, 데이터 레지던시 요구 사항, 알 수 없거나 변경되는 액세스 패턴 또는 아카이브 스토리지를 포함하여 거의 모든 사용 사례에 적합합니다. 각 S3 스토리지 클래스는 데이터에 액세스하는 요금과 데이터를 저장하는 요금을 청구합니다. 어떤 S3 스토리지 클래스가 워크로드에 가장 적합한지 결정할 때 데이터의 수명에 대한 가장 저렴한 총 비용을 최적화할 수 있도록 데이터의 보존 시간과 액세스 패턴을 고려합니다.

S3 스토리지 클래스를 객체 수준에서 구성할 수 있으며 단일 버킷이 모든 스토리지 클래스에 저장된 여러 객체를 포함할 수 있습니다. 또한, S3 수명 주기 정책을 사용하여 애플리케이션 변경 없이 자동으로 스토리지 클래스 간에 객체를 전환할 수 있습니다.

Q: 사용할 S3 스토리지 클래스를 결정하려면 어떻게 해야 합니까?

어떤 S3 스토리지 클래스가 워크로드에 가장 적합한지 결정할 때 데이터의 수명에 대한 가장 저렴한 총 비용을 최적화할 수 있도록 데이터의 보존 시간과 액세스 패턴을 고려합니다. 많은 워크로드에서 액세스 패턴은 계속 바뀌거나(사용자가 생성한 콘텐츠), 예측 불가능하거나(분석, 데이터 레이크), 알 수 없습니다(새 애플리케이션). 그래서 스토리지 비용을 자동으로 절감해줄 수 있는 S3 Intelligent-Tiering을 기본 스토리지 클래스로 사용해야 합니다. 데이터의 액세스 패턴을 아는 경우 다음 지침을 따를 수 있습니다. S3 Standard 스토리지 클래스는 자주 액세스하는 데이터에 적합하며, 한 달에 1번 넘게 데이터에 액세스하는 경우 가장 적합합니다. S3 Standard-Infrequent Access는 1개월 또는 2개월에 한 번 액세스하고 1개월 이상 보존하는 데이터에 적합합니다.

Amazon S3 Glacier 스토리지 클래스는 데이터 아카이브를 위해 특별히 제작되어 클라우드에서 최고의 성능, 최고의 검색 유연성, 최저 비용의 아카이브 스토리지를 제공합니다. 이제 다양한 액세스 패턴과 스토리지 기간에 최적화된 세 가지 아카이브 스토리지 클래스 중에서 선택할 수 있습니다. 즉각적인 액세스가 필요한 아카이브 데이터(예: 의료 이미지, 뉴스 미디어 자산 또는 유전체학 데이터)의 경우 밀리초 단위의 검색 시간에서 가장 저렴한 비용의 스토리지를 제공하는 아카이브 스토리지 클래스인 S3 Glacier Instant Retrieval를 선택하세요. 즉각적인 액세스가 필요하지 않지만 비용을 들이지 않고 대규모 데이터 세트를 유연하게 검색해야 하는 아카이브 데이터(예: 백업 또는 재해 복구 사용 사례)의 경우 5~12시간의 무료 대량 검색 또는 몇 분 내 검색을 지원하는 S3 Glacier Flexible Retrieval을 선택하세요. 규정 준수 아카이브 및 디지털 미디어 보존과 같은 장기 아카이브 스토리지에서 더 많은 비용을 절감하려면 12시간 내의 데이터 검색 시간을 지원하며 클라우드에서 가장 저렴한 스토리지 비용을 제공하는 S3 Glacier Deep Archive를 선택하세요. 이러한 모든 스토리지 클래스는 AWS 리전의 물리적으로 격리된 AWS 가용 영역과 여러 디바이스에서 데이터를 중복 저장하여 다중 가용 영역(AZ) 복원력을 제공합니다.

복원력에 대한 요구 기준이 낮은 데이터의 경우 S3 One Zone-Infrequent Access와 같이 단일 AZ 스토리지 클래스를 선택하여 비용을 절감할 수 있습니다. 기존 AWS 리전으로 해결할 수 없는 데이터 레지던시 또는 대기 시간 요구 사항이 있다면 S3 on Outposts를 선택하여 데이터를 온프레미스에 저장할 수 있습니다.

이러한 스토리지 클래스에 대한 자세한 내용은 Amazon S3 스토리지 클래스 페이지에서 확인할 수 있습니다. 

S3 Intelligent-Tiering

Q: S3 Intelligent-Tiering이란 무엇입니까?

S3 Intelligent-Tiering은 성능에 대한 영향, 검색 요금 또는 운영 부담 없이 액세스 빈도에 따라 가장 비용 효율적인 액세스 티어로 데이터를 자동으로 이동하여 세분화된 객체 수준에서 스토리지 비용을 자동으로 절감해주는 최초의 클라우드 스토리지입니다. S3 Intelligent-Tiering은 Frequent, Infrequent Access 및 Archive Instant Access 티어에서 자주 액세스하는 데이터, 자주 액세스하지 않는 데이터, 그리고 거의 액세스하지 않는 데이터에 대해 밀리초 단위의 대기 시간과 높은 처리량을 제공합니다. 약간의 월별 객체 모니터링 및 자동화 요금만 지불하면 S3 Intelligent-Tiering에서 액세스 패턴을 모니터링하고 객체를 한 티어에서 다른 티어로 자동으로 이동합니다. S3 Intelligent-Tiering에는 검색 요금이 없으므로 액세스 패턴이 변화할 때 스토리지 청구 요금이 예기치 않게 증가하지 않습니다.

이제 거의 모든 워크로드, 특히 데이터 레이크, 데이터 분석, 기계 학습, 새로운 애플리케이션 및 사용자 생성 콘텐츠에 대한 기본 스토리지 클래스로 S3 Intelligent-Tiering을 사용할 수 있습니다.

Q: S3 Intelligent-Tiering은 어떻게 작동합니까?

Amazon S3 Intelligent-Tiering 스토리지 클래스는 액세스 패턴이 변화할 때 가장 비용 효과적인 액세스 티어로 데이터를 자동으로 이동하여 스토리지 비용을 최적화하기 위해 설계되었습니다. 저렴한 월별 객체 모니터링 및 자동화 요금만 지불하면 이용 가능한 S3 Intelligent-Tiering은 액세스 패턴을 모니터링하여, 30일 연속으로 액세스하지 않은 객체를 Infrequent Access 티어로 이동시켜 스토리지 비용을 최대 40% 절감합니다. 90일 연속 액세스하지 않으면 객체는 Archive Instant Access 티어로 이동하여 최대 68%의 스토리지 비용을 절감해줍니다. 성능에는 영향을 주지 않으며 S3 Intelligent-Tiering에서 검색 요금은 없습니다. 나중에 Infrequent Access 티어 또는 Archive Instant Access 티어의 객체에 액세스하는 경우 해당 객체가 자동으로 Frequent Access 티어로 다시 이동됩니다.

비동기식으로 액세스할 수 있는 데이터에서 가장 저렴한 스토리지 비용을 지원하려는 추가적인 아카이브 기능을 활성화하도록 선택할 수 있습니다. 비동기 아카이브 액세스 티어를 하나 또는 모두 사용하면 S3 Intelligent-Tiering이 최소 90일 동안 액세스하지 않은 객체를 Archive Access 계층으로 이동하여 최대 71%, 이후 180일 동안 액세스하지 않으면 다시 Deep Archive Access 계층으로 이동하여 거의 액세스하지 않는 데이터에 대해 최대 95%의 비용을 절감해줍니다. 선택적 Archive 또는 Deep Access 티어의 객체를 나중에 복원하는 경우 이 객체는 Frequent Access 티어로 다시 이동하며, 이 객체를 검색하려면 먼저 RestoreObject를 사용하여 객체를 복원해야 합니다. 아카이브된 객체를 복원하는 방법은 아카이브된 객체 복원을 참조하세요. S3 Intelligent-Tiering에는 검색 요금이 없습니다. 객체가 S3 Intelligent-Tiering 스토리지 클래스 내의 액세스 티어 간에 이동될 때는 계층화 또는 수명 주기 요금이 추가로 적용되지 않습니다.

S3 Intelligent-Tiering에는 최소 객체 크기가 없지만, 128KB보다 작은 객체는 자동 계층화에 적합하지 않습니다. 이러한 작은 객체는 S3 Intelligent-Tiering에 저장할 수 있지만, 항상 Frequent Access 티어 요금이 부과되며 모니터링 및 자동화 요금은 부과되지 않습니다.

새로 생성된 데이터에 대한 기본 스토리지 클래스로 S3 Intelligent-Tiering을 표준화하려는 경우 S3 PUT API 요청 헤더에서 INTELLIGENT-TIERING을 지정하여 애플리케이션을 수정할 수 있습니다. 99.9%의 가용성 및 99.999999999%의 내구성을 만족하도록 설계된 S3 Intelligent-Tiering은 S3 Standard와 같이 짧은 대기 시간과 높은 처리량을 자동으로 제공합니다. AWS Cost Explorer를 사용하여 Archive Instant Access 티어에서 추가적인 절감 효과를 측정할 수 있습니다.

Q: 왜 S3 Intelligent-Tiering을 사용해야 합니까?

이제 거의 모든 워크로드, 특히 데이터 레이크, 데이터 분석, 기계 학습, 새로운 애플리케이션 및 사용자 생성 콘텐츠에 대한 기본 스토리지 클래스로 S3 Intelligent-Tiering을 사용할 수 있습니다. S3 Intelligent-Tiering은 성능에 대한 영향, 검색 요금 또는 운영 부담 없이 액세스 빈도에 따라 가장 비용 효율적인 액세스 티어로 데이터를 자동으로 이동하여 세분화된 객체 수준에서 스토리지 비용을 자동으로 절감해주는 최초의 클라우드 스토리지입니다. 데이터 레이크, 데이터 분석 및 새 애플리케이션을 포함하여 액세스 패턴을 알 수 없거나 액세스 패턴이 바뀌는 데이터의 경우 S3 Intelligent-Tiering을 사용하는 것이 좋습니다. 즉각적인 검색이 필요하지 않은 데이터의 경우 Deep Archive Access 티어를 활성화하는 것이 좋습니다. 이 경우 오랫동안 거의 액세스하지 않을 수 있는 데이터에 대해 월별 TB당 1 USD 정도의 작은 비용만 내면 됩니다. S3 Intelligent-Tiering은 액세스 패턴을 알 수 없거나 액세스 패턴이 변경되는 데이터에 적합합니다. S3 Intelligent-Tiering 스토리지 클래스를 사용할 때 검색 요금은 없습니다.

Q: S3 Intelligent-Tiering은 어떤 성능을 제공합니까?

S3 Intelligent-Tiering은 성능에 영향을 주지 않고 스토리지 비용을 자동으로 최적화합니다. S3 Intelligent-Tiering Frequent, Infrequent 및 Archive Instant Access 티어는 대기 시간이 밀리초 단위로 짧고 처리량 성능이 뛰어납니다.

Q: 선택적 Archive Access 및 Deep Archive Access 티어는 어떤 성능을 제공합니까?

비동기적으로 액세스할 수 있는 데이터의 경우 선택적 Archive Access 티어는 S3 Glacier Flexible Retrieval과 동일한 성능을 지원하며, Deep Archive Access 티어는 S3 Glacier Deep Archive 스토리지 클래스와 동일한 성능을 지원합니다. 애플리케이션에서 몇 분에서 몇 시간 정도만 기다리면 비동기 아카이브 기능을 활성화할 수 있습니다. 검색할 객체가 Archive 또는 Deep Archive Access 티어에 저장되어 있는 경우 객체를 검색하려면 먼저 RestoreObject를 사용하여 객체를 복원해야 합니다. 아카이브된 객체를 복원하는 방법은 아카이브된 객체 복원을 참조하세요. Archive Access 티어의 객체는 3~5시간 이내에 Frequent Access 티어로 이동되고, Deep Archive Access 티어에 있는 경우 12시간 이내에 이동됩니다. Archive Access 계층의 객체에 더 빠르게 액세스해야 하는 경우 콘솔에서 더 빠른 검색 속도 옵션을 선택하여 더 빠른 검색에 대한 요금을 지불할 수 있습니다.

Q: S3 Intelligent-Tiering의 내구성과 가용성은 얼마나 됩니까?

S3 Intelligent-Tiering은 S3 Standard 스토리지 클래스와 동일한 99.999999999% 내구성을 제공하도록 설계되었습니다. S3 Intelligent-Tiering은 99.9% 가용성을 제공하도록 설계되었으며, 어떤 결제 주기에서든 가용성이 서비스 약정에 미달하는 경우 서비스 수준 계약에 따라 서비스 크레딧을 제공합니다.

Q: S3 Intelligent-Tiering으로 데이터를 가져오려면 어떻게 해야 합니까?

S3 Intelligent-Tiering으로 데이터를 가져오려면 두 가지 방법을 사용할 수 있습니다. x-amz-storage 헤더에 INTELLIGENT_TIERING을 지정하여 S3 Intelligent-Tiering으로 직접 PUT하거나, S3 Standard 또는 S3 Standard-IA에서 S3 INTELLIGENT_TIERING으로 객체를 전환하도록 수명 주기 정책을 설정할 수 있습니다.

Q: S3 Intelligent-Tiering 요금은 어떻게 청구되나요?

S3 Intelligent-Tiering에서는 월별 스토리지, 요청 및 데이터 전송에 따라 요금을 청구하며, 객체당 모니터링 및 자동화에 대한 약간의 월별 요금도 청구합니다. S3 Intelligent-Tiering 스토리지 클래스는 3개의 액세스 티어(S3 Standard 스토리지 요금의 Frequent Access 티어, S3 Standard-Infrequent Access 스토리지 요금의 Infrequent Access 티어, S3 Glacier Instant Retrieval 스토리지 요금의 Archive Instant Access 티어)에 객체를 자동으로 저장합니다.. 또한, S3 Intelligent-Tiering에는 2개의 선택적인 아카이브 티어인 비동기 액세스, Archive Access 티어(S3 Glacier Flexible Retrieval 스토리지 요금)와 Deep Archive Access 티어(S3 Glacier Deep Archive 스토리지 요금)가 있습니다.

저렴한 모니터링 및 자동화 요금을 지원하기 위해 S3 Intelligent-Tiering은 액세스 패턴을 모니터링하여 객체를 대기 시간이 낮고 처리량이 높은 액세스 티어 및 두 가지 옵트인 비동기 아카이브 액세스 티어로 자동으로 이동하여 고객이 비동기로 액세스할 수 있는 데이터에 대해 클라우드에서 가장 저렴한 스토리지 비용으로 이용할 수 있도록 합니다.

S3 Intelligent-Tiering에는 청구 가능한 최소 객체 크기가 없지만, 128KB보다 작은 객체는 자동 계층화에 적합하지 않습니다. 이러한 작은 객체는 모니터링하지 않으며 모니터링 및 자동화 요금 없이 항상 Frequent Access 티어 요금이 부과됩니다. S3 Intelligent-Tiering에서 Archive Access 티어 또는 Deep Archive Access 티어에 아카이브된 각 객체의 경우 Amazon S3에서는 객체 및 기타 메타데이터 이름을 위해 8KB의 스토리지(S3 Standard 스토리지 요금으로 요금이 청구됨)와 인덱스 및 관련 메타데이터를 위해 32KB의 스토리지(S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive 스토리지 요금으로 요금이 청구됨)를 사용합니다.

Q: S3 Intelligent-Tiering에서 데이터를 검색하는 요금이 있습니까?

아니요. S3 Intelligent-Tiering에는 검색 요금이 없습니다. S3 Intelligent-Tiering은 데이터의 액세스 패턴을 모니터링하고, Infrequent Access, Archive Instant Access 또는 비동기 아카이브 티어에 있는 객체에 액세스하는 경우 S3 Intelligent-Tiering은 Frequent Access 티어로 해당 객체를 자동으로 이동합니다.

Q: S3 Intelligent-Tiering의 Archive Access 티어를 활성화하려면 어떻게 해야 합니까?

Amazon S3 API, CLI 또는 S3 관리 콘솔에서 버킷, 접두사 또는 객체 태그 수준 구성을 생성하여 Archive Access 계층 및 Deep Archive Access 계층을 활성화할 수 있습니다. 애플리케이션에서 객체에 비동기적으로 액세스할 수 있는 경우에만 Archive Access 계층 중 하나 또는 모두를 활성화해야 합니다.

Q: S3 Intelligent-Tiering 스토리지 클래스에 객체를 아카이브하기 전에 기간을 늘릴 수 있습니까?

예. 버킷, 접두사 또는 객체 태그 수준 구성에서 S3 Intelligent-Tiering에 객체를 아카이브하는 마지막 액세스 시간을 늘릴 수 있습니다. 이 기능을 활성화하면 기본적으로 최소 90일 연속으로 액세스하지 않은 객체는 Archive Instant Access 티어를 건너뛰고 Archive Access 티어로 자동으로 이동됩니다. 최소 180일 연속으로 액세스하지 않은 객체는 Deep Archive Access 티어로 자동으로 이동됩니다. S3 Intelligent-Tiering에서 자동 아카이브를 수행하기 전에 마지막 액세스 이후 연속 일수에 대한 기본 구성은 최대 2년까지 늘릴 수 있습니다.

Q: S3 Intelligent-Tiering 스토리지 클래스에서 Archive Access 또는 Deep Archive Access 계층의 객체에 액세스하려면 어떻게 해야 합니까?

Archive Access 또는 Deep Archive Access 계층의 객체에 액세스하려면 복원 요청을 실행해야 합니다. 그러면 S3 Intelligent-Tiering 스토리지 클래스의 모든 객체가 Frequent Access 계층으로 다시 이동하기 시작합니다. Archive Access 계층의 객체는 3-5시간 이내에 Frequent Access 계층으로 이동되고, Deep Archive Access 계층의 객체는 12시간 이내에 Frequent Access 계층으로 이동됩니다. Frequent Access 티어에 객체가 배치되면 GET 요청을 실행하여 객체를 검색할 수 있습니다.

Q: 객체가 저장된 S3 Intelligent-Tiering의 액세스 티어를 확인하려면 어떻게 해야 합니까?

Amazon S3 Inventory를 사용하여 S3 Intelligent-Tiering 스토리지 클래스에 저장된 객체의 액세스 티어를 보고할 수 있습니다. Amazon S3 Inventory는 일 또는 주 단위로 S3 버킷이나 공유된 접두사에 대한 객체 및 해당 메타데이터를 나열하는 CSV, ORC 또는 Parquet 출력 파일을 제공합니다. 또한, 객체에서 HEAD 요청을 수행하여 S3 Intelligent-Tiering Archive Access 티어를 보고할 수도 있습니다.

Q: S3 Intelligent-Tiering에서 다른 스토리지 클래스로 객체 수명 주기를 지원할 수 있습니까?

예. S3 Intelligent-Tiering Frequent Access, Infrequent 및 Archive Instant Access 티어에서 S3 One-Zone Infrequent Access, S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive로 객체 수명 주기를 지원할 수 있습니다. 또한, S3 Intelligent-Tiering의 선택적 아카이브 액세스 티어에서 S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive로, S3 Intelligent-Tiering Deep Archive Access 티어에서 S3 Glacier Deep Archive로 객체 수명 주기를 지원할 수도 있습니다.

Q: S3 Intelligent-Tiering에 대한 최소 기간이 있습니까?

아니요. S3 Intelligent-Tiering 스토리지 클래스에는 최소 스토리지 기간이 없습니다.

Q: S3 Intelligent-Tiering에 대한 청구 가능한 최소 객체 크기가 있나요?

아니요. S3 Intelligent-Tiering 스토리지 클래스에는 청구 가능한 최소 객체 크기가 없지만, 128KB보다 작은 객체는 자동 계층화에 적합하지 않습니다. 이러한 작은 객체는 모니터링 및 자동화 요금 없이 항상 Frequent Access 티어 요금이 부과됩니다. S3 Intelligent-Tiering에서 옵트인 Archive Access 티어 또는 Deep Archive Access 티어에 아카이브된 각 객체의 경우 Amazon S3에서는 객체 및 기타 메타데이터 이름을 위해 8KB의 스토리지(S3 Standard 스토리지 요금으로 요금이 청구됨)와 인덱스 및 관련 메타데이터를 위해 32KB의 스토리지(S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive 스토리지 요금으로 요금이 청구됨)를 사용합니다. 자세한 내용은 Amazon S3 요금 페이지를 참조하세요. 

S3 Standard

Q: S3 Standard란 무엇입니까?

Amazon S3 Standard는 일반적으로 한 달에 한 번 이상 자주 액세스하는 데이터에 대해 밀리초 단위의 액세스 대기 시간과 높은 처리 성능을 지원하는 내구성 강한 스토리지를 제공합니다. S3 Standard는 데이터 레이크, 클라우드 네이티브 애플리케이션, 동적 웹 사이트, 콘텐츠 배포, 모바일 및 게임 애플리케이션, 분석, 기계 학습 모델과 같은 성능에 민감한 사용 사례를 위해 설계되었습니다. S3 Standard는 일년 동안 여러 가용 영역에 걸쳐 99.99%의 데이터 가용성과 99.999999999%의 객체 내구성을 제공하도록 설계되었습니다. S3 수명 주기 정책을 사용하여 애플리케이션을 변경하지 않고도 S3 Standard와 더 저렴한 비용의 스토리지 클래스 간 데이터 전환 시점을 정확하게 제어할 수 있습니다.

Q: S3 Standard를 사용해야 하는 이유는 무엇입니까?

S3 Standard는 높은 처리 성능과 밀리초 단위의 액세스가 필요한 자주 액세스하는 데이터 또는 수정된 데이터에 적합합니다. S3 Standard는 매우 자주 읽거나 쓰는 데이터에 적합하며, 검색 요금은 없습니다. S3 Standard는 데이터 레이크, 클라우드 네이티브 애플리케이션, 동적 웹 사이트, 콘텐츠 배포, 모바일 및 게임 애플리케이션, 분석을 포함한 다양한 사용 사례에 맞게 최적화되어 있습니다.

S3 Express One Zone

Q: Amazon S3 Express One Zone 스토리지 클래스란 무엇인가요?

Amazon S3 Express One Zone은 지연 시간에 가장 민감한 고객 애플리케이션에 대해 10밀리초 미만의 일관된 데이터 액세스를 제공하기 위해 특별히 제작된 고성능 단일 가용 영역 Amazon S3 스토리지 클래스입니다. Amazon S3 Express One Zone은 현재 사용 가능한 지연 시간이 가장 짧은 클라우드 객체 스토리지 클래스로, 데이터 액세스 속도가 최대 10배 더 빠르며 요청 비용은 Amazon S3 Standard보다 50% 저렴합니다. S3 Express One Zone을 사용하면 데이터를 저장할 AWS 리전 내의 특정 AWS 가용 영역을 선택할 수 있습니다. 동일한 가용 영역에 스토리지와 컴퓨팅 리소스를 함께 배치하여 성능을 더욱 최적화할 수 있습니다.

Q: Amazon S3 Express One Zone 스토리지 클래스를 사용하는 이유는 무엇인가요?

S3 Express One Zone은 지연 시간에 민감한 애플리케이션을 위해 가장 빠른 데이터 액세스 속도와 최고의 성능을 필요로 하는 애플리케이션에 적합한 스토리지 클래스입니다. S3 Express One Zone은 머신 러닝(ML) 교육 및 추론, 대화형 분석, 미디어 콘텐츠 생성과 같은 요청 집약적인 작업에 가장 적합한 스토리지 클래스입니다.

Q: Amazon S3 Express One Zone 스토리지 클래스를 시작하려면 어떻게 해야 하나요?

선택한 AWS 가용 영역(AZ)에 S3 디렉터리 버킷을 생성하여 시작할 수 있습니다. 동일한 AZ에 스토리지와 컴퓨팅 리소스를 함께 배치하여 성능을 더욱 최적화할 수 있습니다. 디렉터리 버킷에는 기본적으로 S3 블록 퍼블릭 액세스가 켜져 있습니다. 디렉터리 버킷을 생성한 후 객체를 S3 Express One Zone 스토리지 클래스에 직접 업로드하거나 기존 S3 스토리지 클래스에서 S3 Express One Zone으로 객체를 복사할 수 있습니다. 또한 AWS Management Console에서 클릭 한 번으로 데이터를 S3 Express One Zone으로 가져오거나 S3 배치 작업을 사용하여 기존 S3 스토리지 클래스의 전체 버킷, 접두사 또는 데이터 하위 집합을 S3 Express One Zone으로 복사할 수 있습니다.

Q: Amazon S3 익스프레스 One Zone 스토리지 클래스로 데이터를 가져오려면 어떻게 해야 하나요?

디렉토리 버킷을 생성한 후 가져오기 옵션을 사용하여 S3 콘솔을 통해 동일한 AWS 리전 내에서 S3 Express One Zone 스토리지 클래스로 데이터를 가져올 수 있습니다. 가져오기를 사용하면 복사할 모든 객체를 개별적으로 지정하지 않고도 데이터를 가져올 접두사 또는 버킷을 선택할 수 있으므로 S3 디렉토리 버킷에 데이터를 간단하게 복사할 수 있습니다. S3 배치 작업은 선택한 접두사 또는 범용 버킷의 객체를 복사하며, S3 배치 작업 작업 세부 정보 페이지를 통해 가져오기 복사 작업의 진행 상황을 모니터링할 수 있습니다.

Q: Amazon S3 Express One Zone 객체는 몇 개의 가용 영역에 저장되나요?

S3 Express One Zon 객체는 선택한 단일 AWS 가용 영역(AZ)에 저장됩니다. 한 영역에 객체를 저장하면 데이터를 컴퓨팅 로컬에 저장하여 지연 시간을 최소화할 수 있습니다. 지연 시간은 늘어나지만 여러 가용 영역에서 데이터에 액세스할 수 있습니다.

Q: Amazon S3 Express One Zone 스토리지 클래스는 어떤 성능을 제공하나요?

S3 Express One Zone은 다른 S3 스토리지 클래스와 유사한 성능 탄력성을 제공하지만 1바이트 읽기 및 쓰기 지연 시간 요청 지연 시간이 10밀리초로 일관되어 기존 S3 스토리지 클래스보다 최대 10배 더 빠릅니다. S3 Express One Zone을 사용하면 고객은 용량 또는 처리량 요구 사항을 미리 계획하거나 프로비저닝할 필요가 없으며 요청을 즉시 최대 10배 더 빠르게 완료할 수 있습니다. S3 Express One Zone은 스토리지 지연 시간이 작업 완료 시간을 단축하고 전체 TCO를 절감하는 분석 작업에 적합합니다. 또한 크리에이티브 전문가가 S3 데이터에 최대한 빠르게 액세스해야 하는 비디오 편집과 같은 대화형 워크로드에도 적합합니다.

Q: Amazon S3 Express One Zone 스토리지 클래스는 어떻게 고성능을 달성하나요?

S3 Express One Zone은 고유한 아키텍처를 사용하여 성능을 최적화하고 일관되게 낮은 요청 지연 시간을 제공합니다. S3 Express One Zone은 고성능 하드웨어에 데이터를 저장하며, 인증 및 메타데이터 오버헤드를 간소화하도록 객체 프로토콜이 개선되었습니다. 또한 액세스 속도를 더욱 높이고 초당 수십만 건의 요청을 지원하기 위해 데이터는 Amazon S3 디렉터리 버킷이라는 새로운 버킷 유형에 저장됩니다. S3 Express One Zone을 사용하면 데이터를 저장할 AWS 리전 내의 특정 AWS 가용 영역을 선택할 수 있습니다. 동일한 가용 영역에 스토리지와 컴퓨팅 리소스를 함께 배치하여 성능을 더욱 최적화할 수 있습니다.

Q: S3 디렉터리 버킷은 어떤 요청 속도 성능을 지원하나요?

각 S3 디렉터리 버킷은 버킷 내 디렉터리 수에 관계없이 수십만 TPS(초당 트랜잭션)를 지원할 수 있습니다.

Q: 오랜 기간 동안 요청 활동이 없는 S3 디렉터리 버킷은 어떻게 되나요?

3개월 이상 요청 활동이 없는 S3 디렉터리 버킷은 비활성 상태로 전환됩니다. 비활성 상태에서는 읽기 및 쓰기를 위해 디렉터리 버킷에 일시적으로 액세스할 수 없습니다. 비활성 버킷에는 모든 스토리지, 객체 메타데이터 및 버킷 메타데이터가 보관됩니다. 비활성 버킷에는 기존 스토리지 요금이 적용됩니다. 비활성 버킷에 대한 액세스 요청 시 버킷은 일반적으로 몇 분 내에 활성 상태로 전환됩니다. 이 전환 기간 동안 읽기 및 쓰기는 503 SlowDown 오류 코드를 반환합니다.

Q: S3 Express One Zone 스토리지 클래스의 애플리케이션 처리량 요구 사항을 어떻게 계획해야 하나요?

S3 Express One Zone은 다른 Amazon S3 스토리지 클래스와 마찬가지로 높고 탄력적인 처리량을 제공합니다. S3 Express One Zone은 처음부터 개별 고객이 처리량을 매우 높은 집계 수준까지 대폭 늘릴 수 있도록 설계되었습니다. 예를 들어 기계 학습 모델 학습 애플리케이션은 수백만 개의 객체와 페타바이트의 데이터를 대상으로 학습할 수 있습니다. 이러한 요청을 별도의 연결로 분산하여 액세스 가능한 대역폭을 최대화하면 성능을 극대화할 수 있습니다.

Q: Amazon S3 Express One Zone의 요청 승인은 다른 S3 스토리지 클래스와 어떻게 다른가요?

S3 Express One Zone을 사용하면 지연 시간을 최소화하도록 최적화된 새로운 세션 기반 메커니즘인 S3 CreateSession을 통해 요청을 인증하고 권한을 부여할 수 있습니다. CreateSession을 사용하여 버킷에 짧은 지연 시간 액세스를 제공하는 임시 보안 인증명을 요청할 수 있습니다. 이러한 임시 보안 인증의 범위는 특정 S3 디렉터리 버킷으로 한정됩니다. 이 세션 기반 모델에 대한 자세한 내용은 개발자 안내서의 S3 생성 세션을 참조하세요.

Q: Amazon S3 Express One Zone 스토리지 클래스는 얼마나 안정적인가요?

S3 Express One Zone은 단일 가용 영역 내에서 99.95%의 가용성과 99.9%의 가용성 SLA를 제공하도록 설계되었습니다.

Q: Amazon S3 Express One Zones 스토리지 클래스는 99.95%의 가용성을 제공하도록 어떻게 설계되었나요?

S3 Express One Zone을 사용하면 데이터가 단일 AZ 내의 여러 디바이스에 중복 저장됩니다. S3 Express One Zone은 중복 손실을 빠르게 감지하고 복구하여 디바이스에 동시에 장애가 발생하는 것을 방지하도록 설계되었습니다. 즉, S3 Express One Zone은 기존 디바이스에 장애가 발생하는 경우 AZ 내의 새 디바이스로 요청을 자동으로 이동합니다. 이러한 이중화를 통해 AZ 내 데이터에 중단 없이 액세스할 수 있습니다.

Q: Amazon S3 Express One Zone에 대한 요금은 어떻게 청구되나요?

S3 Express One Zone을 시작하는 데 드는 설치 요금이나 약정은 없습니다. S3 Express One Zone은 스토리지 및 요청에 대한 요금을 청구합니다. 한 달에 청구되는 스토리지의 양은 시간당 사용된 총 스토리지(월별 기가바이트(GB-월))를 기준으로 누적됩니다. 또한 요청 유형(예: PUT 및 GET)에 따라 액세스에 대해서는 요청당 요금이 부과됩니다. 요청 크기가 512KB를 초과하는 부분에 대해서는 GB당 추가 요금을 지불해야 합니다.

예제 1:
S3 Express One Zone에 10GB의 데이터를 30일 동안 저장하여 총 1,000,000건의 쓰기와 9,000,000건의 읽기를 수행하고 요청 크기가 10KB인 Athena에 액세스한다고 가정해 보겠습니다. 그런 다음 30일이 경과할 때까지 1,000,000개의 파일을 삭제합니다. 버킷이 미국 동부(버지니아 북부) 리전에 있는 경우 스토리지 및 요청 요금은 아래와 같이 계산됩니다.

스토리지 요금
총 바이트-시간 사용량 = 10GB-월
총 스토리지 비용 = 10GB-월 x 0.16 USD = 1.6 USD

요청 요금
PUT 요청 100만 건: 요청 100만 건 x 0.0025 USD/1,000 = 2.5 USD
GET 요청 900만 건: 요청 900만 건 x 0.0002 USD/1,000 = 1.8 USD
DELETE 요청 100만 건 = 요청 100만 건 x 0.00 USD(요금 없음) = 0 USD

요금 합계 = 1.6 USD+2.5 USD+1.8 USD = 5.9 USD

예제 2:
매일 8시간 워크로드에 대해 머신러닝 교육을 위해 10TB의 데이터를 저장한 다음 삭제한다고 가정해 보겠습니다. 8시간의 워크로드 동안 2MB의 요청 크기에 대해 5,242,880건의 쓰기 작업과 10,485,760건의 읽기를 수행합니다. 이 운영을 30일(1개월) 동안 수행한다고 가정합니다.

스토리지 요금
총 바이트-시간 사용량 = [10,995,116,277,760바이트 x 30일 x (8시간/일)] = 2,638,827,906,662,400바이트-시간 = 3303.77GB-월
총 스토리지 비용 = 3303.77GB x 0.16 USD = 528.51 USD

요청 요금
PUT 요청 524만 2,880건/일: 요청 524만 2,880건 x 30 x 0.0025 USD/1,000 = 393.22 USD
GET 요청 1,048만 5,760건/일: 요청 1,048만 5,760건 x 30 x 0.0002 USD/1,000 = 62.91 USD
DELETE 요청 524만 2,880건/일: 요청 524만 2,880건 x 0.00 USD(요금 없음) = 0 USD

요청당 추가 대역폭 요금 부과: 1.5MB(2-0.5MB) = 0.001465GB
PUT 대역폭 요금: 0.001465GB x 5,242,880 x 30 x 0.008 USD = 1843.2 USD
GET 대역폭 요금: 0.001465GB x 10,485,760 x 30 x 0.015 USD = 691.2 USD

요금 합계 = 528.51 USD+393.22 USD+62.91 USD+1843.2 USD+691.2 USD= 3519.05 USD

Q: 동일한 리전 내에서 Amazon S3 Express One Zone 스토리지 클래스를 사용할 경우 추가 데이터 전송 요금이 부과되나요?

S3 Express One Zone의 데이터에 액세스하기 위한 요청 요금에는 한 리전의 AWS 네트워크 내에서 데이터를 전송하는 비용이 포함되며, 동일한 리전 내 Amazon EC2(또는 모든 AWS 서비스)와 S3 Express One Zone 간에 전송되는 데이터(예: 미국 동부(버지니아 북부) 리전 내에서 전송된 데이터)에 대해서는 추가 데이터 전송 요금이 부과되지 않습니다.

Q: Amazon S3 Express One Zone 스토리지 클래스와 함께 게이트웨이 VPC 엔드포인트를 사용할 경우 추가 네트워킹 요금이 부과되나요까?

S3 Express One Zone의 데이터에 액세스하기 위한 요청 요금에는 게이트웨이 VPC 엔드포인트 사용 비용이 포함되며, S3 Express One Zone에서 게이트웨이 엔드포인트를 사용하는 데 따른 추가 요금은 없습니다.

S3 Standard-Infrequent Access(S3 Standard-IA)

Q:  S3 Standard-Infrequent Access란 무엇입니까?

Amazon S3 Standard-Infrequent Access(S3 Standard-IA)는 액세스 빈도가 낮지만 필요할 때 빠르게 액세스해야 하는 데이터를 위한 Amazon S3 스토리지 클래스입니다. S3 Standard-IA는 저렴한 GB당 스토리지 요금과 GB당 검색 요금으로 Amazon S3 스탠다드 스토리지 클래스의 뛰어난 내구성, 처리량 및 짧은 지연을 제공합니다. 저렴한 비용과 뛰어난 성능의 조합을 제공하는 S3 Standard-IA는 장기 스토리지, 백업 및 재해 복구용 데이터 스토어에 적합합니다. S3 Standard-IA 스토리지 클래스는 객체 수준에서 설정되며 S3 스탠다드 또는 S3 One Zone-IA 스토리지 클래스와 같은 버킷에 존재할 수 있으므로, 애플리케이션 변경 없이 S3 수명 주기 정책을 사용하여 스토리지 간에 자동으로 객체를 전환할 수 있습니다.

Q: 왜 S3 Standard-IA를 사용해야 합니까?

S3 Standard-IA는 액세스 빈도가 낮지만 필요할 때 빠르게 액세스해야 하는 데이터에 적합합니다. S3 Standard-IA는 장기 파일 스토리지, 이전 동기화 및 공유 스토리지, 다른 오래된 데이터에 적합합니다.

Q: S3 Standard-IA가 제공하는 성능은 어떻습니까?

S3 Standard-IA는 S3 Standard 스토리지 클래스와 동일한 밀리초 단위의 대기 시간 및 높은 처리 성능을 제공합니다. 

Q: S3 Standard-IA에 데이터를 저장하려면 어떻게 해야 합니까?

S3 Standard-IA에 데이터를 저장하는 방법에는 2가지가 있습니다. x-amz-storage-class 헤더에 STANDARD_IA를 지정하여 S3 Standard-IA로 데이터를 직접 PUT할 수 있습니다. 또한 수명 주기 정책을 설정하여 S3 Standard에서 S3 Standard-IA 스토리지 클래스로 객체를 전환할 수도 있습니다.

Q: COPY 요청을 통해 객체의 스토리지 클래스를 S3 Standard-IA에서 S3 Standard로 변경할 경우 어떤 비용이 발생하나요?

S3 Standard(대상 스토리지 클래스) COPY 요청과 S3 Standard-IA(소스 스토리지 클래스) 데이터 검색에 대한 요금이 발생합니다. 자세한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: S3 Standard-IA에는 최소 스토리지 기간 비용이 있나요?

S3 Standard-IA는 수명이 길고 액세스 빈도가 낮은 데이터를 수개월 또는 수년 동안 유지하도록 설계되었습니다. 30일 이내에 S3 Standard-IA에서 삭제된 데이터는 30일 전체에 대한 요금이 부과됩니다. S3 Standard-IA 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: S3 Standard-IA에는 최소 객체 스토리지 요금이 있나요?

S3 Standard-IA는 크기가 큰 객체를 위해 설계되었으며 128KB의 최소 객체 스토리지 요금이 있습니다. 크기가 128KB보다 작은 객체에도 객체가 128KB일 때와 같은 스토리지 요금이 발생합니다. 예를 들어, S3 Standard-IA에 저장된 6KB 객체에는 6KB에 대한 S3 Standard-IA 스토리지 요금과 122KB에 해당하는 최소 객체 크기 요금이 추가로 발생하며, 122KB에 대한 요금은 S3 Standard–IA 스토리지 요금을 따릅니다. S3 Standard-IA 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: S3 Standard-IA에서 S3 One Zone-IA 또는 S3 Glacier Flexible Retrieval 스토리지 클래스로 객체를 계층화할 수 있나요?

예. 수명 주기 정책을 사용하여 객체를 S3 Standard에서 S3 Standard-IA로 마이그레이션할 수 있을 뿐 아니라, S3 Standard-IA에서 S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive 스토리지 클래스로 객체를 계층화하도록 수명 주기 정책을 설정할 수도 있습니다.

S3 One Zone-Infrequent Access(S3 One Zone-IA)

Q: S3 One Zone-IA 스토리지 클래스란 무엇입니까?

S3 One Zone-IA 스토리지 클래스는 고객이 단일 가용 영역에 객체를 저장하도록 선택할 수 있는 Amazon S3 스토리지 클래스입니다. S3 One Zone-IA 스토리지는 단일 가용 영역 내에 데이터를 중복으로 저장하여, 지리적으로 분리된 여러 가용 영역 전체에 데이터를 중복 저장하는 지리적으로 중복된 S3 Standard-IA 스토리지보다 20% 저렴하게 스토리지 제공합니다.

S3 One Zone-IA는 99%의 가용성 SLA를 제공하며, 가용 영역 내에서 99.999999999%의 내구성을 제공하도록 설계되었습니다. 그러나 S3 One Zone-IA 스토리지 클래스의 데이터는 전체 가용 영역의 물리적 손실에 대해 복원력이 유지되지 않습니다.

S3 One Zone-IA 스토리지는 S3 Standard 및 S3 Standard-IA와 같은 Amazon S3 기능을 제공하며, Amazon S3 API, CLI 및 콘솔을 통해 사용할 수 있습니다. S3 One Zone-IA 스토리지 클래스는 객체 수준에서 설정되며 S3 스탠다드 및 S3 Standard-IA 스토리지 클래스와 같은 버킷에 존재할 수 있습니다. S3 수명 주기 정책을 사용하여 애플리케이션 변경 없이 자동으로 스토리지 클래스 간에 객체를 전환할 수 있습니다.

Q: S3 One Zone-IA 스토리지 클래스에 가장 적합한 사용 사례는 무엇입니까?

고객은 백업 복사본, 재해 복구 복사본 또는, 손쉽게 재생성 가능한 기타 데이터 등 자주 액세스하지 않는 스토리지에 S3 One Zone-IA를 사용할 수 있습니다.

Q: S3 One Zone-IA 스토리지가 제공하는 성능은 어떻습니까?

S3 One Zone-IA 스토리지 클래스는 S3 Standard 및 S3 Standard-Infrequent Access 스토리지 클래스와 동일한 지연 시간 및 처리량 성능을 제공합니다.

Q: S3 One Zone-IA 스토리지 클래스의 내구성은 어떻습니까?

S3 One Zone-IA 스토리지 클래스는 가용 영역 내에서 99.999999999%의 내구성을 제공하도록 설계되었습니다. 그러나 S3 One Zone-IA 스토리지 클래스의 데이터는 가용 영역의 물리적 손실 또는 가용성 손실에 대해 복원력이 유지되지 않습니다. 반면에 S3 Standard, S3 Intelligent-Tiering, S3 Standard-Infrequent Access 및 S3 Glacier 스토리지 클래스는 가용 영역이 가용성을 상실하거나 완전히 파괴되는 것을 견디도록 설계되었습니다. S3 One Zone-IA는 가장 최신의 물리적 데이터 센터와 같거나 그보다 뛰어난 내구성 및 가용성을 제공하는 동시에 스토리지 탄력성과 Amazon S3 기능 세트라는 추가적인 이점을 제공합니다.

Q: S3 One Zone-IA에서 "Zone"은 AWS 가용 영역과 같은 것입니까?

예. 각 AWS 리전은 별도의 지리적 영역입니다. 각 리전은 가용 영역이라고 알려진 격리된 위치를 여러 개 가지고 있습니다. Amazon S3 One Zone-IA 스토리지 클래스는 리전 내 개별 AWS 가용 영역 1개를 사용합니다.

Q: S3 One Zone-IA를 사용하면 재해 복구 보호를 어느 정도 포기해야 합니까?

각 가용 영역은 중복 전력 및 네트워킹을 사용합니다. AWS 리전 내 가용 영역은 서로 다른 범람원 및 지진 단층 지역에 위치하며 화재 보호를 위해 지리적으로 분리되어 있습니다. S3 Standard 및 S3 Standard-IA 스토리지 클래스는 여러 가용 영역에 데이터를 중복으로 저장하여 이러한 종류의 재해로부터 보호합니다. S3 One Zone-IA는 가용 영역 내에서 장비 결함에 대한 보호를 제공하지만, 가용 영역의 물리적 손실(지진 및 홍수와 같은 자연재해로 인한 손실)에 대해 복원력이 유지되지 않습니다. S3 One Zone-IA, S3 Standard 및 S3 Standard-IA를 사용하면 스토리지의 내구성 및 가용성 요구 사항에 가장 적합한 스토리지 클래스를 선택할 수 있습니다.

Amazon S3 Glacier Instant Retrieval 스토리지 클래스

Q: Amazon S3 Glacier Instant Retrieval 스토리지 클래스란 무엇입니까?

S3 Glacier Instant Retrieval 스토리지 클래스는 거의 액세스하지 않으면서 밀리초 단위의 검색이 필요한 장기 데이터에 대해 가장 저렴한 비용의 스토리지를 제공합니다. S3 Glacier Instant Retrieval은 S3 Standard 및 S3 Standard-IA 스토리지 클래스와 동일한 처리량 및 밀리초 단위의 액세스를 지원하며 아카이브 스토리지에 대한 가장 빠른 액세스를 제공합니다. S3 Glacier Instant Retrieval은 물리적으로 격리된 최소 세 개의 AWS 가용 영역에서 데이터를 중복 저장하여 99.999999999%의 데이터 내구성과 99.9%의 가용성을 지원하도록 설계되었습니다.

Q: S3 Glacier Instant Retrieval을 사용해야 하는 이유는 무엇입니까?

S3 Glacier Instant Retrieval은 1분기에 한 번 정도로 거의 액세스하지 않고 밀리초 단위의 검색 시간을 요구하는 데이터를 포함하는 경우에 적합합니다. S3 Standard-IA와 동일한 수준으로 낮은 대기 시간과 높은 처리 성능을 원하면서 더 저렴한 스토리지 요금과 약간 더 높은 데이터 액세스 비용 수준에서 S3 Standard-IA보다 액세스 빈도가 낮고 데이터를 저장하는 경우에 적합한 스토리지 클래스입니다.

Q: S3 Glacier Instant Retrieval의 내구성과 가용성은 어떤 수준입니까?

S3 Glacier Instant Retrieval은 S3 Standard-IA와 마찬가지로 99.999999999%의 내구성과 99.9% 가용성을 지원하도록 설계되었으며, 결제 주기에 가용성이 99% 미만인 경우 서비스 크레딧을 주는 서비스 수준 계약을 제공합니다.

Q: S3 Glacier Instant Retrieval에서 제공하는 성능 수준은 어느 정도입니까?

S3 Glacier Instant Retrieval은 S3 Standard 및 S3 Standard-IA 스토리지 클래스와 같은 수준의 밀리초 단위 대기 시간과 높은 처리 성능을 제공합니다. 비동기 액세스를 위해 설계된 S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive 스토리지 클래스와 달리, S3 Glacier Instant Retrieval에 저장된 객체에 액세스하기 전에 복원 요청을 실행하지 않아도 됩니다.

Q: S3 Glacier Instant Retrieval로 내 데이터를 가져오려면 어떻게 해야 합니까?

S3 Glacier Instant Retrieval로 데이터를 가져오는 두 가지 방법이 있습니다. x-amz-storage-class 헤더에 GLACIER_IR을 지정하여 S3 Glacier Instant Retrieval로 직접 넣거나, S3 Standard 또는 S3 Standard-IA에서 S3 Glacier Instant Retrieval로 객체를 전환하도록 S3 수명 주기 정책을 설정할 수 있습니다.

Q: Amazon S3 Glacier Instant Retrieval의 최소 스토리지 기간 요금이 있습니까?

S3 Glacier Instant Retrieval은 수명이 길고 액세스 빈도가 매우 낮은 데이터를 수개월 또는 수년 동안 유지하도록 설계되었습니다. S3 Glacier Instant Retrieval에 아카이브된 객체는 최소 90일간 저장되며, 90일 이전에 삭제, 덮어쓰기, 또는 전환된 객체에 대해서는 남은 기간의 스토리지 비용에 해당하는 비례 할당으로 계산된 요금이 부과됩니다. Amazon S3 Glacier Instant Retrieval 요금에 대한 자세한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: Amazon S3 Glacier Instant Retrieval의 최소 객체 크기 요금이 있습니까?

S3 Glacier Instant Retrieval은 크기가 큰 객체를 위해 설계되었으며 128KB의 최소 객체 스토리지 요금이 있습니다. 크기가 128KB보다 작은 객체에도 객체가 128KB일 때와 같은 스토리지 요금이 발생합니다. 예를 들어, S3 Glacier Instant Retrieval에 저장된 6KB의 객체에 대해 S3 Glacier Instant Retrieval 스토리지 요금으로 추가로 발생하는 122KB에 해당하는 최소 객체 크기 요금은 S3 Glacier Instant Retrieval 스토리지 요금으로 청구됩니다. Amazon S3 Glacier Instant Retrieval 요금에 대한 자세한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: S3 Glacier Instant Retrieval 요금은 어떻게 청구됩니까?

S3 Glacier Instant Retrieval에서는 데이터 검색 및 요청 유형에 따라 월별 스토리지, 요청에 대한 요금을 청구합니다. 한 달에 청구되는 스토리지 양은 한 달 내내 사용하는 평균 스토리지에 기반하여 GB-월로 측정합니다. 요청 유형(PUT, COPY, GET)을 기반으로 요청에 대한 요금이 청구됩니다. 또한 반환되는 모든 기가바이트의 데이터에 대해 GB당 요금을 지불합니다. 

Amazon S3 Glacier Flexible Retrieval 스토리지 클래스

Q: S3 Glacier Flexible Retrieval 스토리지 클래스란?

S3 Glacier Flexible Retrieval 스토리지 클래스는 연간 1~2회 액세스하고 비동기식으로 검색되는 아카이브 데이터에 대해 S3 Glacier Instant Retrieval보다 최대 10% 더 저렴한 비용으로 스토리지를 제공하며, 무료 대량 검색을 지원합니다. 즉각적인 액세스가 필요하지 않지만 백업 또는 재해 복구 사용 사례와 같이 대규모 데이터 세트를 무료로 검색할 수 있는 유연성이 필요한 아카이브 데이터의 경우 S3 Glacier Flexible Retrieval이 이상적인 스토리지 클래스입니다. S3 Glacier Flexible Retrieval은 몇 분에서 몇 시간에 이르는 다양한 액세스 시간과 무료 대량 검색을 통해 비용 균형을 유지하는 가장 유연한 검색 옵션을 제공합니다. 이는 가끔 몇 분 안에 일부 데이터를 검색해야 하고 비용에 대해 걱정하고 싶지 않은 경우, 그리고 백업, 재해 복구, 오프사이트 데이터 스토리지 요구 사항에 대해 적합한 솔루션입니다. S3 Glacier Flexible Retrieval은 특정 연도에 물리적으로 분리된 여러 AWS 가용 영역에서 데이터를 중복 저장하여 99.999999999%의 데이터 내구성과 99.99%의 가용성을 지원하도록 설계되었습니다.

Q: S3 Glacier Flexible Retrieval 스토리지 클래스를 선택해 사용해야 하는 이유는 무엇인가요?

즉각적인 액세스가 필요하지 않지만 백업 또는 재해 복구 사용 사례와 같이 대규모 데이터 세트를 무료로 검색할 수 있는 유연성이 필요한 아카이브 데이터의 경우 S3 Glacier Flexible Retrieval이 이상적인 스토리지 클래스입니다. S3 Glacier Flexible Retrieval은 몇 분에서 몇 시간에 이르는 다양한 액세스 시간과 무료 대량 검색을 통해 비용 균형을 유지하는 가장 유연한 검색 옵션을 제공합니다. 이는 가끔 몇 분 안에 일부 데이터를 검색해야 하고 데이터 검색 비용에 대해 걱정하고 싶지 않은 경우, 그리고 백업, 재해 복구, 오프사이트 데이터 스토리지 요구 사항에 대해 적합한 솔루션입니다.

Q: S3 Glacier Flexible Retrieval로 데이터를 가져오려면 어떻게 해야 합니까?

S3 Glacier Flexible Retrieval로 데이터를 가져오는 두 가지 방법이 있습니다. x-amz-storage-class 헤더에 GLACIER를 지정하여 S3 Glacier Flexible Retrieval에 데이터를 직접 넣을 수 있습니다. 또한, S3 수명 주기 규칙을 사용하여 활성 데이터를 위한 모든 S3 스토리지 클래스(S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval)에서 객체 연령을 기준으로 Amazon S3 Glacier Flexible Retrieval로 객체를 전환할 수 있습니다. Amazon S3 관리 콘솔, AWS SDK 또는 Amazon S3 API를 사용하여 Amazon S3 Glacier에 직접 넣거나 아카이브 규칙을 정의합니다.

참고: S3 Glacier Flexible Retrieval은 원래 직접 Glacier API와 Amazon S3 Glacier 관리 콘솔을 통해서도 사용할 수 있습니다. 수명 주기 관리, S3 복제, S3 스토리지 렌즈 등을 포함한 전체 S3 기능 세트를 보다 잘 활용하려면 S3 API 및 S3 관리 콘솔을 사용하여 S3 Glacier 기능을 사용하는 것이 좋습니다.

Q: S3 Glacier Flexible Retrieval에 아카이브된 내 객체를 검색하려면 어떻게 해야 하며, 객체가 복원될 때 알림을 받습니까?

S3 Glacier Flexible Retrieval에 아카이브된 객체는 비동기로 액세스됩니다. S3 Glacier Flexible Retrieval에 저장된 데이터를 검색하려면 Amazon S3 API 또는 Amazon S3 콘솔을 사용하여 검색 요청을 시작합니다. 검색 요청은 아카이브된 데이터를 S3 Glacier Flexible Retrieval에 그대로 두고 데이터의 임시 사본을 S3 Standard 스토리지 클래스에서 생성합니다. Amazon S3에 임시 복사본을 저장할 기간(일)을 지정할 수 있습니다. 그런 다음, 아카이빙된 객체에 대한 Amazon S3 GET 요청을 통해 S3의 임시 복사본에 액세스할 수 있습니다. Reduced Redundancy Storage 요금이 S3 Standard 요금보다 낮은 AWS 리전에서 임시로 사용 가능한 데이터는 Reduced Redundancy Storage 요금으로 청구됩니다. 하지만 Reduced Redundancy Storage 청구 스토리지 클래스에 데이터 저장 방식은 반영되지 않습니다.

복원 알림 기능으로 객체가 S3 Glacier Flexible Retrieval에서 성공적으로 복원되고 임시 복사본이 사용 가능하게 될 때 S3 이벤트 알림을 받을 수 있습니다. 버킷 소유자(또는 IAM 정책에서 허용되는 경우 다른 사람)는 Amazon Simple Queue Service(SQS) 또는 Amazon Simple Notification Service(SNS)로 알림을 실행하도록 설정할 수 있습니다. Lambda 함수를 통해 처리하기 위해 AWS Lambda로 알림을 전송할 수도 있습니다.

Q: Amazon S3 Glacier Flexible Retrieval에 아카이브된 객체를 복원하는 데 시간이 얼마나 걸립니까?

검색 작업을 처리할 때 Amazon S3는 요청된 데이터를 S3 Glacier Flexible Retrieval에서 먼저 검색한 다음, 요청된 데이터의 임시 사본을 Amazon S3에 생성합니다. 이 과정은 일반적으로 몇 분이 소요됩니다. 요청에 걸리는 액세스 시간은 선택한 검색 옵션(긴급, 표준 또는 대량 검색)에 따라 다릅니다. 긴급 검색을 사용하면 가장 큰 객체(250MB 이상)를 제외하고 모든 아카이브에서 보통 1~ 5분 이내에 데이터에 액세스할 수 있습니다. 표준 검색을 사용해 객체를 검색하면 보통 완료하는 데 3~5시간이 걸립니다. 표준 검색은 S3 배치 작업을 사용하여 시작될 때 일반적으로 몇 분 안에 시작됩니다. 대량 검색은 보통 5~12시간 이내에 완료되며, 무료입니다. S3 Glacier Flexible Retrieval 검색 옵션에 대한 자세한 내용은 S3 사용 설명서에서 아카이브된 객체 복원을 참조하세요.

S3 Glacier 스토리지 클래스 프로비저닝 용량 단위를 사용하면 특정 월에 대해 고정 선불 요금을 지불하여 S3 Glacier Flexible Retrieval에서 신속하게 검색할 수 있는 검색 용량을 확보할 수 있습니다. 월별로 프로비저닝 용량 단위를 2개 구입하여 검색 가능한 데이터 양을 늘릴 수 있습니다. 각 용량 단위로 최소 3건의 긴급 검색을 5분 간격으로 수행할 수 있으며, 최대 150MB/초의 검색 처리량을 제공합니다. 워크로드가 데이터 하위 집합에 대해 매우 안정적이고 예측 가능한 액세스를 몇 분 만에 완료해야 하는 경우 프로비저닝된 검색 용량을 구입해야 합니다. 프로비저닝된 용량이 없으면 수요가 많은 기간에 신속한 검색이 허용되지 않을 수 있습니다. 신속한 검색 액세스 권한이 필요한 모든 상황에서 프로비저닝된 검색 용량을 구입하는 것이 좋습니다.

프로비저닝된 용량은 Amazon S3 콘솔, 프로비저닝된 용량 구매 REST API, AWS SDK 또는 AWS CLI를 사용하여 구입할 수 있습니다. 프로비저닝된 용량 단위는 구입 날짜 및 시간을 기점으로 한 달 동안 지속됩니다. 단위는 시작 날짜로부터 정확히 한 달 후, 가장 가까운 초까지인 만료일에 만료됩니다. 프로비저닝된 용량 요금 정보는 Amazon S3 요금을 참조하세요.

Q: S3 Glacier Flexible Retrieval에 아카이브된 Amazon S3 객체에 대한 스토리지 요금은 어떻게 계산됩니까?

한 달에 청구되는 스토리지 양은 한 달 내내 사용하는 평균 스토리지를 기준해서 GB-월로 측정합니다. Amazon S3는 저장한 데이터 양에 추가 32KB의 S3 Glacier 데이터를 더하고 8KB의 Amazon S3 Standard 스토리지 클래스 데이터를 더하여 객체 크기를 계산합니다. S3 Glacier Flexible Retrieval에서는 데이터를 식별하고 검색할 수 있도록 S3 Glacier의 인덱스와 메타데이터에 객체당 추가 32KB의 데이터가 필요합니다. Amazon S3에서는 S3 Glacier Flexible Retrieval에 아카이브된 객체에 대한 사용자 정의 이름 및 메타데이터를 저장하고 유지 관리하는 데 8KB가 필요합니다. 그러면 Amazon S3 LIST API 또는 S3 Inventory 보고서를 사용하여 모든 Amazon S3 객체(S3 Glacier Flexible Retrieval 스토리지 클래스를 사용하여 저장된 객체도 포함)의 실시간 목록을 가져올 수 있습니다.

예를 들어, 각각 1GB인 객체 100,000개를 아카이브한 경우 청구 대상 스토리지는 다음과 같습니다.
각 객체당 1.000032GB x 객체 100,000개 = 100,003.2GB의 S3 Glacier 스토리지.
각 객체당 0.000008GB x 객체 100,000개 = 0.8GB의 S3 Standard 스토리지.

요금은 Amazon S3 요금 페이지에 명시된 고객 AWS 리전의 현재 요금을 기준으로 계산됩니다. 추가적인 Amazon S3 요금 예제를 확인하려면 S3 결제 FAQ로 이동하거나 AWS 요금 계산기를 사용합니다.

Q: Amazon S3 Glacier Flexible Retrieval에 대한 최소 스토리지 기간 및 최소 객체 스토리지 요금이 있나요?

S3 Glacier Flexible Retrieval에 아카이빙된 객체의 최소 스토리지 기간은 90일입니다. 90일 전에 삭제되거나, 덮어쓰거나, 이전된 객체에 대해서는 남은 기간의 스토리지 비용과 동일한 요금이 비례 배분되어 적용됩니다.

또한 S3 Glacier Flexible Retrieval을 사용하려면 아카이빙된 각 객체에 40KB의 추가 메타데이터가 필요합니다. 여기에는 데이터 식별 및 검색에 필요한 32KB의 메타데이터가 포함되며 S3 Glacier Flexible Retrieval 요금이 적용됩니다. 추가 8KB 데이터에는 S3 Standard 요금이 적용되며 S3 Glacier Flexible Retrieval로 아카이빙된 객체의 사용자 정의 이름 및 메타데이터를 유지하는 데 필요합니다. 이를 통해 S3 LIST API 또는 S3 Inventory 보고서를 사용하여 모든 S3 객체의 실시간 목록을 확인할 수 있습니다. Amazon S3 Glacier Flexible Retrieval 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: Amazon S3 Glacier Flexible Retrieval에서 데이터를 검색하는 데 비용이 얼마나 듭니까?

S3 Glacier Flexible Retrieval에서 데이터를 검색하는 방법은 긴급 검색, 표준 검색, 대량 검색의 3가지가 있습니다. 긴급 및 표준 검색에는 GB당 검색 요금 및 요청당 요금이 있습니다(즉, Amazon S3 객체에 대한 요청을 기준으로 요금 지불). S3 Glacier Flexible Retrieval에서 대량 검색은 무료입니다. AWS 리전별 S3 Glacier 상세 요금은 Amazon S3 요금 페이지를 참조하세요.

Q: Amazon S3는 더 저렴한 비용의 스토리지 클래스에 객체를 아카이브할 수 있는 기능을 제공합니까?

Amazon S3 Glacier 스토리지 클래스는 데이터 아카이브를 위해 특별히 제작되어 클라우드에서 최고의 성능, 최고의 검색 유연성, 최저 비용의 아카이브 스토리지를 제공합니다. 이제 다양한 액세스 패턴과 스토리지 기간에 최적화된 세 가지 아카이브 스토리지 클래스 중에서 선택할 수 있습니다. 즉각적인 액세스가 필요한 아카이브 데이터(예: 의료 이미지, 뉴스 미디어 자산 또는 유전체학 데이터)의 경우 밀리초 단위의 검색 시간에서 가장 저렴한 비용의 스토리지를 제공하는 아카이브 스토리지 클래스인 S3 Glacier Instant Retrieval를 선택하세요. 즉각적인 액세스가 필요하지 않지만 비용을 들이지 않고 대규모 데이터 세트를 유연하게 검색해야 하는 아카이브 데이터(예: 백업 또는 재해 복구 사용 사례)의 경우 5~12시간의 무료 대량 검색 또는 몇 분 내 검색을 지원하는 S3 Glacier Flexible Retrieval을 선택하세요. 규정 준수 아카이브 및 디지털 미디어 보존과 같은 장기 아카이브 스토리지에서 더 많은 비용을 절감하려면 12시간 내의 데이터 검색 시간을 지원하며 클라우드에서 가장 저렴한 스토리지 비용을 제공하는 S3 Glacier Deep Archive를 선택하세요.

Q: S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive 스토리지 클래스를 지원하는 백엔드 인프라는 무엇입니까?

AWS는 성능, 안정성, 가용성 및 보안의 고객 성과에 중점을 둡니다. 하지만 많은 고객들이 이와 관련한 질문을 주고 계십니다. AWS에서는 서로 다른 여러 기술을 활용하여 고객에게 제공되는 서비스의 가격을 책정합니다. AWS의 서비스는 일반적인 여러 데이터 스토리지 기술을 활용하여 구축되는데, 이러한 기술은 AWS에서 개발한 소프트웨어를 통해 특별히 구축되고 비용이 최적화된 시스템에 전문적으로 구성되어 있습니다. S3 Glacier 스토리지 클래스는 입력 및 출력 시퀀스를 최적화하여 기본 스토리지 액세스 효율을 극대화하는 기능을 활용합니다.

Amazon S3 Glacier Deep Archive

Q: Amazon S3 Glacier Deep Archive 스토리지 클래스란 무엇입니까?

S3 Glacier Deep Archive는 1년에 한두 번 정도 액세스하는 데이터의 장기 보존을 위한 안전하고 안정적인 객체 스토리지를 제공하는 Amazon S3 스토리지 클래스입니다. S3 Glacier Deep Archive는 온프레미스 마그네틱 테이프 라이브러리에서 데이터를 저장 및 유지 관리하거나 오프사이트에서 데이터를 아카이브하는 것보다 대폭 저렴한 가격으로 GB-월당 0.00099 USD(1센트의 1/10 또는 TB당 약 1 USD 미만)로 클라우드에서 업계 최저 비용의 스토리지를 제공합니다.

Q: S3 Glacier Deep Archive 스토리지 클래스에 가장 적합한 사용 사례는 무엇입니까?

S3 Glacier Deep Archive는 회사의 중요한 데이터 자산을 오프라인에서 보호해야 하는 경우 또는 회사 정책, 계약 또는 규정 준수 요건에 따라 데이터를 장기적으로 보존해야 하는 경우에 적합한 스토리지 클래스입니다. 금융 서비스, 의료, 오일 및 가스, 공공 부문처럼 규제가 엄격한 산업에서 종사하는 고객은 S3 Glacier Deep Archive를 활용하여 중요한 지적 재산, 금융 및 의료 기록, 연구 결과, 법률 문서, 지진 탐사 연구 및 장기 백업을 효과적으로 보호할 수 있습니다. 또한, 미디어 및 엔터테인먼트 회사처럼 중요한 지적 재산의 백업 복사본을 유지하려는 조직도 있습니다. S3 Glacier Deep Archive를 사용하는 고객은 온프레미스 마그네틱 테이프 라이브러리 및 오프프레미스 테이프 아카이브 서비스의 이용을 줄이거나 이용하지 않게 되는 경우가 많습니다.

Q: S3 Glacier Deep Archive 스토리지 클래스는 S3 Glacier Instant Retrieval 및 S3 Glacier Flexible Retrieval 스토리지 클래스와 어떻게 다릅니까?

S3 Glacier Deep Archive는 AWS의 데이터 아카이빙 제공 범위를 확장하여 스토리지와 검색 비용, 그리고 검색 시간을 기준으로 최적의 스토리지 클래스를 선택할 수 있도록 합니다. 저렴한 비용의 아카이브 데이터에 밀리초 단위로 액세스해야 하는 경우 S3 Glacier Instant Retrieval 스토리지 클래스를 선택합니다. 즉각적인 액세스가 필요하지 않지만 비용을 들이지 않고 대규모 데이터 세트를 유연하게 검색해야 하는 아카이브 데이터(예: 백업 또는 재해 복구 사용 사례)의 경우 5~12시간의 무료 대량 검색 또는 몇 분 내 검색을 지원하는 S3 Glacier Flexible Retrieval을 선택하세요. 이와 반대로, S3 Glacier Deep Archive는 액세스할 가능성은 매우 낮지만 여전히 오랫동안 안정적으로 저장해야 하는, 사용 빈도가 낮은 데이터를 위해 설계되었습니다. S3 Glacier Deep Archive는 S3 Glacier Flexible Retrieval보다 최대 75%가 저렴하며 표준 검색 티어 사용 시 12시간 이내에 검색 결과를 제공합니다. 표준 검색은 S3 배치 작업을 사용하여 시작될 때 일반적으로 9시간 안에 시작됩니다. 48시간 이내에 데이터를 반환하는 대량 검색을 사용하여 검색 비용을 줄일 수도 있습니다.

Q: S3 Glacier Deep Archive를 시작하려면 어떻게 해야 합니까?

S3 Glacier Deep Archive에 데이터를 저장하는 가장 쉬운 방법은 데이터를 직접 업로드하기 위하여 S3 API를 사용하는 것입니다. 스토리지 클래스로 “S3 Glacier Deep Archive”를 지정하기만 하면 됩니다. 이렇게 하려면 AWS Management Console, S3 REST API, AWS SDK 또는 AWS 명령줄 인터페이스(CLI)를 사용하면 됩니다.

또한 객체의 수명 주기를 정의하고 스토리지 비용을 줄일 수 있는 S3 수명 주기를 사용하여 데이터를 마이그레이션하는 정책을 생성함으로써 S3 Glacier Deep Archive를 시작할 수도 있습니다. 이러한 정책은 객체의 사용 기간에 따라 객체를 S3 Glacier Deep Archive로 마이그레이션하도록 설정할 수 있습니다. S3 버킷이나 특정 접두사에 대한 정책을 설정할 수 있습니다. 수명 주기 전환에 대해서는 S3 Glacier Deep Archive 업로드 요금으로 비용이 청구됩니다.

AWS Storage Gateway의 클라우드 기반 가상 테이프 라이브러리 기능인 테이프 게이트웨이가 이제 S3 Glacier Deep Archive에 통합되어 가상 테이프 기반 장기 백업 및 아카이브를 S3 Glacier Deep Archive에 저장할 수 있으며, 그에 따라 클라우드에서 이러한 데이터를 업계 최저 비용으로 저장할 수 있게 되었습니다. 시작하려면 AWS Storage Gateway Console 또는 API를 이용해 새 가상 테이프를 만들고 아카이브 스토리지 대상을 S3 Glacier Flexible Retrieval 또는 S3 Glacier Deep Archive로 설정합니다. 백업 애플리케이션이 테이프를 꺼내면 사용자가 선택한 스토리지 대상으로 테이프가 아카이브됩니다.

Q: 기존 테이프 아카이브에서 S3 Glacier Deep Archive로 데이터를 마이그레이션할 때는 어떤 방법이 권장됩니까?

기존 테이프 아카이브에서 S3 Glacier Deep Archive로 데이터를 마이그레이션하는 방법에는 여러 가지가 있습니다. 먼저, AWS 테이프 라이브러리를 사용하여 가상 테이프 라이브러리(VTL) 인터페이스를 통해 기존 백업 애플리케이션과 통합할 수 있습니다. 이 인터페이스는 백업 애플리케이션에 가상 테이프를 제공합니다. 이러한 가상 테이프를 사용하여 Amazon S3, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive에서 데이터를 즉시 저장할 수 있습니다.

AWS Snowball을 사용하여 데이터를 마이그레이션할 수도 있습니다. Snowball은 안전한 전송을 위해 설계된 물리적 스토리지 디바이스를 사용하여 AWS에서 송수신되는 테라바이트에서 페타바이트 규모의 데이터를 더 빨리 전송할 수 있도록 합니다. Snowball을 사용하면 높은 네트워크 비용, 오랜 전송 시간, 보안 문제 등 대규모 데이터 전송 시 발생할 수 있는 문제를 없앨 수 있습니다.

마지막으로, AWS Direct Connect를 사용하여 온프레미스에서 AWS로의 전용 네트워크 연결을 설정할 수 있습니다. Direct Connect를 활용하면 많은 상황에서 네트워크 비용을 줄이고 대역폭 처리량을 늘리는 것은 물론, 인터넷 기반 연결보다 일관된 네트워크 환경을 구현할 수 있습니다.

Q: S3 Glacier Deep Archive에 저장된 객체를 검색하려면 어떻게 해야 합니까?

S3 Glacier Deep Archive에 저장된 데이터를 검색하려면 Amazon S3 API 또는 Amazon S3 관리 콘솔을 사용하여 "복원" 요청을 시작합니다. 복원은 S3 Standard 스토리지 클래스에 데이터의 임시 사본을 생성하고 S3 Glacier Deep Archive에 아카이브된 데이터를 그대로 유지합니다. S3에 임시 복사본을 저장할 기간(일수)을 지정할 수 있습니다. 그런 다음, 아카이빙된 객체에 대한 Amazon S3 GET 요청을 통해 S3의 임시 복사본에 액세스할 수 있습니다.

아카이빙된 객체를 복원할 때 요청 본문의 Tier 요소에서 다음 옵션 중 하나를 지정할 수 있습니다. Standard는 기본 티어로, 아카이빙된 객체에 12시간 이내에 액세스할 수 있으며, S3 배치 작업을 사용하여 시작될 경우 일반적으로 9시간 이내에 검색이 시작됩니다. Bulk는 페타바이트 규모의 데이터 같은 대용량 데이터도 저렴하게 검색할 수 있으며 일반적으로 48시간 이내에 검색이 완료됩니다.

Q: S3 Glacier Deep Archive의 사용 요금은 어떻게 청구되나요?

S3 Glacier Deep Archive 스토리지 요금은 저장한 데이터의 양(GB), 수명 주기 전환 요청당 PUT 수, 검색량(GB), 복원 요청 수를 기준으로 부과됩니다. 이 요금 모델은 S3 Glacier Flexible Retrieval과 비슷합니다. S3 Glacier Deep Archive 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: S3 Glacier Deep Archive 사용량이 AWS 청구서와 AWS 비용 관리 도구에 표시되도록 하려면 어떻게 해야 하나요?

S3 Glacier Deep Archive 사용량 및 비용은 월별 AWS 청구서에서 Amazon S3 사용량 및 비용과는 별개의 독립된 서비스 항목으로 표시됩니다. 하지만 AWS 비용 관리 도구를 사용하는 경우 S3 Glacier Deep Archive 사용량 및 비용은 월별 세부 사용 보고서의 Amazon S3 사용 및 비용에 포함되며 별도의 서비스 항목으로 분리되지 않습니다.

Q: S3 Glacier Deep Archive에 대한 최소 스토리지 기간 및 최소 객체 스토리지 요금이 있나요?

S3 Glacier 딥 아카이브에 아카이빙된 객체의 최소 스토리지 기간은 180일입니다. 180일 전에 삭제되거나, 덮어쓰거나, 이전된 객체에 대해서는 남은 기간의 스토리지 비용과 동일한 요금이 비례 배분되어 적용됩니다.

또한 S3 Glacier Deep Archive를 사용하려면 아카이빙된 각 객체에 40KB의 추가 메타데이터가 필요합니다. 여기에는 데이터 식별 및 검색에 필요한 32KB의 메타데이터가 포함되며 S3 Glacier Deep Archive 요금이 적용됩니다. 추가 8KB 데이터에는 S3 Standard 요금이 적용되며 S3 Glacier Deep Archive로 아카이빙된 객체의 사용자 정의 이름 및 메타데이터를 유지하는 데 필요합니다. 이를 통해 S3 LIST API 또는 S3 Inventory 보고서를 사용하여 모든 S3 객체의 실시간 목록을 확인할 수 있습니다. S3 Glacier Deep Archive 요금에 대한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: S3 Glacier Deep Archive는 다른 AWS 서비스와 어떤 식으로 통합되나요?

S3 Glacier Deep Archive는 S3 객체 태깅, S3 수명 주기 정책, S3 객체 잠금 및 S3 복제를 포함한 Amazon S3 기능과 통합됩니다. S3 스토리지 관리 기능을 활용하면 단일 Amazon S3 버킷으로 S3 Glacier Deep Archive, S3 Standard, S3 Standard-IA, S3 One Zone-IA 및 S3 Glacier Flexible Retrieval 데이터를 혼합하여 저장할 수 있습니다. 이를 통해 스토리지 관리자는 데이터 및 데이터 액세스 패턴의 특성에 따라 의사 결정을 내릴 수 있습니다. 고객은 Amazon S3 수명 주기 정책을 사용하여 사용 기간이 오래된 데이터를 더 저렴한 스토리지 클래스로 자동으로 마이그레이션할 수도 있고, S3 교차 리전 복제 또는 동일 리전 복제 정책을 사용하여 데이터를 동일 또는 다른 리전에 복제할 수도 있습니다.

AWS Storage Gateway 서비스는 테이프 게이트웨이와 S3 Glacier Deep Archive 스토리지 클래스를 통합합니다. 따라서 사용자는 이를 통해 가장 저렴한 Amazon S3 스토리지 클래스에 가상 테이프를 저장할 수 있으므로 클라우드에 장기 데이터를 저장하는 데 들어가는 월 비용을 최대 75% 절약할 수 있습니다. 이 기능으로 테이프 게이트웨이는 새로운 가상 테이프를 S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive로 바로 아카이브하므로 사용자의 백업과 아카이브 및 복원 요건을 충족할 수 있습니다. 테이프 게이트웨이는 기존의 백업 워크플로를 변경하지 않고 테이프 기반의 백업을 AWS로 이동하도록 지원합니다. 테이프 게이트웨이는 Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect(Windows OS), Microsoft Data Protection Manager와 같은 대부분의 주요 백업 애플리케이션을 지원합니다.

S3 on Outposts

Q: Amazon S3 on Outposts는 무엇인가요?

Amazon S3 on Outposts는 S3 API와 현재 AWS에서 사용하는 기능을 통해 온프레미스 환경에 객체 스토리지를 제공합니다. AWS Outposts는 AWS 인프라, AWS 서비스, API 및 도구를 사실상 모든 데이터 센터, 콜로케이션 공간, 온프레미스 시설로 확장하는 완전관리형 서비스입니다. S3 on Outposts를 사용하면 온프레미스에서 생성된 고객 데이터를 AWS 리전으로 옮기기 전에 안전하게 처리 및 저장하거나, 온프레미스에서 실행되는 애플리케이션에 대해 로컬로 데이터에 액세스하거나, 데이터 레지던시 요구 사항이 적용되는 위치에 있는 기업 또는 규제받는 산업의 기업을 위해 사용자의 Outpost에 데이터를 저장할 수 있습니다. S3 on Outposts에 대한 자세한 내용은 개요 페이지를 참조하세요.
 

스토리지 관리

S3 객체 태그

Q: S3 객체 태그란 무엇입니까?

S3 객체 태그는 S3 객체에 적용되는 키 값 페어로, 객체의 수명 주기 동안 언제든 이를 생성, 업데이트 또는 삭제할 수 있습니다. Amazon S3 on Outposts를 사용하면 Identity and Access Management(IAM) 정책을 생성하고, S3 수명 주기 정책을 설정하며, 스토리지 지표를 사용자 지정할 수 있습니다. 이러한 객체 수준의 태그는 스토리지 클래스 간 전환을 관리하고 백그라운드에 있는 객체를 만료시킬 수 있습니다. 새로운 객체를 업로드할 때 태그를 추가하거나 기존 객체에 태그를 추가할 수 있습니다. S3 객체당 최대 10개의 태그를 추가할 수 있고 AWS 관리 콘솔, REST API, AWS CLI 또는 AWS SDK를 사용하여 객체 태그를 추가할 수 있습니다. 

자세한 내용은 S3 객체 태그 사용 설명서를 참조하세요.

Q: 객체 태그를 사용해야 하는 이유는 무엇입니까?

객체 태그는 S3 스토리지를 간편하게 관리하는 데 사용할 수 있는 도구입니다. 객체의 수명 주기 동안 언제든 태그를 생성, 업데이트 및 삭제할 수 있는 기능을 통해 비즈니스 요구 사항에 맞게 대응하는 스토리지를 만들 수 있습니다. 이러한 태그를 사용하면 특정 키-값 페어가 태그로 지정된 객체에 대한 액세스를 제어할 수 있으므로 선택된 그룹 또는 사용자만 액세스하도록 기밀 데이터에 대한 보안을 강화할 수 있습니다. 특정 프로젝트나 사업부에 속하는 객체에 레이블을 지정할 때도 객체 태그를 사용할 수 있습니다. S3 수명 주기 정책과 함께 이 태그를 사용하여 다른 스토리지 클래스(S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive)로 전환을 관리하거나, S3 복제와 함께 사용하여 AWS 리전 간에 데이터를 선택적으로 복사할 수 있습니다.

Q: 내 객체의 객체 태그를 업데이트하려면 어떻게 해야 합니까?

객체 태그는 S3 객체의 수명 주기 동안 언제든 변경할 수 있습니다. AWS Management Console, REST API, AWS CLI 또는 AWS SDK를 사용하여 객체 태그를 변경할 수 있습니다. AWS Management Console 외에 다른 방법으로 태그를 변경하는 경우 모든 변경 사항이 전체 태그 집합에 적용됩니다. 5개의 태그가 연결되어 있는 특정 객체에 6번째 태그를 추가하려는 경우 해당 요청에 원래 5개의 태그를 포함해야 합니다.

Q: 객체 태그의 비용은 어떻게 됩니까?

객체 태그 요금은 태그 수와 태그 추가를 위한 요청 비용을 기준으로 책정됩니다. 객체 태그 추가 및 업데이트와 관련된 요청의 요금은 기존 요청 요금과 동일합니다. 자세한 내용은 Amazon S3 요금 페이지를 참조하세요.

Q: 스토리지 클래스 분석을 시작하려면 어떻게 해야 하나요?

AWS Management Console 또는 S3 PUT Bucket Analytics API를 사용하여 S3 Standard-IA 또는 S3 One Zone-IA 스토리지 클래스로 전환하거나 Amazon S3 Glacier 스토리지 클래스로 아카이브할 수 있는 자주 액세스하지 않는 스토리지를 식별하도록 스토리지 클래스 분석 정책을 구성할 수 있습니다. S3 콘솔의 ‘관리’ 탭으로 이동하여 스토리지 클래스 분석, S3 인벤토리 및 S3 CloudWatch 지표를 관리할 수 있습니다.

S3 인벤토리

Q: S3 Inventory란 무엇입니까?

S3 Inventory 보고서는 Amazon S3의 동기식 List API에 대한 예약된 대안을 제공합니다. 일 또는 주 단위로 S3 버킷이나 접두사에 대한 객체 및 해당 메타데이터를 CSV, ORC 또는 Parquet 파일 출력으로 제공하도록 S3 Inventory를 구성할 수 있습니다. S3 Inventory를 통해 비즈니스 워크플로와 빅 데이터 작업을 간소화 및 가속화할 수 있습니다. S3 인벤토리를 사용해 객체의 암호화 및 복제 상태를 확인함으로써 비즈니스, 규정 준수 및 규제 요구 사항을 충족할 수 있습니다. 자세한 내용은 Amazon S3 인벤토리 사용 설명서를 참조하세요.

Q: S3 인벤토리를 시작하려면 어떻게 해야 합니까?

AWS 관리 콘솔 또는 PUT 버킷 인벤토리 구성 API를 사용하여 S3 버킷 내 모든 객체 또는 공유된 접두사에 해당하는 객체의 하위 집합에 대한 인벤토리 보고서를 일 또는 주 단위로 구성할 수 있습니다. 구성을 진행하면서 S3 인벤토리 보고서의 대상 S3 버킷, 출력 파일 형식(CSV, ORC, Parquet 등), 비즈니스 애플리케이션에 필요한 특정 객체 메타데이터(객체 이름, 크기, 최종 수정일, 스토리지 클래스, 버전 ID, 삭제 마커, 최신이 아닌 버전 플래그, 멀티파트 업로드 플래그, 복제 상태, 암호화 상태 등)를 지정할 수 있습니다. S3 인벤토리를 애플리케이션 워크플로 또는 빅 데이터 작업에 대한 직접 입력값으로 사용할 수 있습니다. 또한, Amazon Athena, Amazon Redshift Spectrum 및 기타 도구(Presto, Hive, Spark 등)에서 표준 SQL 언어를 사용하여 S3 인벤토리를 쿼리할 수도 있습니다.

자세한 내용은 Amazon S3 인벤토리 사용 설명서를 참조하세요.

Q: S3 인벤토리 사용 요금은 어떻게 청구되나요?

S3 Inventory 요금은 Amazon S3 요금 페이지를 참조하세요. SSE-KMS를 사용한 암호화를 구성하면, 암호화에 대해 KMS 요금이 발생합니다. 세부 정보는 KMS 요금 페이지를 참조하세요.

S3 배치 작업

Q: S3 배치 작업이란 무엇입니까?

S3 배치 작업은 많은 객체에서 단일 작업의 실행(객체 복사 또는 AWS Lambda 함수 실행 등)을 자동화하려는 경우 사용할 수 있는 기능입니다. S3 배치 작업을 사용하면 사용자 지정 애플리케이션 코드를 작성하거나 스토리지 관리 애플리케이션을 위해 컴퓨팅 클러스터를 실행할 필요 없이 S3 콘솔 또는 단일 API 요청에서 몇 번의 클릭으로 수십억 개의 객체를 변경할 수 있습니다. S3 배치 작업 관리자는 많은 객체에서 스토리지 작업을 관리할 뿐 아니라, S3 배치 작업에서는 재시도 관리, 진행 상황 표시, 알림 전달, 완료 보고서 제공, 대상 객체에서 수행되는 모든 작업에 대해 AWS CloudTrail에 이벤트 전송 등도 수행합니다. S3 배치 작업은 S3 콘솔에서 또는 AWS CLI 및 SDK에서 사용할 수 있습니다. 

자세한 내용은 S3 배치 작업 페이지 또는 사용 설명서를 참조하세요.

Q: S3 배치 작업을 시작하려면 어떻게 해야 합니까?

Amazon S3 콘솔로 이동하거나 AWS CLI 또는 SDK를 사용하여 첫 번째 S3 배치 작업을 생성하면 S3 배치 작업을 시작할 수 있습니다. S3 배치 작업은 작업할 객체 목록과 수행할 작업 유형으로 구성됩니다(사용 가능한 전체 작업 목록 참조). 먼저, S3 인벤토리 보고서를 선택하거나 작업할 S3 배치 작업에 대한 고유의 사용자 지정 대상 목록을 제공합니다. S3 인벤토리 보고서는 S3 버킷에 저장된 모든 객체 또는 접두사가 나열된 파일입니다. 다음에는 태그 세트 교체, ACL 변경, 한 버킷에서 다른 버킷으로 스토리지 복사, S3 Glacier Flexible Retrieval에서 S3 Standard 스토리지 클래스로 복원 시작 등과 같이 S3 배치 작업에서 지원되는 S3 작업 세트 중에 선택합니다. 그런 다음, 태그 값, ACL 피부여자, 복원 기간 등과 같은 특정 파라미터로 S3 배치 작업을 사용자 지정할 수 있습니다. 스토리지 작업을 한층 더 사용자 지정하려면 Lambda 함수를 직접 작성하고 S3 배치 작업과 함께 해당 코드를 호출할 수 있습니다.

S3 배치 작업을 생성하면 S3 배치 작업에서 객체 목록을 처리하고 필요한 경우 해당 작업을 “확인을 기다리는 중” 상태로 전송할 수 있습니다. 작업 세부 정보를 확인하면 S3 배치 작업은 사용자가 지정한 작업을 실행하기 시작합니다. 프로그래밍 방식으로 또는 S3 콘솔을 통해 작업 진행 상황을 보고, 완료 시 알림을 수신하며, 스토리지에 대해 변경된 사항을 항목별로 정리하는 완료 보고서를 검토할 수 있습니다.

S3 배치 작업에 대해 더 알고 싶다면 자습서 동영상을 시청하고 관련 설명서를 참조하세요.

Q: 금융 서비스 규제를 기반으로 평가된 AWS 전자 스토리지 서비스는 무엇입니까?

S3 객체 잠금은 금융 서비스 산업의 고객을 위해 SEC Rule 17a-4(f), FINRA Rule 4511 또는 CFTC Regulation 1.31의 규제 요건을 충족하기 위해 삭제가 불가능하고 다시 쓰기가 불가능한 형식으로 기록을 보존해야 하는 증권 중개인에게 추가 지원을 제공합니다. 따라서 필요한 기간 동안 원래 형식으로 규제 아카이브를 보관하도록 기록 보관 시간대를 손쉽게 지정하는 것은 물론이고, 보유 기록이 제거될 때까지 데이터가 무기한으로 보관하도록 법적 보유 기간을 둘 수 있습니다.

Q: 담당 규제 기관에 통지하는 것과 관련된 SEC 17a-4(f)(2)(i) 및 CFTC 1.31(c) 요구 사항을 지원하는 AWS 설명서는 무엇입니까?

담당 규제 기관 또는 선택한 "지정 평가 기관(DEA)"에 Cohasset Assessment 사본과 함께 Amazon S3를 전자 스토리지로 사용한다는 알림을 제공하십시오. 이러한 요구 사항에 대해서는 AWS는 지정된 타사(D3P)가 아닙니다. D3P를 선택하고 해당 정보를 DEA에 제출하는 통지서에 추가하시기 바랍니다.

S3 CloudWatch 지표

Q: S3 CloudWatch 지표를 시작하려면 어떻게 해야 하나요? 

AWS 관리 콘솔을 사용하여 S3 버킷에 대한 1분 CloudWatch 요청 지표 생성을 활성화하거나 접두사, 객체 태그 또는 액세스 포인트를 사용하여 지표에 대한 필터를 구성할 수 있습니다. 또는 S3 PUT Bucket Metrics API를 호출하여 S3 스토리지 지표 게시를 활성화하고 구성할 수 있습니다. CloudWatch 요청 지표는 활성화된 후 15분 이내에 CloudWatch에서 사용할 수 있습니다. CloudWatch 스토리지 지표는 모든 버킷에 대해 기본적으로 활성화되어 있으며 하루에 한 번 보고됩니다. 자세한 내용은 Amazon S3용 CloudWatch 지표를 참조하세요.

Q: 내 스토리지 지표에 설정할 수 있는 경보에는 어떤 것이 있습니까?

CloudWatch를 사용하여 스토리지 지표 수, 타이머 또는 비율에 대한 임계값을 설정하고 임계값이 초과되면 작업을 트리거하도록 할 수 있습니다. 예를 들어 4xx 오류 응답의 백분율에 대한 임계값을 설정하고 최소한 3개의 데이터 요소가 임계값을 초과하면 CloudWatch 경보를 트리거하여 DevOps 엔지니어에게 알리도록 할 수 있습니다.

Q: S3 CloudWatch 지표의 사용 요금은 어떻게 청구됩니까? 

CloudWatch 스토리지 지표는 무료로 제공됩니다. CloudWatch 요청 지표는 Amazon CloudWatch에 대한 사용자 지정 지표로 요금이 부과됩니다. S3 CloudWatch 지표 요금에 대한 일반 정보는 Amazon CloudWatch 요금 페이지를 참조하세요.

S3 수명 주기 관리

Q: S3 수명 주기 관리란 무엇입니까?

S3 수명 주기 관리는 미리 정의된 정책으로 객체의 수명 주기를 정의하여 스토리지 비용을 절감할 수 있는 기능을 제공합니다. 수명 주기 전환 정책을 설정하여 S3 Standard 스토리지 클래스에 저장된 객체를 데이터 사용 기간에 따라 자동으로 S3 Standard-IA, S3 One Zone-IA 및/또는 S3 Glacier 스토리지 클래스로 마이그레이션할 수 있습니다. 또한, 객체 사용 기간에 따라 객체가 자동으로 삭제되도록 수명 주기 만료 정책을 설정할 수도 있습니다. 멀티파트 업로드 만료에 대한 정책을 설정할 수 있습니다. 이 정책에서는 업로드 수명에 따라 미완료 멀티파트 업로드를 만료합니다.

자세한 내용은 S3 수명 주기 사용 설명서를 참조하세요.

Q: S3 수명 주기 관리 정책을 설정하려면 어떻게 해야 합니까?

AWS Management Console, S3 REST API, AWS SDK 또는 AWS 명령줄 인터페이스(CLI)를 사용하여 수명 주기 정책을 설정 및 관리할 수 있습니다. 접두사 또는 버킷 수준에서 정책을 지정할 수 있습니다.

Q: Amazon S3의 수명 주기 정책을 사용하여 Amazon S3 스토리지 비용을 절감하려면 어떻게 해야 합니까?

Amazon S3 수명 주기 정책을 사용하면 객체를 S3 Standard 스토리지 클래스에서 S3 Standard-IA 또는 S3 One Zone-IA로 마이그레이션하고 S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval 또는 S3 Glacier Deep Archive 스토리지 클래스로 아카이브하도록 구성할 수 있습니다.

또한, 일정 기간이 지난 후 객체를 삭제하도록 S3 수명 주기 정책을 지정할 수 있습니다. 이 정책 기반 자동화를 사용하여 빠르고 쉽게 스토리지 비용을 절감하고 시간을 절약할 수도 있습니다. 각 규칙에서 접두사, 기간, S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive로 전환 및/또는 만료를 지정할 수 있습니다. 예를 들어, 생성 후 30일이 경과되면 공통 접두사 ‘logs/’가 있는 모든 객체를 S3 Glacier Flexible Retrieval에 아카이브하고 생성 후 365일이 경과되면 이러한 객체를 만료하는 규칙을 생성할 수 있습니다.

또한, 접두사 ‘backups/’가 지정되어 있고 만든 지 90일 된 모든 객체만 만료되는 별도의 규칙을 만들 수 있습니다. S3 수명 주기 정책은 기존 및 새로운 S3 객체 모두에 적용되어 데이터 검토나 마이그레이션 같은 시간이 걸리는 수동 작업 없이 스토리지를 최적화하면서 S3에 보관된 모든 현재 데이터와 새 데이터에 대한 비용 절감을 극대화할 수 있습니다.

수명 주기 규칙에서 접두사 필드는 규칙에 따라 객체를 식별합니다. 개별 객체에 규칙을 적용하려면 키 이름을 지정합니다. 객체 세트에 규칙을 적용하려면 공통 접두사(예: “logs/”)를 지정합니다. 보관할 객체에 대한 이전 작업과 삭제할 객체에 대한 만료 작업을 지정할 수 있습니다. 기간의 경우, 생성일(예: 2015년 1월 31일) 또는 생성일로부터 며칠 후(예: 30일)에 객체를 보관 또는 삭제할지를 지정합니다. 서로 다른 접두사에 대해 여러 규칙을 만들 수 있습니다.

Q: S3 수명 주기 관리 사용 비용은 얼마나 됩니까?

수명 주기 정책을 설정하고 적용하는 데는 추가 비용이 들지 않습니다. 수명 주기 규칙에 따라 객체가 전환될 시기가 되었을 때 객체당 전환 요청 요금이 부과됩니다. 자세한 요금 정보는 Amazon S3 요금 페이지를 참조하세요.

Q: S3 수명 주기 정책을 사용하여 미완료 멀티파트 업로드를 만료시켜야 하는 이유는 무엇인가요?

미완료 멀티파트 업로드를 종료하는 S3 수명 주기 정책을 사용하면 완료되지 않은 멀티파트 업로드가 저장되는 시간을 제한하여 비용을 절약할 수 있습니다. 예를 들어 애플리케이션에서 여러 개의 멀티파트 객체 부분을 업로드하지만 이를 커밋하지 않은 경우에도 해당 스토리지에 대한 비용이 부과됩니다. 이 정책은 미리 정의된 기간 이후에 미완료 멀티파트 업로드 및 이와 관련된 스토리지를 자동으로 제거하여 S3 스토리지 비용을 절감할 수 있습니다.

S3 수명 주기를 사용한 미완료 멀티파트 업로드 만료에 대해 자세히 알아보기 »

Q: S3 수명 주기에서 객체를 전환하거나 만료할 때 알림을 전송하도록 Amazon S3 이벤트 알림을 설정할 수 있습니까?

예. S3 수명 주기에서 객체를 전환하거나 만료할 때 사용자에게 알리도록 Amazon S3 이벤트 알림을 설정할 수 있습니다. 예를 들어, S3 수명 주기에서 객체를 다른 S3 스토리지 클래스로 이동하거나 객체를 만료할 때 S3 이벤트 알림을 Amazon SNS 주제, Amazon SQS 대기열 또는 AWS Lambda 함수에 전송할 수 있습니다.

스토리지 분석 및 인사이트

Q: Amazon S3에서 내 스토리지 사용량을 분석하는 데 사용할 수 있는 기능은 무엇인가요?

S3 Storage Lens는 객체 스토리지 사용 및 활동 추세에 대한 조직 전체의 가시성을 제공하고 실행 가능한 권장 사항을 제공하여 비용을 최적화하고 데이터 보호 모범 사례를 적용합니다. S3 스토리지 클래스 분석을 사용하면 객체 전반의 액세스 패턴을 모니터링하여 데이터를 적절한 스토리지 클래스로 전환하는 시점을 결정함으로써 비용을 최적화할 수 있습니다. 그런 다음 이 정보를 사용하여 데이터를 이동하는 S3 수명 주기 정책을 구성할 수 있습니다. Amazon S3 인벤토리는 S3 버킷 또는 접두사에 대해 매일 또는 매주 객체 및 해당 메타데이터에 대한 보고서를 제공합니다. 이 보고서를 사용하면 객체의 암호화 및 복제 상태를 확인하여 비즈니스, 규정 준수 및 규제 요구 사항을 충족하는 데 도움이 됩니다.

Q: Amazon S3 Storage Lens란 무엇인가요?

Amazon S3 Storage Lens는 객체 스토리지 사용 및 활동 추세에 대한 조직 전체의 가시성을 제공하고 실행 가능한 권장 사항을 제공하여 비용을 최적화하고 데이터 보호 모범 사례를 적용합니다. Storage Lens는 여러 집계 수준에서 인사이트를 생성하기 위한 드릴다운과 함께 조직의 수십 또는 수백 계정에 대한 객체 스토리지 사용 및 활동에 대한 단일 보기를 포함하는 대화형 대시보드를 제공합니다. 여기에는 바이트, 객체 수, 요청 등의 지표 그리고 암호화된 객체 수, S3 수명 주기 규칙 수 등의 S3 기능 사용률을 설명하는 지표가 포함되어 있습니다. 또한, S3 Storage Lens는 스토리지 비용을 절감하고 수십 또는 수백 개 계정 및 버킷에서 데이터 보호에 대한 모범 사례를 적용하는 방법을 찾도록 상황에 맞는 권장 사항을 제공합니다. S3 Storage Lens 무료 지표는 모든 Amazon S3 사용자에 대해 기본적으로 활성화되어 있습니다. S3 Storage Lens를 최대한 활용하려면, 고급 지표 및 권장 사항을 활성화할 수 있습니다. 자세한 내용은 S3 Storage Lens 사용 설명서를 참조하세요.

Q: S3 스토리지 렌즈는 어떻게 작동합니까?

S3 Storage Lens는 매일의 스토리지 사용량 및 활동 지표를 집계하여 S3 Storage Lens 대화형 대시보드에 시각화하거나 CSV 또는 Parquet 파일 형식의 지표 내보내기로 사용할 수 있습니다. 기본 대시보드는 계정 수준에서 자동으로 생성되며 추가 사용자 지정 대시보드를 생성할 수 있는 옵션이 있습니다. S3 스토리지 렌즈 대시보드는 AWS 조직 또는 특정 계정, 리전, 버킷이나 접두사 수준까지 범위를 지정할 수 있습니다(S3 스토리지 렌즈 고급 지표에서 사용 가능). 또한 S3 스토리지 렌즈 그룹을 사용하여 객체 태그, 크기, 사용 기간 등의 객체 메타데이터를 기반으로 하는 사용자 지정 필터를 사용하여 지표를 집계할 수 있습니다. 대시보드를 구성할 때 기본 지표 선택을 사용하거나 추가 비용으로 35개의 추가 지표 및 접두사 수준의 집계를 받도록 업그레이드할 수 있습니다. 또한 S3 스토리지 렌즈는 대시보드에서 스토리지 지표에 대한 상황에 맞는 권장 사항을 제공하므로, 사용자는 지표를 기반으로 스토리지를 최적화하기 위한 조치를 취할 수 있습니다.

Q: S3 Storage Lens 지표를 사용하여 답변할 수 있는 주요 질문은 무엇인가요?

S3 Storage Lens 대시보드는 스토리지에 대해 답변할 수 있는 4가지 주요 질문 유형으로 구성되어 있습니다. 요약 필터를 사용하여 전체 스토리지 사용량 및 활동 추세와 관련된 최상위 질문을 탐색할 수 있습니다 (예: "시간이 지나면서 내 전체 바이트 수와 요청 수가 얼마나 빠르게 증가하고 있습니까?"). 비용 최적화 필터를 사용하여 스토리지 비용 절감과 관련된 질문을 탐색할 수 있습니다(예: "최신이 아닌 버전을 적게 유지하여 비용을 절감할 수 있습니까?"). 데이터 보호 및 액세스 관리 필터를 사용하여 데이터 보안에 대한 질문에 답할 수 있습니다(예: "내 스토리지가 우발적 또는 의도적 삭제로부터 보호됩니까?"). 마지막으로 성능 및 이벤트 필터를 사용하여 워크플로의 성능을 개선하는 방법을 탐색할 수 있습니다. 이러한 각 질문은 드릴다운 분석으로 이어질 수 있는 첫 번째 질문 계층을 나타냅니다.

Q: S3 Storage Lens에서 사용할 수 있는 지표는 무엇인가요?

S3 Storage Lens에는 무료 지표와 고급 지표(추가 비용으로 사용 가능)로 그룹화된 60개 이상의 지표가 포함되어 있습니다. 무료 지표 내에서 비용 최적화, 데이터 보호, 액세스 관리, 성능 및 이벤트 범주로 구성된 사용량(객체의 일일 스냅샷 기반)을 분석하기 위한 지표를 받습니다. 고급 지표 내에서 활동(예: 요청 수), 심층 비용 최적화(예: S3 수명 주기 규칙 수), 추가 데이터 보호(예: S3 복제 규칙 수) 및 세부 상태 코드(예: 403 인증 오류)와 관련된 지표를 받습니다. 또한, 파생된 지표는 기본 지표를 결합하여 제공됩니다. 예를 들어, '검색 속도'는 '다운로드된 바이트 수'를 '총 스토리지 수'로 나누어 계산된 지표입니다. 전체 지표 목록을 보려면 S3 스토리지 렌즈 설명서를 참조하세요.

Q: 대시보드 구성 옵션으로는 무엇이 있나요?

기본 대시보드는 전체 계정에 자동으로 제공되도록 구성되며, AWS 조직, 특정 리전 또는 계정 내 버킷으로 범위 지정이 가능한 추가 사용자 지정 대시보드를 생성할 수 있는 옵션이 있습니다. 여러 개의 사용자 지정 대시보드를 설정할 수 있습니다. 이러한 대시보드는 다양한 내부 팀을 나타내기 위해 버킷을 세분화하는 것과 같이 스토리지 분석에서 일부 논리적 분리가 필요한 경우에 유용할 수 있습니다. 기본적으로 대시보드는 S3 스토리지 렌즈 무료 지표를 수신하지만, S3 스토리지 렌즈 고급 지표와 권장 사항을 수신하도록 업그레이드할 수 있는 옵션이 있습니다(추가 비용 있음). S3 스토리지 렌즈 고급 지표에는 활동 지표, 고급 비용 최적화 지표, 고급 데이터 보호 지표, 세부 상태 코드 지표, 접두사 집계, CloudWatch 게시 및 스토리지 렌즈 그룹 집계의 7가지 고유한 옵션이 있습니다. 또한, 각 대시보드에 대해 대상 버킷과 암호화 유형을 지정하는 추가 옵션과 함께 지표 내보내기를 활성화할 수 있습니다.

Q: S3 Storage Lens에서 과거 데이터는 얼마나 유용하나요?

대화형 대시보드에 표시되는 지표의 경우 Storage Lens 무료 지표는 14일의 과거 데이터를 유지하고 Storage Lens 고급 지표(추가 비용)는 15개월의 과거 데이터를 유지합니다. 선택적 지표 내보내기의 경우, 원하는 보존 기간을 구성할 수 있으며 표준 S3 스토리지 요금이 적용됩니다.

Q: S3 스토리지 렌즈는 요금이 어떻게 청구됩니까?

S3 Storage Lens는 두 가지 계층의 지표로 제공됩니다. 무료 지표는 기본적으로 활성화되어 있으며 모든 S3 고객이 추가 비용 없이 사용할 수 있습니다. S3 Storage Lens 고급 지표와 권장 사항 요금 세부 정보는 S3 요금 페이지에서 확인할 수 있습니다. S3 스토리지 렌즈 무료 지표를 사용하면 버킷 수준에서 28개의 지표를 수신하고 대시보드에서 14일 동안의 과거 데이터에 액세스할 수 있습니다. S3 스토리지 렌즈 고급 지표 및 권장 사항을 통해 35개의 추가 지표, 접두사 수준 집계, CloudWatch 지표 지원, S3 스토리지 렌즈 그룹을 사용한 사용자 지정 객체 메타데이터 필터링을 받고 대시보드에서 15개월 동안의 과거 데이터에 액세스할 수 있습니다.

Q: S3 스토리지 렌즈와 S3 인벤토리의 차이점은 무엇인가요?

S3 인벤토리는 사용자의 객체 목록과, S3 버킷 또는 공유 접두사에 대한 해당 메타데이터 목록을 제공하여 스토리지의 객체 수준 분석을 수행할 수 있도록 합니다. S3 스토리지 렌즈는 조직, 계정, 리전, 스토리지 클래스, 버킷 및 접두사 수준, S3 스토리지 렌즈 그룹 수준에 따라 집계된 지표를 제공하여, 스토리지에 대한 조직 전체의 가시성을 높일 수 있습니다.

Q: S3 스토리지 렌즈와 S3 스토리지 클래스 분석(SCA)의 차이점은 무엇입니까?

S3 스토리지 클래스 분석은 이전 30~90일간의 개별 버킷/접두사/태그 내에서 객체 수준 액세스 패턴을 기반으로 객체 연령 그룹을 생성하여 최적의 스토리지 클래스에 대한 권장 사항을 제공합니다. S3 스토리지 렌즈는 비용 효율성을 개선하고 데이터 보호 모범 사례를 적용하는 방법에 대한 조직 수준의 권장 사항, 그리고 계정, 리전, 스토리지 클래스, 버킷, S3 스토리지 렌즈 그룹 또는 접두사에 따른 추가 세부 권장 사항을 매일 제공합니다(S3 스토리지 렌즈 고급 지표와 함께 사용 가능). 또한 S3 스토리지 렌즈 그룹과 함께 사용자 지정 필터를 사용하여 객체 기간을 기반으로 스토리지를 시각화하고 스토리지 아카이브 전략을 알릴 수 있습니다.

스토리지 클래스 분석

Q: 스토리지 클래스 분석이란 무엇입니까?

스토리지 클래스 분석을 사용하면 스토리지 액세스 패턴을 분석하여 스토리지에 대한 최적의 스토리지 클래스로 결정할 수 있습니다. 이 S3 기능은 빈도가 낮은 액세스 패턴이 있으면 이를 자동으로 파악하여 스토리지를 S3 Standard-IA로 전환하도록 지원합니다. 전체 버킷, 접두사 또는 객체 태그를 모니터링하도록 스토리지 클래스 분석 정책을 구성할 수 있습니다. 빈도가 낮은 액세스 패턴이 관찰되면 해당 결과를 바탕으로 손쉽게 새로운 S3 수명 주기 기간 정책을 생성할 수 있습니다. 스토리지 클래스 분석은 AWS 관리 콘솔에서 스토리지 사용에 대한 일별 시각화를 제공하며, S3 버킷으로 보고서를 내보내 원하는 비즈니스 인텔리전스 도구(예: Amazon QuickSight)를 사용하여 분석할 수 있습니다.

자세한 내용과 시작하는 방법은 S3 스토리지 클래스 분석 사용 설명서를 참조하세요.

Q: 스토리지 클래스 분석은 얼마나 자주 업데이트됩니까?

스토리지 클래스 분석은 S3 관리 콘솔에서 매일 업데이트되지만, 스토리지 클래스 전환에 대한 첫 권장 사항은 30일 이후에 제공됩니다.

현재 위치 쿼리

Q: "현재 위치 쿼리" 기능이란 무엇입니까?

Amazon S3에서는 데이터를 별도의 분석 플랫폼으로 이동할 필요 없이 저장된 데이터를 대상으로 정교한 쿼리를 실행할 수 있습니다. Amazon S3에서 이 데이터를 현재 위치에서 쿼리하는 기능은 S3를 데이터 레이크로 활용하는 분석 솔루션의 성능을 크게 향상시키고 비용을 줄여줍니다. S3는 S3 Select, Amazon Athena 및 Amazon Redshift Spectrum을 포함하여 여러 개의 현재 위치 쿼리 옵션을 제공하므로 사용 용도에 가장 적합한 위치를 선택할 수 있습니다. AWS Lambda가 포함된 Amazon S3 Select를 사용하여 S3 Select가 제공하는 현재 위치 처리 기능의 이점을 활용하는 서버리스 앱을 구축할 수 있습니다.

Q: S3 Select란 무엇입니까?

S3 Select는 전체 객체를 검색하지 않아도 간단한 SQL 표현식을 사용하여 객체 콘텐츠에서 특정 데이터를 쉽게 검색할 수 있는 Amazon S3 기능입니다. S3 Select는 객체 콘텐츠를 보다 작고 대상이 지정된 데이터 세트로 스캔 및 필터링하는 기능을 간소화하는 동시에 최대 400%까지 성능을 향상시킵니다. S3 Select를 사용하면 컴퓨팅 클러스터를 운영 또는 관리할 필요 없이 Amazon S3에서 로그 파일에 대한 운영 조사를 수행할 수 있습니다.

S3 Select를 사용하면 CSV, JSON 또는 Apache Parquet 형식으로 저장된 객체의 데이터 하위 세트를 SELECT 및 WHERE와 같은 SQL 절로 검색할 수 있습니다. 이 기능은 GZIP 또는 BZIP2로 압축된 객체(CSV 및 JSON 객체에 한함)와 서버 측 암호화된 객체에도 사용할 수 있습니다.

AWS Lambda가 포함된 S3 Select에서 S3 Select를 사용하는 서버리스 애플리케이션을 구축하면 전체 객체를 검색하고 처리하지 않아도 Amazon S3에서 효율적이고 손쉽게 데이터를 검색할 수 있습니다. Presto, Apache Hive, Apache Spark와 같은 빅 데이터 프레임워크와 함께 S3 Select를 사용하여 Amazon S3에서 데이터를 스캔하고 필터링할 수 있습니다.

자세한 내용은 S3 Select 사용 설명서를 참조하세요.

Q: Amazon Athena란 무엇인가요?

Amazon Athena는 표준 SQL을 사용해 Amazon S3에 저장된 데이터를 간편하게 분석할 수 있는 대화식 쿼리 서비스입니다. Athena는 서버리스 서비스이므로 설정하거나 관리할 인프라가 없으며 데이터 분석을 즉시 시작할 수 있습니다. Athena로 데이터를 로드할 필요도 없이 S3 스토리지 클래스에 저장된 데이터를 바로 사용할 수 있습니다. 시작하려면 Athena Management Console에 로그인하여 스키마를 정의한 후 쿼리를 시작하세요. Amazon Athena는 표준 SQL을 완벽 지원하는 Presto를 사용하며, CSV, JSON, ORC, Apache Parquet, Avro 등 다양한 표준 데이터 형식과 호환됩니다. Athena는 무엇보다도 신속한 임의 쿼리 작업에 적합하며, Amazon QuickSight와 통합하여 손쉽게 시각화할 수 있을 뿐만 아니라 대규모 조인, 윈도우 함수 및 어레이 등 복잡한 분석을 처리할 수도 있습니다.

Q: Amazon Redshift Spectrum이란 무엇입니까?

Amazon Redshift Spectrum은 로딩이나 ETL 없이도 Amazon S3에 있는 엑사바이트 규모의 비정형 데이터에 대해 쿼리를 실행할 수 있는 Amazon Redshift의 기능입니다. 쿼리를 발행하면, 쿼리가 Amazon Redshift SQL 엔드포인트로 전달되고 여기에서 쿼리 플랜을 생성하고 최적화합니다. Amazon Redshift는 로컬에 있는 데이터와 Amazon S3에 있는 데이터가 무엇인지 파악하고, 읽어와야 하는 Amazon S3 데이터 양을 최소화하기 위한 플랜을 생성하고, 공유 리소스 풀의 Amazon Redshift Spectrum 작업자에게 Amazon S3에서 데이터를 읽고 처리하도록 요청합니다.

Redshift Spectrum은 필요한 경우 수천 개의 인스턴스로 확장되므로 데이터 크기와 관계없이 쿼리가 빠르게 실행됩니다. 또한, Amazon S3 데이터에 대해 Amazon Redshift 쿼리에서 사용하는 것과 정확히 동일한 SQL을 사용하고, 동일한 비즈니스 인텔리전스 도구를 사용하여 동일한 Amazon Redshift 엔드포인트에 연결할 수 있습니다. Redshift Spectrum을 사용하면 스토리지와 컴퓨팅을 분리할 수 있으므로 개별적으로 확장이 가능합니다. Amazon S3 데이터 레이크를 쿼리하는 데 필요한 수만큼 Amazon Redshift 클러스터를 설정할 수 있으므로, 고가용성과 제한 없는 동시성이 제공됩니다. Redshift Spectrum은 원하는 장소에 원하는 형식으로 데이터를 저장하고 필요할 때 처리할 수 있습니다.

복제

Q: Amazon S3 복제란 무엇인가요?

Amazon S3 복제를 사용하면 Amazon S3 버킷 전체에 걸쳐 객체를 비동기식으로 자동 복사할 수 있습니다. 객체 복제를 위해 구성된 버킷은 동일한 AWS 계정 또는 다른 AWS 계정에서 소유할 수 있습니다. 버킷에 작성된 새 객체를 서로 다른 AWS 리전 간(S3 교차 리전 복제) 또는 동일한 AWS 리전 내(S3 동일 리전 복제) 하나 이상의 대상 버킷에 복제할 수 있습니다. 또한 기존 객체, 이전에 복제에 실패한 객체 및 다른 소스에서 복제된 객체를 포함하여 기존 버킷 콘텐츠를 복제할 수도 있습니다(S3 배치 복제). 자세한 내용은 S3 복제 사용 설명서를 참조하세요.

Q: Amazon S3 교차 리전 복제(CRR)란 무엇입니까?

CRR은 다른 AWS 리전에 걸쳐 버킷 간에 데이터를 자동으로 복제하는 Amazon S3 기능입니다. CRR의 경우 버킷 수준 또는 공유 접두사 수준에서 복제를 설정하거나 S3 객체 태그를 사용하여 객체 수준에서 복제를 설정할 수 있습니다. CRR을 통해 여러 지역의 리전에서 지연 시간이 더 낮은 데이터 액세스를 제공할 수 있습니다. 또한, 수백 킬로미터 떨어진 곳에 데이터 사본을 저장해야 한다는 규정 준수 요구 사항이 있는 경우 CRR을 활용할 수 있습니다. 복제된 객체의 계정 소유권을 변경하여 실수로 데이터를 삭제하지 못하도록 보호하는 데 CRR을 사용할 수도 있습니다. 자세히 알아보려면 S3 CRR 사용 설명서를 참조하세요.

Q: Amazon S3 동일 리전 복제(SRR)란 무엇인가요?

SRR은 동일한 AWS 리전 내의 버킷 간에 데이터를 자동으로 복제하는 Amazon S3 기능입니다. SRR의 경우 버킷 수준 또는 공유 접두사 수준에서 복제를 설정하거나 S3 객체 태그를 사용하여 객체 수준에서 복제를 설정할 수 있습니다. SRR을 사용하여 동일한 AWS 리전에 데이터의 하나 이상의 복사본을 만들 수 있습니다. SRR을 통해 데이터의 사본을 원본과 동일한 AWS 리전의 별도 AWS 계정에 보관하여 데이터 주권 및 규정 준수 요구 사항을 충족하도록 할 수 있습니다. 복제된 객체의 계정 소유권을 변경하여 실수로 데이터를 삭제하지 못하도록 보호하는 데 SRR을 사용할 수도 있습니다. 또한, SRR을 통해 서로 다른 S3 버킷에서 로그를 손쉽게 집계하여 리전 내에서 처리하거나, 테스트 환경과 개발 환경 간에 실시간 복제를 구성할 수 있습니다. 자세히 알아보려면 S3 SRR 사용 설명서를 참조하세요.

Q: Amazon S3 배치 복제란 무엇인가요?

Amazon S3 배치 복제는 버킷 간에 기존 객체를 복제합니다. S3 배치 복제를 사용하여 새로 생성된 버킷을 기존 객체로 백필하거나 이전에 복제할 수 없었던 객체를 재시도하거나 계정 간에 데이터를 마이그레이션하거나 새 버킷을 데이터 레이크에 추가할 수 있습니다. S3 콘솔에서 클릭 몇 번으로 또는 단일 API 요청으로 S3 배치 복제를 시작할 수 있습니다. 자세히 알아보려면 S3 배치 복제 사용 설명서를 참조하세요.

Q: Amazon S3 복제(교차 리전 복제 및 동일 리전 복제)를 사용하려면 어떻게 해야 하나요?

Amazon S3 복제(CRR 및 SRR)는 S3 버킷 수준, 공유 접두사 수준 또는 S3 객체 태그를 사용하는 객체 수준에서 구성됩니다. 동일 AWS 리전 또는 다른 AWS 리전에 복제할 대상 버킷을 지정하여 소스 버킷에 복제 구성을 추가합니다.

S3 콘솔, API, AWS CLI, AWS SDK 또는 AWS CloudFormation을 사용하여 복제를 사용 설정할 수 있습니다. 복제를 사용하려면 소스 및 대상 버킷 모두에서 버전 관리가 사용되어야 합니다. 자세한 내용은 Amazon S3 설명서에서 S3 복제 설정 개요를 참조하세요.

Q: S3 배치 복제를 사용하려면 어떻게 해야 하나요?

먼저, 버킷 수준에서 S3 복제를 사용 설정해야 합니다. 사용 설정 방법에 대해서는 이전 질문을 참조하세요. 그런 다음, 새 복제 구성을 생성하고 복제 구성 페이지 또는 S3 Batch Operations Create Job(S3 배치 작업 생성) 페이지에서 복제 규칙의 복제 대상을 변경한 후 S3 콘솔에서 S3 배치 복제 작업을 시작할 수 있습니다. 또는 AWS CLI 또는 SDK를 통해 S3 배치 복제 작업을 시작할 수 있습니다. 자세히 알아보려면 Amazon S3 설명서에서 S3 복제를 참조하세요.

Q: S3 복제를 S3 수명 주기 규칙과 함께 사용할 수 있나요?

S3 복제를 사용하면 동일 또는 다른 리전의 다른 스토리지 클래스에 객체의 복사본을 만들도록 복제 규칙을 설정할 수 있습니다. 수명 주기 작업은 복제되지 않으며, 소스 버킷과 대상 버킷 모두에 동일한 수명 주기 구성을 적용하려면 두 버킷 모두에서 동일한 수명 주기 구성을 사용 설정해야 합니다. 

예를 들어 S3 Standard 스토리지 클래스에서 S3 Standard-IA 또는 S3 One Zone-IA 스토리지 클래스로 데이터를 마이그레이션하거나 대상 버킷의 S3 Glacier 스토리지 클래스에 데이터를 아카이브하도록 수명 주기 규칙을 구성할 수 있습니다.

대상 버킷에 대해 S3 수명 주기를 구성한 경우 배치 복제 작업이 활성 상태인 동안 수명 주기 규칙을 사용 중지하여 소스 버킷과 대상 버킷에 있는 객체의 최신이 아닌 버전과 최신 버전 간에 패리티를 유지하는 것이 좋습니다.

수명 주기 구성 몇 복제에 대한 자세한 내용은
S3 복제 설명서를 참조하세요.

Q: S3 복제를 사용하여 둘 이상의 대상 버킷에 복제할 수 있나요?

예. S3 복제를 사용하면 고객이 동일하거나 다른 AWS 리전의 여러 대상 버킷에 데이터를 복제할 수 있습니다. 설정할 때는 단순히 기존 복제 구성에 새 대상 버킷을 지정하거나 여러 대상 버킷이 있는 새 복제 구성을 생성합니다. 사용자가 지정하는 각각의 새 대상에 대해, 대상 버킷, 암호화 유형, 복제 지표와 알림, 복제 시간 제어(RTC) 및 기타 속성의 스토리지 클래스를 유연하게 선택할 수 있습니다.

Q: S3 복제를 사용하여 S3 버킷 간의 양방향 복제를 설정할 수 있나요?

예. 양방향 복제를 설정하려면, 버킷 A에서 버킷 B로 복제 규칙을 생성하고 버킷 B에서 버킷 A로 다른 복제 규칙을 설정합니다. 복제된 객체에 대한 객체 액세스 제어 목록(ACL), 객체 태그, 객체 잠금 등의 복제 메타데이터 변경 사항을 복제하려면 버킷 A와 B 모두에서 복제본 수정 동기화를 활성화해야 합니다.

Q: AWS 계정 전체에서 복제를 사용하여 악의적 또는 우발적 삭제를 방지할 수 있습니까?

예. CRR 및 SRR의 경우 AWS 계정 전체에 복제를 설정하여 복제된 데이터를 대상 리전의 다른 계정에 저장할 수 있습니다. 복제 구성에서 소유권 덮어쓰기를 사용하여 원본과 대상 사이에 고유한 소유권 스택을 유지하고 복제된 스토리지에 대상 계정 소유권을 부여할 수 있습니다.

Q: 교차 리전 복제를 사용하는 경우 객체 태그가 복제됩니까?

객체 태그는 교차 리전 복제를 사용해 AWS 리전 간에 복제될 수 있습니다. 크로스 리전 복제가 이미 사용되고 있는 고객의 경우 태그를 복제하려면 새로운 권한이 필요합니다. 크로스 리전 복제를 설정하는 방법에 대한 자세한 내용은 Amazon S3 설명서에서 크로스 리전 복제 설정 방법을 참조하세요.

Q: 버킷 간에 삭제 마커를 복제할 수 있나요?

예, 복제 구성에서 삭제 마커 복제를 활성화하면 원본에서 대상으로 삭제 마커를 복제할 수 있습니다. 삭제 마커를 복제하면 Amazon S3가 두 버킷 모두에서 객체가 삭제된 것처럼 작동합니다. 신규 또는 기존 복제 규칙에 대해 삭제 마커 복제를 활성화할 수 있습니다. 접두사 기반 복제 규칙을 사용하여 전체 버킷 또는 특정 접두사가 있는 Amazon S3 객체에 삭제 마커 복제를 적용할 수 있습니다. Amazon S3 복제는 객체 태그 기반 복제 규칙에 대해 삭제 마커 복제를 지원하지 않습니다. 삭제 마커 복제 사용 설정에 대한 자세한 내용은 버킷 간에 삭제 마커 복제를 참조하세요.

Q: 다른 AWS 리전에서 중국으로 데이터를 복제할 수 있습니까? 고객이 중국 리전 외부의 한 중국 리전 버킷에서 복제할 수 있습니까?

아니요, AWS 중국 리전과 중국 외부의 AWS 리전 간에는 Amazon S3 복제를 사용할 수 없습니다. 중국 리전 내에서만 복제할 수 있습니다.

Q: 기존 객체를 복제할 수 있나요?

예. S3 배치 복제를 사용하여 버킷 간에 기존 객체를 복제할 수 있습니다. 자세한 내용은 S3 사용 설명서를 참조하세요.

Q: 처음에 객체 복제에 실패한 경우 복제를 다시 시도할 수 있나요?

예. S3 배치 복제를 사용하여 처음에 복제에 실패한 객체를 다시 복제할 수 있습니다. 자세한 내용은 S3 사용 설명서를 참조하세요.

Q: S3 복제는 어떤 유형의 암호화를 지원하나요?

S3 복제는 S3가 제공하는 모든 암호화 유형을 지원합니다. S3는 서버 측 암호화와 클라이언트 측 암호화를 모두 제공합니다. 전자는 S3에 객체를 암호화할 것을 요청하는 것을 말하며 후자는 S3에 업로드하기 전에 클라이언트 측에서 데이터를 암호화하는 것을 말합니다. 서버 측 암호화의 경우 S3는 Amazon S3 관리형 키를 사용한 서버 측 암호화(SSE-S3), AWS Key Management Service에 저장된 KMS 키를 사용한 서버 측 암호화(SSE-KMS) 및 고객 제공 키를 사용한 서버 측 암호화(SSE-C)를 제공합니다. 이러한 암호화 유형과 작동 방식에 대한 자세한 내용은 암호화 사용에 대한 S3 설명서를 참조하세요.

Q: 교차 계정 데이터 복제의 요금은 어떻게 되나요?

S3 복제를 사용하면 서로 다른 AWS 계정에서 소스 및 대상 버킷을 소유하는 교차 계정 복제를 구성할 수 있습니다. S3 스토리지 및 해당되는 검색 요금을 제외하고, 고객은 S3 복제를 사용할 때 S3에서 대상 리전으로 리전 간 데이터 송신 및 복제 PUT 요청에 대한 비용을 지불합니다. 복제 규칙에서 S3 복제 시간 제어(S3 RTC)를 활성화한 경우 S3 RTC에 따라 다른 데이터 송신 및 복제 PUT 요청 요금이 표시됩니다. 교차 계정 복제의 경우 소스 계정은 모든 데이터 전송(S3 RTC 및 S3 CRR)에 대한 비용을 지불하고, 대상 계정은 복제 PUT 요청에 대한 비용을 지불합니다. 데이터 전송 요금은 S3 교차 리전 복제(S3 CRR) 및 S3 복제 시간 제어(S3 RTC)에만 적용되며, S3 동일 리전 복제(S3 SRR)에 대한 데이터 전송 요금은 없습니다. 

S3 배치 복제를 사용하여 계정 간에 객체를 복제하는 경우 복제 PUT 요청 및 데이터 전송 OUT 요금 외에 S3 배치 작업 요금이 부과됩니다(S3 RTC는 배치 복제에 적용되지 않음). 배치 작업 요금에는 각각 처리된 작업 수 및 객체 수를 기반으로 하는 작업 및 객체 요금이 포함됩니다. 또한 Amazon S3에서 생성한 매니페스트를 선택하면 소스 버킷의 객체 수에 따라 매니페스트 요금이 부과됩니다.

S3 복제 요금에 대한 자세한 내용은
Amazon S3 요금 페이지를 참조하세요.

S3 복제 시간 제어

Q: Amazon S3 복제 시간 제어란 무엇입니까?

Amazon S3 복제 시간 제어는 예측 가능한 복제 성능을 제공하고 규정 준수 또는 비즈니스 요구 사항을 충족하도록 도와줍니다. S3 복제 시간 제어는 대부분의 객체는 몇 초 만에, 99.99%의 객체는 15분 이내에 복제하도록 설계되었습니다. S3 복제 시간 제어에는 월별 청구 기간 동안 각 복제 리전 페어에 대해 객체의 99.9%가 15분 이내에 복제된다는 서비스 수준 계약(SLA) 약정이 적용됩니다. 복제 시간은 모든 S3 복제 기능에서 지원됩니다. 자세히 알아보려면 복제 설명서를 참조하세요.

Q: Amazon S3 복제 시간 제어를 사용하려면 어떻게 해야 하나요?

Amazon S3 복제 시간 제어는 각 복제 규칙에 대한 옵션으로 활성화됩니다. S3 복제 시간 제어를 적용하여 새로운 S3 복제 정책을 생성하거나, 기존 정책에서 이 기능을 활성화할 수 있습니다. S3 콘솔, API, AWS CLI, AWS SDK 또는 AWS CloudFormation을 사용하여 복제를 구성할 수 있습니다. 자세한 내용은 Amazon S3 개발자 안내서에서 복제 설정 개요를 참조하세요.

Q: S3 복제 시간 제어를 사용하여 중국 리전 내에서 및 중국 리전 간에 데이터를 복제할 수 있나요?

예. Amazon S3 복제 시간 제어를 사용하여 AWS 중국(닝샤) 및 중국(베이징) 리전 내에서 리전 간에 데이터를 복제할 수 있습니다.

Q: Amazon S3 복제 지표 및 이벤트란 무엇인가요?

Amazon S3 복제는 Amazon S3 콘솔과 Amazon CloudWatch에서 보류 중인 작업, 보류 중인 바이트, 복제 지연 시간, 작업 실패 복제라는 4가지 세부 지표를 제공합니다. 이러한 지표를 사용하면 복제 보류 중인 객체의 총 작업 수 및 크기, 소스 및 대상 버킷 간의 복제 지연 시간, 각 복제 규칙에 대해 성공적으로 복제되지 않은 작업 수를 모니터링할 수 있습니다. 또한 s3:Replication 유형의 Amazon S3 이벤트 알림을 설정하여 복제에 실패한 객체와 실패의 원인에 대한 자세한 정보를 얻을 수 있습니다. S3 배치 복제로 실패한 객체를 다시 복제하기 전에 Amazon S3 복제 실패 이유를 사용하여 오류를 빠르게 진단하고 수정하는 것이 좋습니다. S3 Replication Time Control(S3 RTC)을 사용하는 경우 객체 복제에 15분 이상 소요되거나 해당 객체가 대상으로 성공적으로 복제될 때도 S3 이벤트 알림이 전송됩니다.

Q: Amazon S3 복제 지표 및 이벤트를 사용하려면 어떻게 해야 하나요?

Amazon S3 복제 지표 및 이벤트는 각각의 신규 또는 기존 복제 규칙에 사용 가능하며 S3 복제 시간 제어 사용 규칙에 기본적으로 활성화됩니다. Amazon S3 콘솔 및 Amazon CloudWatch를 통해 S3 복제 지표에 액세스할 수 있습니다. 다른 Amazon S3 이벤트와 마찬가지로, S3 복제 이벤트는 Amazon Simple Queue Service(Amazon SQS), Amazon Simple Notification Service(SNS) 또는 AWS Lambda를 통해 사용할 수 있습니다. 자세히 알아보려면 Amazon S3 개발자 안내서의 Amazon S3 이벤트 알림 및 복제 지표를 사용하여 진행 상황 모니터링을 참조하세요.

Q: 작업 실패 복제 지표에는 어떤 정보가 표시되나요?

작업 실패 복제 지표는 특정 복제 규칙에 대해 복제에 실패한 총 작업 수(분당)를 보여줍니다. 지표는 1분마다 새로 고침되어 실패한 각 작업에 대해 +1을 내보냅니다. 작업이 성공하면 0을 내보내고 해당 기간(분) 동안 수행된 복제 작업이 없을 때는 아무것도 출력하지 않습니다. 이 지표는 작업이 성공적으로 복제되지 않을 때마다 생성됩니다.

Q: Amazon S3 복제 지표 및 이벤트를 사용하여 S3 배치 복제를 추적할 수 있나요?

보류 중인 바이트, 보류 중인 작업 및 복제 지연 시간과 같은 지표를 사용하여 S3 배치 복제의 진행 상황을 추적할 수는 없습니다. 하지만 작업 실패 복제 지표를 사용하면 S3 배치 복제로 성공적으로 복제되지 않는 기존 객체를 모니터링할 수 있습니다. 또한 S3 배치 작업 완료 보고서를 사용하여 S3 배치 복제를 통해 복제되는 객체를 추적할 수도 있습니다.

Q: Amazon S3 복제 지표는 어디에 게시되나요?

보류 중인 바이트, 보류 중인 작업 및 복제 지연 시간 지표는 소스 AWS 계정과 대상 AWS 리전에 게시됩니다. 하지만 작업 실패 복제 지표는 대상 AWS 리전이 아닌 소스 AWS 계정 및 소스 AWS 리전에 게시됩니다. 여기에는 2가지 주요 이유가 있습니다. 먼저, 작업에 실패한 복제 지표가 대상 리전에 게시된 경우 대상 버킷이 잘못 구성되면 고객이 해당 지표를 볼 수 없습니다. 예를 들어 고객이 복제 구성에서 대상 버킷 이름을 잘못 입력했고 대상 버킷을 찾을 수 없어 복제에 실패한 경우 대상 버킷을 찾지 못하면 대상 리전을 알 수 없기 때문에 고객은 이 지표의 값을 볼 수 없습니다. 둘째, 고객이 홍콩이나 바레인과 같은 옵트인 대상 리전으로 복제하는 경우 소스 계정이 대상 리전에 옵트인되어 있지 않으면 복제 실패 시 고객에게 어떤 지표도 표시되지 않습니다.

Q: Amazon S3 복제 시간 제어 서비스 수준 계약(SLA)이란 무엇인가요?

Amazon S3 복제 시간 제어는 15분 이내에 객체의 99.99%를 복제하도록 설계되었으며 서비스 수준 계약의 적용을 받습니다. 월별 청구 주기 동안 각 복제 리전 쌍에서 15분 이내에 복제된 객체가 99.9% 미만인 경우, S3 RTC SLA는 복제하는 데 15분이 넘게 걸린 모든 객체에 대한 서비스 크레딧을 제공합니다. 서비스 크레딧에는 영향을 받은 월별 청구 주기에서 RTC 비용, 복제 대역폭 및 요청 비용, 대상 리전에 복제본을 저장하는 데 드는 비용을 비롯하여 SLA를 충족하지 않는 객체와 관련된 모든 복제 관련 비용의 백분율이 포함됩니다. 자세한 내용은 S3 복제 시간 제어 SLA를 참조하세요.

Q: S3 복제 및 S3 복제 시간 제어의 요금은 어떻게 되나요?

S3 복제(교차 리전 복제 및 동일 리전 복제)의 경우 선택한 대상 S3 스토리지 클래스에 대한 S3 요금, 기본 복사본의 스토리지 요금, 복제 PUT 요청 및 해당하는 Infrequent Access Storage 검색 요금을 지불합니다. CRR의 경우 S3에서 대상 리전으로의 리전 간 데이터 전송(송신) 비용도 지불합니다. S3 복제 지표는 Amazon CloudWatch 사용자 지정 지표와 동일한 요금으로 청구됩니다. 또한 S3 복제 시간 제어를 사용하면 복제 시간 제어 데이터 전송 요금도 지불합니다. 자세한 내용은 Amazon S3 요금 페이지를 참조하세요.

멀티파트 업로드 기능으로 원본 객체를 업로드하는 경우, 동일한 파트 수 및 파트 크기를 사용하여 객체가 복제됩니다. 예를 들어 멀티파트 업로드 기능으로 업로드된 100GB 객체(각각 128MB의 파트 800개)에는 복제 시 802회 요청(파트 업로드 요청 800회 + 멀티파트 업로드 시작 요청 1회 + 멀티파트 업로드 완료 요청 1회)에 대한 비용이 발생합니다. 따라서 요청 비용 0.00401 USD(802회 요청 x 1,000회 요청당 0.005 USD)와 복제가 서로 다른 AWS 리전 간에 발생한 경우 리전 간 데이터 전송 비용 2.00 USD(1GB 전송당 0.020 USD x 100GB)가 청구됩니다. 복제 후에는 대상 리전의 요율에 따라 100GB에 대한 스토리지 비용이 발생합니다.

Q: Amazon CloudWatch의 S3 복제 지표에 대한 요금은 어떻게 부과되나요?

보류 중인 바이트, 보류 중인 작업, 복제 지연 시간 및 작업 실패 복제를 비롯한 모든 S3 복제 지표는 Amazon CloudWatch 사용자 지정 지표와 동일한 요율로 부과됩니다. 첫 번째 1만 개 지표의 경우 매월 지표당 0.30 USD, 다음 24만 개 지표의 경우 월별 지표당 0.10 USD, 다음 75만 개 지표의 경우 월별 지표당 0.05 USD, 100만 개가 넘는 지표의 경우 월별 지표당 0.02 USD가 부과됩니다.

예를 들어 S3 버킷에 각 규칙에 대해 복제 지표가 활성화된 100개의 복제 규칙이 있는 경우 400개의 복제 지표(100개의 복제 규칙 x 복제 규칙당 4개의 지표)에 대한 월별 Amazon CloudWatch 요금이 표시됩니다. 이러한 400개 지표에 대해 비례 할당으로 계산된 월별 요금은 120 USD[복제 지표 400개 x 지표당 0.30 USD(처음 1만 개 지표의 경우)]입니다. Amazon CloudWatch 요금 청구에 대한 자세한 내용은 Amazon CloudWatch 요금 페이지를 참조하세요.

S3 다중 리전 액세스 포인트

Q: S3 다중 리전 액세스 포인트란 무엇인가요?

Amazon S3 다중 리전 액세스 포인트는 다중 AWS 리전 전체에 복제되는 데이터 세트에 액세스할 때 최대 60%까지 성능을 가속화합니다. S3 다중 리전 액세스 포인트는 AWS Global Accelerator를 기반으로 네트워크 정체 및 요청 애플리케이션의 위치와 같은 요소를 고려하여 지연 시간이 가장 짧은 데이터의 복사본에 AWS 네트워크를 통해 요청을 동적으로 라우팅합니다. 이 자동 라우팅을 통해 간편한 애플리케이션 아키텍처를 유지하면서 AWS의 글로벌 인프라를 활용할 수 있습니다.

Q: S3 다중 리전 액세스 포인트를 사용해야 하는 이유는 무엇인가요?

S3 다중 리전 액세스 포인트는 다중 리전 애플리케이션을 위한 스토리지를 개선하고 간소화합니다. S3 다중 리전 액세스 포인트는 복제된 데이터 세트에 대한 S3 요청을 동적으로 라우팅하여 대기 시간을 줄여줍니다. 따라서 애플리케이션이 최대 60% 더 빠르게 실행됩니다. 또한 S3 다중 리전 액세스 포인트는 우발적 또는 무단 데이터 삭제로부터 보다 안전하게 보호되는 탁월한 복원력의 다중 리전 및 다중 계정 애플리케이션을 구축하는 데 도움이 될 수 있습니다. S3 다중 리전 액세스 포인트를 사용하면 리전에 국한되지 않는 간편한 애플리케이션 아키텍처를 유지하면서 AWS의 글로벌 인프라를 활용할 수 있습니다.

Q: S3 다중 리전 액세스 포인트는 어떤 방식으로 작동하나요?

다중 리전 액세스 포인트는 하나 이상의 기본 S3 버킷에 클라이언트 요청을 동적으로 라우팅합니다. 최대 20개 AWS 리전까지 AWS 리전당 하나의 버킷에 라우팅하도록 다중 리전 액세스 포인트를 구성할 수 있습니다. 다중 리전 액세스 포인트를 생성할 때 S3가 DNS 호환 이름을 자동으로 생성합니다. 이 이름은 클라이언트가 사용할 수 있는 글로벌 엔드포인트로 사용됩니다. 클라이언트가 이 엔드포인트를 요청하면 S3가 다중 리전 액세스 포인트의 구성에 지정된 기본 버킷 중 하나로 이러한 요청을 동적으로 라우팅합니다. 인터넷 기반 요청은 AWS 글로벌 네트워크에 온보드되어 인터넷에서 정체된 네트워크 세그먼트를 피하고, 네트워크 지연 시간 및 지터를 줄이는 동시에 성능을 개선합니다. AWS Global Accelerator를 기반으로 인터넷을 통해 S3에 액세스하는 애플리케이션은 S3 다중 리전 액세스 포인트에 의해 최대 60%까지 성능이 향상되는 것을 볼 수 있습니다.

이 라우팅을 직접 제어하기 위해서 액티브-액티브 또는 액티브-패시브 구성으로 S3 다중 리전 액세스 포인트를 운영할 수 있습니다. 액티브-패시브 구성에서는, S3 다중 리전 액세스 포인트 장애 조치 제어를 사용하여 장애 조치를 실행하고 몇 분 만에 S3 데이터 액세스 요청 트래픽을 선택한 대체 AWS 리전 및 계정으로 이동할 수 있습니다.

액티브-액티브 구성에서는, S3 다중 리전 액세스 포인트는 네트워크 정체 및 요청 애플리케이션의 위치와 같은 요소를 고려하여 데이터에서 최단 거리에 있는 복사본에 AWS 네트워크를 통해 요청을 동적으로 라우팅합니다. S3 다중 리전 액세스 포인트는 클라이언트와 가장 가까운 AWS 로케이션으로 요청을 라우팅한 뒤 글로벌 프라이빗 AWS 네트워크를 통해 S3로 보냅니다.

각 구성을 이용하여 S3 다중 리전 액세스 포인트는 간편한 애플리케이션 아키텍처를 유지하면서 AWS의 글로벌 인프라를 활용할 수 있습니다.

Q: S3 다중 리전 액세스 포인트 장애 조치 제어는 어떤 방식으로 작동하나요?

기본적으로 액티브-액티브 구성의 경우 S3 다중 리전 액세스 포인트는 네트워크 지연 시간을 기반으로 클라이언트에게 가장 가까운 기본 버킷에 요청을 라우팅합니다. 예를 들어 미국 동부(버지니아 북부) 및 아시아 태평양(뭄바이)에 있는 기본 버킷으로 다중 리전 액세스 포인트를 구성할 수 있습니다. 이 구성을 사용하여 북아메리카에 있는 클라이언트는 미국 동부(버지니아 북부)로 라우팅하고, 아시아에 있는 클라이언트는 아시아 태평양(뭄바이)로 라우팅합니다. 이를 통해 S3에 대한 요청 지연 시간을 줄여 애플리케이션의 성능을 개선합니다. 액티브-패시브 구성을 선호하는 경우, 모든 S3 데이터 요청 트래픽을 S3 다중 리전 액세스 포인트를 통해 액티브 리전인 미국 동부(버지니아 북부)로 라우팅할 수 있으며, 아시아 태평양(뭄바이)으로는 트래픽을 라우팅하지 않습니다. 만약 모든 S3 데이터 요청 트래픽을 아시아 태평양(뭄바이)으로 장애 조치해야만 하는 계획했거나 계획하지 않은 상황이 발생할 경우, 몇 분 만에 새로운 액티브 리전을 아시아 태평양(뭄바이)으로 전환하는 장애 조치를 실행할 수 있습니다. 미국 동부(버지니아 북부)에서 진행 중인 기존의 업로드나 다운로드는 계속 진행되며, S3 다중 리전 액세스 포인트를 통한 모든 새로운 S3 데이터 요청 트래픽은 아시아 태평양(뭄바이)으로 라우팅됩니다.

Q: S3 다중 리전 액세스 포인트는 여러 AWS 계정이 소유한 버킷에서 작동하나요?

예. 새 S3 다중 리전 액세스 포인트를 생성할 때 버킷 소유자의 계정 ID를 입력하여 여러 AWS 계정의 버킷을 새로운 S3 다중 리전 액세스 포인트에 추가할 수 있습니다. 버킷에 아직 크로스 계정 복제가 구성되지 않은 경우 S3 크로스 리전 복제 규칙을 구성하여 버킷의 콘텐츠를 AWS 계정 및 리전 간에 동기화할 수 있습니다. 그런 다음에는 애플리케이션에서 다중 리전 액세스 포인트 글로벌 엔드포인트를 통해 AWS 계정과 리전의 데이터를 요청하거나 쓸 수 있습니다.

Q: 여러 AWS 계정에 걸쳐 있는 다중 리전 액세스 포인트에서 퍼블릭 액세스 차단 설정은 어떻게 작동하나요?

각 S3 다중 리전 액세스 포인트에는 Amazon S3 퍼블릭 액세스 차단에 대한 별도의 설정이 있습니다. 이러한 설정은 다중 리전 액세스 포인트의 기반이 되는 버킷에 대한 퍼블릭 액세스 차단 설정, 다중 리전 액세스 포인트를 소유한 AWS 계정에 대한 퍼블릭 액세스 차단 설정, 기본 버킷을 소유한 AWS 계정에 대한 퍼블릭 액세스 차단 설정과 함께 작동합니다.

Amazon S3는 요청을 승인할 때 이러한 설정의 가장 제한적인 조합을 적용합니다. 이러한 리소스(다중 리전 액세스 포인트, 기본 버킷, 다중 리전 액세스 포인트 소유자 계정 또는 버킷 소유자 계정) 중 하나에 대한 퍼블릭 액세스 차단 설정이 요청된 작업 또는 리소스에 대한 액세스를 차단하는 경우 Amazon S3는 요청을 거부합니다.

이 동작은 크로스 계정 S3 액세스 포인트에서도 동일하게 발생합니다. 크로스 계정 S3 액세스 포인트 및 크로스 계정 S3 다중 리전 포인트에 대한 요청을 처리할 때도 동일한 권한 부여 로직이 적용됩니다.

Q: S3 크로스 리전 복제(S3 CRR)와 S3 다중 리전 액세스 포인트의 차이점은 무엇인가요?

S3 CRR과 S3 다중 리전 액세스 포인트는 AWS 리전 전체에 데이터를 복제한 다음, 가장 지연 시간이 짧은 복제된 복사본에 요청을 자동으로 라우팅하기 위해 함께 작동하는 보완 기능입니다. S3 다중 리전 액세스 포인트는 AWS 리전 간 요청을 관리할 수 있도록 지원하며, 한편 CRR은 AWS 리전 간 데이터를 이동시켜 격리된 복제본을 만들 수 있도록 지원합니다. S3 다중 리전 액세스 포인트와 CRR을 함께 사용하여 단일 글로벌 엔드포인트를 통해 액세스할 수 있는 복제된 다중 리전 데이터 세트를 생성합니다.

Q: S3 다중 리전 액세스 포인트의 비용은 얼마인가요?

S3 다중 리전 액세스 포인트를 사용하여 AWS 내에서 요청을 라우팅하는 경우, 처리된 각 GB에 대해 저렴한 GB당 데이터 라우팅 요금과 S3 요청, 스토리지, 데이터 전송 및 복제에 대한 표준 요금을 지불합니다. 애플리케이션이 AWS 외부에서 실행되며 인터넷을 통해 S3에 액세스하는 경우, 글로벌 프라이빗 AWS 네트워크에서 AWS 엣지 로케이션을 통해 액세스 대기 시간을 기반으로 가장 가까운 데이터 복사본으로 요청을 자동으로 라우팅하여 S3 다중 리전 액세스 포인트의 성능이 증가합니다. 인터넷을 통해 이루어진 요청을 가속화하는 경우 데이터 라우팅 요금과 인터넷 가속화 요금을 지불합니다. S3 다중 리전 액세스 포인트 인터넷 가속화 요금은 소스 클라이언트가 대상 AWS 리전으로서 동일하거나 다른 로케이션이 있는지 여부에 따라 다르며, 표준 S3 데이터 전송 요금에 추가됩니다. S3 다중 리전 액세스 포인트 장애 조치 제어를 사용하면 각 리전의 현재 라우팅 제어 상태를 확인하는 것과 장애 조치를 시작하기 위한 라우팅 제어 변경 사항을 제출하는 것에 대한 표준 S3 API 요금만 부과됩니다. 더 많은 요금 정보를 알아보려면 Amazon S3 요금 페이지의 데이터 전송 탭을 참조하세요.

Q: S3 다중 리전 액세스 포인트에 요청자 지불을 사용할 수 있나요?

예. S3 다중 리전 액세스 포인트의 기본 버킷을 요청자 지불 버킷으로 구성할 수 있습니다. 요청자 지불을 사용하면 요청 비용, 버킷 및 다중 리전 액세스 포인트와 관련된 데이터 전송 비용을 포함하여 엔드포인트 사용과 관련된 모든 비용을 요청자가 지불합니다. 일반적으로 데이터를 공유하되 데이터에 액세스하는 다른 사람과 관련된 요금이 발생하지 않도록 하려면 버킷을 요청자 지불 버킷으로 구성하는 것이 좋습니다. 일반적으로는 버킷 소유자가 버킷과 연결된 모든 Amazon S3 스토리지에 대한 비용을 지불합니다. 자세히 알아보려면 S3 요청자 지불을 참조하세요.

Q: S3 Transfer Acceleration은 S3 다중 리전 액세스 포인트와 어떻게 다른가요?

S3 다중 리전 액세스 포인트와 S3 Transfer Acceleration은 유사한 성능 이점을 제공합니다. S3 Transfer Acceleration을 사용하면 AWS 글로벌 네트워크를 통해 Amazon S3에서 주고받는 콘텐츠 전송 속도를 높일 수 있습니다. S3 Transfer Accelerator는 단일 Amazon S3 버킷에서 주고받는 대용량 객체의 장거리 전송 속도를 가속화합니다. S3 다중 리전 액세스 포인트를 사용하면 AWS 글로벌 네트워크를 사용하여 유사한 가속 전송을 수행할 수 있지만, 인터넷 기반, VPC 기반, S3와 주고받는 온프레미스 요청에 대해 여러 AWS 리전의 많은 S3 버킷에 걸쳐 수행할 수 있습니다. S3 다중 리전 액세스 포인트와 S3 크로스 리전 복제를 결합하면, S3 다중 리전 액세스 포인트가 여러 로케이션에 있는 클라이언트의 애플리케이션에 대해 가장 지연 시간이 짧은 데이터 복사본으로 요청을 동적으로 라우팅할 수 있는 기능을 사용할 수 있습니다.

Q: S3 다중 리전 액세스 포인트 및 장애 조치 제어를 시작하려면 어떻게 해야 하나요?

S3 콘솔에서 간단한 워크플로 안내를 통해 S3에서 다중 리전 스토리지를 실행하는 데 필요한 모든 것을 3단계 만에 빠르게 설정할 수 있습니다. 첫 번째로, Amazon S3 다중 리전 액세스 포인트 엔드포인트를 생성하고 복제와 장애 조치를 수행할 AWS 리전을 지정합니다. 새 S3 다중 리전 액세스 포인트를 생성할 때 버킷 소유자의 계정 ID를 입력하여 여러 AWS 계정의 버킷을 새로운 S3 다중 리전 액세스 포인트에 추가할 수 있습니다. 두 번째로, S3 다중 리전 액세스 포인트 엔드포인트 뒤에 있는 각 AWS 리전 및 S3 버킷에 대해 라우팅 상태를 액티브 또는 패시브로 지정합니다. 액티브 AWS 리전은 S3 데이터 요청 트래픽을 허용하고, 패시브 리전은 장애 조치를 실행하기 전까지는 해당 리전으로 라우팅되지 않습니다. 세 번째로, S3 크로스 리전 복제 규칙을 구성하여 리전 및 계정 간에 S3 데이터를 동기화합니다. 그러면 언제든지 AWS 리전 간 장애 조치를 몇 분 만에 시작하여 S3 데이터 요청을 이동할 수 있으며, 새로운 액티브 AWS 리전으로 이동한 S3 트래픽을 Amazon CloudWatch에서 모니터링할 수 있습니다. 또는 AWS CloudFormation을 사용하여 다중 리전 스토리지 구성을 자동화할 수 있습니다. CloudFormation은 S3 다중 리전 액세스 포인트를 포함한 S3의 다중 리전 스토리지를 설정하는 데 필요한 모든 구성 요소를 지원하므로, S3 콘솔 외부에서 반복 가능한 설정 프로세스를 자동화할 수 있습니다.

데이터 처리

객체 Lambda

Q: S3 Object Lambda란 무엇인가요?

S3 Object Lambda를 사용하면 자체 코드를 S3 GET, LIST 및 HEAD 요청에 추가하여 애플리케이션으로 데이터가 반환될 때 데이터를 수정 및 처리할 수 있습니다. 사용자 지정 코드를 사용하여 행을 필터링하고 동적으로 이미지 크기를 조정하며 기밀 데이터를 교정하는 등 S3 GET 요청에서 반환한 데이터를 수정할 수 있습니다. 또한 S3 Object Lambda를 사용해 S3 LIST 요청 출력을 수정하여 버킷에 저장된 객체를 볼 수 있는 사용자 지정 보기를 생성하거나, S3 HEAD 요청 출력을 수정하여 객체 이름이나 크기 같은 객체 메타데이터를 변경할 수 있습니다. S3 Object Lambda는 추가 인프라(예: 프록시 계층)를 구축해서 운영하거나, 데이터에서 파생된 여러 사본을 만들어서 관리하지 않고도 애플리케이션의 고유한 데이터 형식 요구 사항을 손쉽게 충족할 수 있습니다. S3 Object Lambda는 AWS Lambda 함수를 사용하여 표준 S3 GET, LIST 또는 HEAD 요청의 출력을 자동으로 처리합니다. AWS Lambda는 기본 컴퓨팅 리소스를 관리하지 않고도 고객이 정의한 코드를 실행하는 서버리스 컴퓨팅 서비스입니다. 

AWS Management Console에서 몇 번의 클릭만으로 Lambda 함수를 구성하고 S3 Object Lambda 서비스 액세스 포인트에 연결할 수 있습니다. 이후로는 S3에서 Lambda 함수를 자동으로 호출하여 S3 Object Lambda 엔드포인트를 통해 검색된 데이터를 처리하고 애플리케이션에 변환된 결과를 다시 반환할 수 있습니다. 사용자 지정 Lambda 함수를 작성 및 실행하여 특정 사용 사례에 맞게 S3 객체 Lambda의 데이터 변환을 조정할 수 있습니다.

S3 객체 Lambda를 시작하려면 S3 관리 콘솔, SDK 또는 API를 사용할 수 있습니다. 자세한 내용은 S3 객체 Lambda 페이지 또는 S3 객체 Lambda 사용 설명서를 참조하세요.

Q: S3 Object Lambda를 사용해야 하는 이유는 무엇인가요?

S3 GET, LIST 또는 HEAD 요청과 함께 데이터를 처리하고자 한다면 S3 Object Lambda를 사용해야 합니다. S3 Object Lambda를 사용하면 여러 애플리케이션에서 데이터의 단일 복사본을 공유할 수 있으므로 사용자 지정 처리 인프라를 구축하여 운영하거나 데이터의 파생 복사본을 저장하지 않아도 됩니다. 예를 들어 S3 Object Lambda를 사용하여 S3 GET 요청을 처리하면 규정 준수를 위해 민감한 데이터를 마스킹하거나 기계 학습 애플리케이션과의 호환을 위해 원시 데이터를 재구성하거나 S3 객체 내 특정 콘텐츠에 대한 액세스를 제한하도록 데이터를 필터링하거나 다양한 추가 사용 사례를 해결할 수 있습니다. S3 Object Lambda를 사용하면 다른 객체 메타데이터가 포함된 외부 인덱스를 쿼리하여 객체 목록을 보강하거나, 객체 목록을 필터링 또는 마스킹하여 특정 객체 태그가 포함된 객체만 포함시키거나, 객체 목록에 있는 모든 객체 이름에 파일 확장자를 추가할 수 있습니다. 예를 들어 S3 버킷에 서로 다른 데이터 세트가 저장되어 있다면 S3 Object Lambda를 사용해 요청자에 따라 S3 LIST 응답을 필터링할 수 있습니다. 

S3 Object Lambda는 Amazon S3 Management Console에서 클릭 몇 번으로 설정 가능합니다. 자세한 내용은 사용 설명서를 참조하세요.

Q: S3 Object Lambda는 어떻게 작동하나요?

S3 Object Lambda는 사용자가 지정한 Lambda 함수를 사용하여 GET, LIST 및 HEAD 요청의 출력을 처리합니다. 요청된 데이터를 처리할 때 사용할 Lambda 함수를 정의한 후에는 해당 함수를 S3 Object Lambda 액세스 포인트에 연결할 수 있습니다. 그런 다음 S3 Object Lambda 액세스 포인트를 통해 GET, LIST 및 HEAD 요청을 제출하면 지정된 Lambda 함수가 호출됩니다. 이 Lambda 함수는 클라이언트에서 요청한 S3 객체를 가져오고 해당 객체를 처리합니다. 처리가 완료되면 Lambda는 처리된 객체를 호출 클라이언트로 다시 스트리밍합니다. 자세한 내용은 S3 객체 Lambda 사용자 안내서를 참조하세요.

Q: S3 객체 Lambda를 시작하려면 어떻게 해야 하나요?

S3 객체 Lambda는 여러 가지 방법으로 설정할 수 있습니다. S3 콘솔에서 Object Lambda Access Point(Object Lambda 액세스 포인트) 탭으로 이동하여 S3 Object Lambda를 설정할 수 있습니다. 그런 다음 S3 Object Lambda 액세스 포인트, S3에서 GET, LIST 및 HEAD 요청에 대해 실행할 Lambda 함수 및 지원하는 S3 액세스 포인트를 생성합니다. 모든 리소스에 Object Lambda와 상호 작용할 수 있는 권한을 부여합니다. 마지막으로, 새 S3 Object Lambda 액세스 포인트를 사용하여 원하는 언어 SDK로 S3에서 데이터를 검색하도록 SDK 및 애플리케이션을 업데이트합니다. 요청할 때 S3 객체 Lambda 액세스 포인트 별칭을 사용할 수 있습니다. S3 객체 Lambda 액세스 포인트에 대한 별칭은 자동으로 생성되며, S3 객체 Lambda를 통해 액세스하는 데이터의 S3 버킷 이름과 동일하게 사용할 수 있습니다. 기존 S3 객체 Lambda 액세스 포인트의 경우 별칭이 자동으로 할당되며 즉시 사용할 수 있습니다. AWS 설명서에 시작하는 데 도움이 되는 Lambda 함수 구현 예제가 나와 있습니다.

AWS CloudFormation을 사용하여 S3 객체 Lambda 구성을 자동화할 수도 있습니다. AWS CloudFormation 템플릿을 사용할 때 계정에 배포된 Lambda 함수는 변경 없이 S3 객체를 요청하는 클라이언트 또는 애플리케이션으로 다시 전달합니다. 사용자 정의 코드를 추가하여 애플리케이션으로 데이터가 반환될 때 데이터를 수정하고 처리할 수 있습니다. 자세한 내용은 S3 객체 Lambda 사용 설명서를 참조하세요.

Q: S3 객체 Lambda에서는 어떤 종류의 작업을 수행할 수 있나요?

Lambda 함수에서 지원되는 모든 작업이 S3 객체 Lambda에서 지원됩니다. 따라서 요청을 처리할 때 다양한 옵션을 사용할 수 있습니다. 자체 Lambda 함수를 제공하여 GET, LIST 및 HEAD 요청에 대해 사용자 지정 계산을 실행하면 애플리케이션 요구 사항에 따라 유연하게 데이터를 처리할 수 있습니다. Lambda 처리 시간은 최대 60초로 제한됩니다. 자세한 내용은 S3 Object Lambda 설명서를 참조하세요.

Q: S3 Object Lambda에서 지원하는 S3 요청 유형은 무엇인가요?

S3 Object Lambda는 GET, LIST 및 HEAD 요청을 지원합니다. S3 Object Lambda 액세스 포인트를 통해 생성된 모든 기타 S3 API 호출은 표준 S3 API 응답을 반환합니다. S3 Object Lambda에 대한 자세한 내용은 사용 설명서를 참조하세요.

Q: S3 객체 Lambda 함수가 실패하면 어떻게 됩니까?

S3 객체 Lambda 함수가 실패하면 실패를 자세히 설명하는 요청 응답을 수신합니다. 다른 Lambda 함수의 호출과 같이, AWS는 사용자를 대신하여 함수를 자동으로 모니터링하고 Amazon CloudWatch를 통해 지표를 보고합니다. 실패를 해결하는 데 도움을 주기 위해 Lambda는 Amazon CloudWatch Logs를 통해 함수에서 처리한 모든 요청을 로깅하고 코드에서 생성된 로그를 자동으로 저장합니다. AWS Lambda에서 CloudWatch Logs에 액세스하는 방법에 대한 자세한 내용은 CloudWatch 설명서를 참조하세요.

Q: S3 Object Lambda는 S3 가용성 SLA 또는 S3 내구성에 영향을 주나요?

S3 객체 Lambda는 Amazon S3, AWS Lambda, 선택적으로 원하는 다른 AWS 서비스를 연결하여 요청 애플리케이션과 관련된 객체를 전달합니다. S3 객체 Lambda와 연결에 사용된 모든 AWS 서비스는 각 서비스 수준 계약(SLA)에 따라 규제됩니다. 예를 들어, 한 AWS 서비스가 서비스 약정을 충족하지 못하는 경우 해당 서비스의 SLA에 명시된 서비스 크레딧을 받을 수 있습니다. S3 객체 Lambda 액세스 포인트를 생성해도 객체 내구성에는 영향을 주지 않습니다. 그러나 S3 객체 Lambda는 사용자가 지정한 AWS Lambda 함수를 호출하며, 지정된 Lambda 함수가 의도한 대로, 올바른지 확인해야 합니다. 여기에서 최신 Amazon S3 SLA를 참조하세요.

Q: S3 객체 Lambda 비용이 얼마인가요?

S3 Object Lambda를 사용하는 경우 S3 Object Lambda를 통해 반환된 데이터의 모든 기가바이트에 대해 GB당 요금을 지불합니다. 또한 요청 유형(GET, LIST 및 HEAD 요청)에 따른 요청 요금과 요청된 데이터를 처리하기 위해 지정한 함수를 실행하는 시간 동안 AWS Lambda 계산 요금이 부과됩니다. 요금 세부 정보 및 예제를 보려면 S3 요금 페이지를 참조하세요.

데이터 액세스

Mountpoint for Amazon S3

Q: Mountpoint for Amazon S3란?

Mountpoint for Amazon S3는 S3 버킷을 컴퓨팅 인스턴스에 탑재하고 로컬 파일 시스템으로 액세스하는 데 사용할 수 있는 오픈 소스 파일 클라이언트입니다. Mountpoint for Amazon S3는 로컬 파일 시스템 작업을 Amazon S3에 저장된 개체에 대한 REST API 호출로 변환합니다. Mountpoint for Amazon S3를 사용하면 단일 인스턴스 처리량을 높여 작업을 더 빨리 완료할 수 있습니다. Mountpoint for Amazon S3는 AWS Support를 통해 지원됩니다. AWS Enterprise Support에 액세스할 수 있는 고객은 Amazon 지원 엔지니어로부터 연중무휴 기술 지원을 받고 사용 사례와 관련하여 제공되는 아키텍처 지침을 받을 수 있습니다. Mountpoint for Amazon S3는 Linux 운영 체제 및 Amazon Elastic Compute Cloud(EC2) 등의 AWS 컴퓨팅 서비스와 함께 작동합니다. Mountpoint for Amazon S3 페이지 또는 사용 설명서에서 자세히 알아보세요.

Q: 언제 Mountpoint for Amazon S3를 사용해야 하나요?

Mountpoint for Amazon S3는 기존 파일에 대한 무작위 및 순차 읽기 작업과 새 파일 생성을 위한 순차 쓰기 작업을 사용하여 페타바이트 규모의 데이터를 처리하는 읽기 중심의 데이터 레이크 워크로드에 적합합니다. 이러한 워크로드는 단일 노드에서 쓰며 Amazon S3의 기존 데이터를 수정하지 않습니다. 일반적인 사용 사례로는 페타바이트 규모의 자율 주행 차량 시뮬레이션, 기계 학습 교육, 유전체학 분석 및 이미지 렌더링이 있습니다. 이러한 워크로드는 빠르게 스케일 업 및 스케일 다운되며, Amazon S3의 탄력성에 의존하여 활용도가 낮은 용량을 최소화하고 처리량 초과 프로비저닝의 비용을 방지합니다. Mountpoint for Amazon S3를 사용하면 컴퓨팅 인스턴스의 네트워크 대역폭 사용을 효율적으로 활용하여 컴퓨팅 비용을 절감하고 페타바이트 규모의 데이터 레이크 워크로드를 위해 수천 개의 컴퓨팅 인스턴스로 안정적으로 확장할 수 있습니다.

Q: Mountpoint for Amazon S3는 어떤 파일 시스템 작업을 지원하나요?

Mountpoint for Amazon S3는 최대 5TB 크기의 파일 읽기, 새 파일 쓰기, 기존 파일 나열, 디렉터리 생성 및 나열 등의 기본 파일 시스템 작업을 지원합니다. Mountpoint for Amazon S3는 기존 파일 수정 또는 기존 디렉터리 삭제를 지원하지 않습니다. Mountpoint for Amazon S3는 이러한 작업과 함께 Amazon S3 데이터 레이크에서 높은 처리량으로 데이터를 읽고 쓰는 애플리케이션에 이상적입니다. 그러나 여러 컴퓨팅 인스턴스 또는 사용자 간의 협업 및 조정이 필요한 애플리케이션에는 적합하지 않습니다. 이러한 애플리케이션에는 일반적으로 기존 파일에 추가, 파일 잠금 등의 공유 파일 시스템 기능이 필요합니다. POSIX 의미 체계와 공유 파일 시스템 기능을 필요로 하는 데이터 레이크 애플리케이션에 Amazon FSx for Lustre를 사용할 수 있습니다.

Q: Mountpoint for Amazon S3를 시작하려면 어떻게 해야 하나요?

설명서에 제공된 지침에 따라 컴퓨팅 인스턴스의 로컬 디렉터리에 S3 버킷을 탑재하여 Mountpoint for Amazon S3를 시작할 수 있습니다. 로컬 디렉터리에 S3 버킷을 탑재하면 애플리케이션이 컴퓨팅 인스턴스에서 로컬로 사용할 수 있는 파일로 S3 객체에 액세스할 수 있습니다. Mountpoint for Amazon S3는 기존 Amazon S3 객체에 대한 순차 및 임의 읽기 작업과 새 객체에 대한 순차 쓰기를 지원합니다. 지원되는 파일 시스템 작업에 대한 자세한 내용은 Mountpoint for Amazon S3의 의미 체계 설명서를 참조하세요. Mountpoint for Amazon S3를 사용하여 S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive의 객체와 S3 Intelligent-Tiering의 Archive Access 티어 및 Deep Archive Access 티어의 객체를 제외한 모든 S3 스토리지 클래스의 객체에 액세스할 수 있습니다.

Q: Mountpoint for Amazon S3에 대한 요금은 어떻게 부과되나요?

Mountpoint for Amazon S3 사용에 대한 추가 비용은 없습니다. 파일 읽기, 파일 쓰기 및 디렉터리 목록 작성 작업과 같은 파일 시스템 작업을 실행할 때 Mountpoint for Amazon S3에서 보낸 GET, PUT 및 LIST 요청과 같은 S3 API 요청에 대한 비용을 지불합니다. S3 요청 요금은 요금 페이지를 참조하세요.

Q: Mountpoint for Amazon S3로부터 기대할 수 있는 성능은 무엇인가요?

Mountpoint for Amazon S3는 AWS SDK와 동일한 성능을 제공합니다. 즉, 데이터 레이크 애플리케이션은 Amazon EC2 인스턴스의 가용 네트워크 대역폭을 효율적으로 활용하여 단일 인스턴스 전송 속도를 높입니다. 이러한 애플리케이션은 처리량을 더 높이기 위해 여러 인스턴스에서 처리량을 집계하여 초당 수 테라바이트의 데이터를 처리할 수 있습니다.

Q: Mountpoint for Amazon S3를 사용할 때 내 데이터에 대한 액세스를 제어하려면 어떻게 해야 하나요?

Mountpoint for Amazon S3를 사용하면 버킷 정책과 AWS Identity and Access Management(IAM) 정책을 비롯한 Amazon S3의 기존 액세스 제어 메커니즘을 사용하여 데이터에 대한 액세스를 제어할 수 있습니다. Mountpoint for Amazon S3는 읽기 및 쓰기와 같은 파일 시스템 작업을 S3 버킷에 대한 객체 API 요청으로 변환합니다. 이후 Amazon S3는 사용자 및 버킷에 대한 정책 등의 모든 관련 정책을 평가하여 요청 승인 여부를 결정합니다. Mountpoint for Amazon S3는 새로운 액세스 제어 메커니즘을 도입하지 않습니다.

Q: Mountpoint for Amazon S3는 사용자 ID, 그룹 ID 및 권한 필드와 같은 POSIX 스타일의 메타데이터를 지원하나요?

Mountpoint for Amazon S3는 사용자 ID, 그룹 ID 및 권한 필드와 같은 POSIX 스타일의 메타데이터 읽기 또는 쓰기를 지원하지 않습니다. Amazon S3 또는 AWS DataSync와 함께 Amazon FSx for Lustre를 사용하여 S3 객체에 대한 POSIX 스타일의 메타데이터를 저장할 수 있습니다.

Q: Mountpoint for Amazon S3는 AWS PrivateLink를 통한 액세스를 지원하나요?

예. Mountpoint for Amazon S3는 AWS PrivateLink를 통한 액세스를 지원합니다. AWS PrivateLink for S3는 Amazon S3와 온프레미스 간의 프라이빗 연결을 제공합니다. VPC에서 S3용 인터페이스 VPC 엔드포인트를 프로비저닝하여 AWS Direct Connect나 AWS VPN을 통해 S3에 온프레미스 애플리케이션을 직접 연결할 수 있습니다.

Q: Mountpoint for Amazon S3는 게이트웨이 VPC 엔드포인트를 통한 액세스를 지원하나요?

예. Mountpoint for Amazon S3는 게이트웨이 VPC 엔드포인트를 통한 액세스를 지원합니다. 온프레미스 또는 다른 AWS 리전의 VPC에서 S3에 액세스하려는 경우 AWS PrivateLink 기반의 인터페이스 VPC 엔드포인트를 사용하는 것이 좋습니다. S3 버킷과 동일한 AWS 리전에 있는 VPC에서 S3에 액세스하는 리소스의 경우 요금이 청구되지 않으므로 게이트웨이 VPC 엔드포인트를 사용하는 것이 좋습니다.

Q: Amazon Elastic Kubernetes Service(Amazon EKS) 포드에서 Amazon S3에 액세스할 수 있나요?

예. AWS SDK와 AWS CLI를 사용하여 Amazon EKS에서 Amazon S3에 액세스할 수 있습니다. 파일 시스템 인터페이스를 사용하여 데이터를 읽고 쓰는 애플리케이션의 경우 Mountpoint for Amazon S3 Container Storage Interface(CSI) 드라이버를 사용할 수 있습니다. Mountpoint for Amazon S3 CSI 드라이버를 사용하면 단 한 줄의 애플리케이션 코드나 권한 모델을 변경하지 않고도 높은 수준의 총 처리량(초당 테라비트)을 달성할 수 있습니다. Mountpoint for Amazon S3와 마찬가지로 S3 CSI 드라이버는 기존 파일에 대한 순차 및 무작위 읽기 작업과 새 파일 생성을 위한 순차 쓰기 작업을 지원합니다. 지원되는 파일 시스템 작업에 대한 자세한 내용은 Mountpoint for Amazon S3 파일 시스템 동작을 참조하세요. EKS 콘솔, AWS CLI, EKS API 또는 AWS CloudFormation에서 클릭 몇 번으로 Mountpoint for Amazon S3 CSI 드라이버를 설치, 구성 및 업데이트할 수 있습니다.

시작할 준비가 되셨나요?

제품 기능 확인

데이터 관리, 보안, 액세스 관리, 분석 등의 기능에 대해 자세히 알아보십시오.

자세히 알아보기 
무료 계정에 가입

지금 바로 AWS 프리 티어에 액세스하여 Amazon S3를 체험해 보세요. 

가입 
콘솔에서 구축 시작

AWS 콘솔에서 Amazon S3 구축을 시작하세요.

시작하기