FAQ S3 Umum

T: Apa itu Amazon S3?

Amazon S3 adalah penyimpanan objek yang dibangun untuk menyimpan dan mengambil sejumlah data dari mana pun di Internet. Ini adalah layanan penyimpanan sederhana yang menawarkan infrastruktur penyimpanan data yang sangat tahan lama, sangat tersedia, dan dapat diskalakan tanpa batas pada biaya yang sangat rendah.

T: Apa yang dapat saya lakukan dengan Amazon S3?

Amazon S3 memberikan antarmuka layanan web sederhana yang dapat Anda gunakan untuk menyimpan dan mencari sejumlah data, kapan pun, dari mana pun pada web. Dengan menggunakan layanan web ini, Anda dapat dengan mudah membuat aplikasi yang menggunakan penyimpanan Internet. Karena Amazon S3 sangat mudah diskalakan dan Anda hanya membayar yang Anda gunakan, Anda dapat memulai dari langkah kecil dan mengembangkan aplikasi sesuai keinginan, tanpa perlu berkompromi dengan kinerja atau keandalannya.

Amazon S3 juga dirancang untuk fleksibilitas yang tinggi. Simpan data dengan tipe apa pun dan kapasitas berapa pun yang Anda inginkan; baca bagian data yang sama jutaan kali atau hanya untuk pemulihan musibah darurat; bangun aplikasi FTP sederhana, atau aplikasi web yang canggih seperti situs web retail Amazon.com. Amazon S3 membebaskan pengembang untuk fokus pada inovasi, alih-alih mencari cara bagaimana menyimpan data mereka.

T: Bagaimana cara saya mulai menggunakan Amazon S3?

Untuk mendaftar Amazon S3, klik tautan ini. Anda harus memiliki akun Amazon Web Services untuk mengakses layanan ini; jika belum memiliki akun, Anda akan diarahkan untuk membuatnya pada saat Anda memulai proses daftar ke Amazon S3. Setelah mendaftar, silakan lihat dokumentasi Amazon S3 dan kode sampel pada Pusat Sumber Daya untuk mulai menggunakan Amazon S3.

T:    Apa yang dapat pengembang lakukan dengan Amazon S3 tetapi tidak dapat dilakukan dengan solusi di lokasi?

Amazon S3 memungkinkan pengembang mana pun untuk meningkatkan manfaat yang dimiliki Amazon dengan skala luas tanpa berkompromi dengan investasi awal atau kinerjanya. Pengembang saat ini bisa bebas berinovasi mengingat bahwa terlepas dari sesukses apa pun bisnis mereka, biayanya terjangkau dan mudah untuk memastikan data mereka dapat diakses dengan cepat, selalu tersedia, dan aman.

T:     Jenis data apa yang dapat saya simpan di dalam Amazon S3?

Anda dapat menyimpan data jenis apa saja secara virtual dalam format apa pun. Silakan lihat Persetujuan Lisensi Amazon Web Services untuk detailnya.

T:     Seberapa banyak data yang dapat saya simpan di dalam Amazon S3?

Volume total data dan jumlah objek yang dapat Anda simpan tidak terbatas. Objek Amazon S3 individu dapat beragam ukurannya dari minimal 0 byte hingga maksimal 5 terabyte. Objek terbesar yang dapat diunggah dalam PUT tunggal adalah sebesar 5 gigabyte. Untuk objek berukuran lebih besar dari 100 megabyte, pelanggan hendaknya mempertimbangkan untuk menggunakan kemampuan Unggahan Multipart.

T: Kelas penyimpanan apa yang ditawarkan oleh Amazon S3?

Amazon S3 menawarkan beragam kelas penyimpanan untuk penggunaan yang berbeda. Ini mencakup Standar S3 untuk penyimpanan umum data yang sering diakses; S3 Intelligent-Tiering untuk data dengan pola akses yang berubah atau tidak diketahui; S3 Standard-Infrequent Access (S3 Standard-IA) dan S3 One Zone-Infrequent Access (S3 One Zone-IA) untuk data yang lama disimpan atau tidak terlalu sering diakses; dan Amazon S3 Glacier (S3 Glacier) dan Amazon S3 Glacier Deep Archive (S3 Glacier Deep Archive) untuk penyimpanan jangka panjang dan preservasi digital.  Anda dapat mempelajari selengkapnya tentang keempat kelas penyimpanan pada halaman Kelas Penyimpanan Amazon S3

T:       Apa yang dilakukan Amazon pada data saya di Amazon S3?

Amazon akan menyimpan data Anda dan melacak penggunaannya yang terkait untuk tujuan penagihan. Amazon tidak akan mengakses data Anda untuk tujuan apa pun di luar penawaran Amazon S3, kecuali apabila perlu dilakukan oleh hukum. Silakan lihat Persetujuan Lisensi Amazon Web Services untuk detailnya.

T:        Apakah Amazon menyimpan datanya di Amazon S3?

Ya. Pengembang di Amazon menggunakan Amazon S3 untuk berbagai proyek. Beberapa proyek tersebut menggunakan Amazon S3 sebagai penyimpanan data otoritatif, dan mengandalkannya untuk operasi bisnis yang kritis.

T:         Bagaimana data Amazon S3 dikelola?

Amazon S3 adalah penyimpanan objek berbasis kunci yang mudah. Pada saat menyimpan data, Anda menetapkan kunci objek unik yang nantinya dapat digunakan untuk mendapatkan data tersebut. Kunci dapat berupa string apa pun, dan dapat dibuat untuk menyalin atribut hierarkis. Sebagai alternatif, Anda dapat menggunakan Pemberian Tag Objek S3 untuk mengatur data Anda di seluruh bucket S3 dan/atau prefiks Anda.

T:          Bagaimana saya dapat melakukan antarmuka dengan Amazon S3?

Amazon S3 memberikan antarmuka layanan web REST berbasis standar yang mudah, yang dirancang untuk bekerja dengan toolkit pengembangan Internet. Operasi tersebut sengaja dibuat sederhana agar memudahkan untuk menambahkan protokol distribusi dan lapisan fungsional baru.

T:           Seberapa andal Amazon S3 itu?

Amazon S3 memberikan akses yang sama kepada pengembang mana pun ke infrastruktur penyimpanan data yang sangat mudah diskalakan, tersedia, cepat, terjangkau yang digunakan Amazon untuk menjalankan jaringan global situs webnya. Kelas penyimpanan Standar S3 dirancang untuk 99,99% ketersediaan, kelas penyimpanan IA– Standar S3 dirancang untuk ketersediaan 99,9%, dan kelas penyimpanan IA – Satu Zona S3 dirancang untuk 99,5% ketersediaan. Seluruh kelas penyimpanan ini didukung dengan Perjanjian Tingkat Layanan Amazon S3.

T:           Akan seperti apa kinerja Amazon S3 jika lalu lintas aplikasi saya melonjak tiba-tiba?

Amazon S3 dirancang dari bawah ke atas untuk menangani lalu lintas pada aplikasi Internet apa pun. Harga bayar sesuai pemakaian dan kapasitasnya yang tidak terbatas memungkinkan agar biaya tambahan Anda tidak berubah dan layanan Anda tidak terganggu. Skala luas milik Amazon S3 memungkinkan kami untuk menyebarkan muatan secara merata, sehingga tidak ada aplikasi individu yang terpengaruh oleh melonjaknya lalu lintas.

T:           Apakah Amazon S3 menawarkan Perjanjian Tingkat Layanan (SLA)?

Ya. SLA Amazon S3 memberikan kredit layanan jika persentase aktif bulanan pelanggan di bawah komitmen layanan kami pada siklus tagihan apa pun.

Wilayah AWS

T:  Di mana data saya disimpan?

Anda menentukan Wilayah AWS pada saat membuat bucket Amazon S3. Untuk kelas penyimpanan Standar S3, IA-Standar S3, dan S3 Glacier, objek Anda secara otomatis disimpan di berbagai perangkat yang mencakup minimum 3 Availability Zone, yang masing-masing terpisah oleh jarak mil di seluruh Wilayah AWS. Objek yang disimpan dalam kelas penyimpanan IA–Satu Zona S3 disimpan secara redundan dalam Availability Zone tunggal dalam Wilayah AWS yang dipilih. Silakan lihat Produk dan Layanan Regional untuk detail ketersediaan layanan Amazon S3 menurut Wilayah AWS.

T:  Apa itu Wilayah AWS?

Wilayah AWS adalah lokasi geografis di mana AWS menyediakan banyak Availability Zone yang secara fisik terpisah dan terisolasi yang dihubungkan dengan latensi yang rendah, beban kerja yang tinggi, dan jaringan yang sangat melimpah.

T:  Apa itu Availability Zone (AZ) AWS?

AWS Availability Zone adalah lokasi terisolasi dalam Wilayah AWS. Dalam tiap Wilayah AWS, S3 mengoperasikan minimum tiga AZ, masing-masing terpisah oleh jarak mil untuk melindungi dari peristiwa setempat seperti kebakaran, banjir, dll.

Kelas penyimpanan Amazon S3 Standar, Akses Jarang – Standar S3, dan Amazon S3 Glacier mereplikasi data setidaknya tiga AZ untuk melindungi dari kehilangan salah satu dari keseluruhan AZ. Ini tetap benar dalam Wilayah di mana lebih sedikit dari tiga AZ secara publik tersedia. Objek yang disimpan dalam kelas penyimpanan ini tersedia untuk akses dari semua AZ dalam Wilayah AWS.

Kelas penyimpanan IA–Satu Zona Amazon S3 mereplikasi data dalam AZ tunggal. Data yang disimpan dalam kelas penyimpanan ini terancam hilang dalam kejadian kehancuran AZ.

T:  Bagaimana cara saya menentukan Wilayah AWS mana untuk menyimpan data saya?

Terdapat beberapa faktor untuk dipertimbangkan berdasarkan pada aplikasi spesifik Anda. Anda mungkin ingin menyimpan data Anda di Wilayah yang…

  • ...dekat dengan pelanggan, pusat data, atau sumber AWS Anda lainnya untuk mengurangi latensi akses data.
  • ...jauh dari operasi Anda lainnya karena redundansi geografis dan tujuan pemulihan musibah.
  • ...memungkinkan Anda menangani persyaratan hukum dan peraturan spesifik.
  • ...memungkinkan Anda mengurangi biaya penyimpanan. Anda dapat memilih wilayah dengan biaya yang lebih rendah untuk menghemat uang. Untuk informasi harga S3, silakan kunjungi halaman harga S3.

T:  Di mana saja Amazon S3 tersedia?

Amazon S3 tersedia dalam Wilayah AWS di seluruh dunia, dan Anda dapat menggunakan Amazon S3 terlepas di mana lokasi Anda. Anda hanya harus menentukan wilayah AWS mana yang diinginkan untuk menyimpan data Amazon S3. Lihat Tabel Ketersediaan Wilayah AWS untuk daftar wilayah AWS tempat S3 tersedia saat ini.

Penagihan

T: Berapa banyak biaya Amazon S3?

Dengan Amazon S3, Anda hanya membayar apa yang digunakan. Tidak ada biaya minimum. Anda dapat memperkirakan tagihan bulanan dengan menggunakan Kalkulator Bulanan Praktis AWS.

Kami mengenakan biaya lebih sedikit sementara biaya kami lebih sedikit. Beberapa harga beragam di seluruh Wilayah Amazon S3. Harga tahunan berdasarkan lokasi bucket Anda. Tidak dikenakan biaya Transfer Data untuk data yang ditransfer di dalam Wilayah Amazon S3 melalui permintaan COPY. Data yang ditransfer melalui permintaan SALIN antar Wilayah AWS dikenakan biaya pada tarif yang dijelaskan pada bagian harga di halaman detail Amazon S3. TIdak ada biaya Data Transfer untuk data yang ditransfer antara Amazon EC2 dan Amazon S3 dalam wilayah yang sama, misalnya, data yang ditransfer dalam Wilayah AS Timur (Virginia Utara). Namun, data yang ditransfer di antara Amazon EC2 dan Amazon S3 di seluruh wilayah lain dikenakan biaya yang ditentukan dalam halaman harga Amazon S3, misalnya, data yang ditransfer antara Amazon EC2 Wilayah AS Timur (Virginia Utara) dan Amazon S3 AS Barat (California Utara).

T: Bagaimana saya dikenai biaya dan ditagihkan atas penggunaan Amazon S3 saya?

Tidak ada biaya atau komitmen terikat untuk mulai menggunakan layanan ini. Pada akhir bulan, kartu kredit Anda secara otomatis akan dikenai biaya atas penggunaan bulan tersebut. Anda dapat melihat biaya yang ditagihkan pada Anda untuk periode tagihan terbaru kapan pun di situs web Amazon Web Services, dengan masuk ke akun Amazon Web Services Anda, dan klik “Aktivitas Akun” di bawah “Akun Web Services Anda”.

Dengan Tingkat Penggunaan Gratis AWS*, Anda dapat memulai dengan Amazon S3 secara gratis di semua wilayah kecuali AWS GovCloud Region. Setelah Mendaftar, pelanggan AWS baru akan menerima 5 GB penyimpanan standar Amazon S3, 20.000 Permintaan Dapatkan, 2.000 Permintaan Letakkan, 15 GB transfer data masuk, dan 15 GB transfer data keluar setiap bulan selama satu tahun.

Amazon S3 mengenakan biaya pada Anda untuk tipe penggunaan berikut ini. Perhatikan bahwa kalkulasi di bawah ini diasumsikan tidak terdapat Tingkat Gratis AWS yang siap digunakan.

Penyimpanan yang Digunakan:

Harga penyimpanan Amazon S3 dirangkum pada halaman Harga Amazon S3.

Volume penyimpanan yang ditagihkan dalam satu bulan berdasarkan pada penyimpanan rata-rata yang digunakan di sepanjang bulan tersebut. Ini termasuk semua data objek dan metadata yang disimpan dalam bucket yang Anda buat pada akun AWS Anda. Kami mengukur penggunaan penyimpanan Anda dalam "TimedStorage-ByteHrs," yang ditambahkan pada akhir bulan untuk mendapatkan biaya bulanan.

Contoh Penyimpanan:

Misal Anda menyimpan 100 GB (107.374.182.400 byte) data penyimpanan Amazon S3 Standar dalam bucket selama 15 hari pada bulan Maret, dan 100 TB (109.951.162.777.600 byte) data penyimpanan Amazon S3 Standar selama 16 hari terakhir pada bulan Maret.

Pada akhir bulan Maret, Anda akan memiliki penggunaan berikut ini dalam Byte-Jam: Total penggunaan Byte -Jam = [107.374.182.400 byte x 15 hari x (24 jam/hari)] + [109.951.162.777.600 byte x 16 hari x (24 jam/hari)] = 42.259.901.212.262.400 Byte-Jam.

Mari lakukan konversi ini ke GB-Bulan: 42.259.901.212.262.400 Byte-Jam/1.073.741.824 byte per GB/744 jam per bulan = 52.900 GB-Bulan

Volume penggunaan ini melewati dua tingkat volume yang berbeda. Harga penyimpanan bulanan dikalkulasi di bawah ini dengan memisalkan data disimpan di Wilayah AS Timur (Virginia Utara): Tingkat 50 TB: 51.200 GB x 0,023 USD = 1.177,60 USD 50 TB ke 450 Tingkat TB: 1.700 GB x 0,022 USD = 37,40 USD

Biaya Penyimpanan Total = 1.177,60 USD + 37,40 USD = 1.215,00 USD

Data Jaringan yang Ditransfer Masuk:

Harga Transfer Data Masuk Amazon S3 dirangkum pada halaman Harga Amazon S3. Ini merepresentasikan jumlah data yang dikirim ke bucket Amazon S3 Anda. 

Data Jaringan yang Ditransfer Keluar:

Harga Transfer Data Keluar Amazon S3 dirangkum pada halaman Harga Amazon S3. Untuk Amazon S3, biaya ini berlaku setiap kali data dibaca dari bucket Anda dari lokasi di luar Wilayah Amazon S3 yang ditetapkan.

Tarif harga Transfer Data Keluar mempertimbangkan Transfer Data Keluar agregat Anda dari wilayah yang ditetapkan ke Internet melalui Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS, dan Amazon VPC. Tingkat ini tidak berlaku untuk Transfer Data Keluar dari Amazon S3 dalam satu wilayah AWS ke wilayah AWS lain.

Contoh Transfer Data Keluar:
Misal Anda mentransfer 1TB data Amazon S3 keluar dari Wilayah AS Timur (Virginia Utara) ke Internet setiap hari selama satu bulan sebanyak 31 hari yang telah ditetapkan. Misal Anda juga mentransfer 1TB data instans Amazon EC2 keluar dari wilayah yang sama ke Internet selama satu bulan sebanyak 31 hari yang sama.

Transfer Data agregat Anda sebesar 62 TB (31 TB dari Amazon S3 dan 31 TB dari Amazon EC2). Ini sama dengan 63.488 GB (62 TB * 1024 GB/TB).

Volume penggunaan ini melewati tiga tingkat volume yang berbeda. Biaya Transfer Data Keluar bulanan dikalkulasi di bawah ini dengan memisalkan Transfer Data terjadi di Wilayah AS Timur (Virginia Utara):
Tingkat 10 TB: 10.239 GB (10×1024 GB/TB – 1 (gratis)) x 0,09 USD = 921,51 USD
Tingkat 10 TB ke 50 TB: 40.960 GB (40×1024) x 0,085 USD = 3.481,60 USD
Tingkat 50 TB ke 150 TB: 12.288 GB (sisa) x 0,070 USD = 860,16 USD

Biaya Transfer Data Keluar Total = 921,51 USD + 3.481,60 USD + 860,16USD= 5.263,27 USD

Permintaan Data:

Harga permintaan Amazon S3 dirangkum pada Diagram Harga Amazon S3.

Contoh Permintaan:
Misal Anda mentransfer 10.000 file ke dalam Amazon S3 dan mentransfer 20.000 file keluar dari Amazon S3 setiap hari selama bulan Maret. Kemudian, Anda menghapus 5.000 file pada tanggal 31 Maret.
Permintaan PUT Total = 10.000 permintaan x 31 hari = 310.000 permintaan
Permintaan GET Total = 20.000 permintaan x 31 hari = 620.000 permintaan
Permintaan DELETE Total = 5.000 ×1 hari = 5.000 permintaan

Misal bucket Anda berada di Wilayah AS Timur (Virginia Utara), biaya Permintaan dikalkulasi di bawah ini:
310,000 Permintaan PUT: 310.000 permintaan x 0,005 USD/1.000 = 1,55 USD
620,000 Permintaan GET: 620.000 permintaan x 0,004 USD/10.000 = 0,25 USD
5,000 permintaan DELETE = 5.000 permintaan x 0,00 USD (tanpa biaya) = 0,00 USD

Pengambilan Data:

Harga pengambilan data Amazon S3 berlaku untuk kelas penyimpanan Akses Jarang – Standar S3 (IA–Standar S3) dan IA–Satu Zona S3 dan dirangkum padahalaman Harga Amazon S3.

Contoh Pencarian Data:
Misal dalam satu bulan Anda mendapat 300 GB IA–Standar S3, dengan 100 GB mencari di Internet, 100 GB mengunjungi EC2 di wilayah AWS yang sama, dan 100 GB mengunjungi CloudFront di wilayah AWS yang sama.

Biaya pengambilan data Anda selama satu bulan akan dihitung 300 GB x 0,01 USD/GB = 3,00 USD. Harap diingat bahwa Anda juga membayar biaya transfer data jaringan untuk porsi yang keluar ke Internet.

Silakan lihat di sini untuk detail mengenai tagihan objek yang diarsip ke Amazon S3 Glacier.

* * Penggunaan tingkat gratis Anda dikalkulasi setiap bulan melalui semua wilayah kecuali Wilayah AWS GovCloud dan secara otomatis dikenakan pada tagihan Anda – penggunaan bulanan yang tidak digunakan akan hangus. Batasan berlaku; lihat syarat penawaran untuk detail selengkapnya.

T:  Mengapa harganya bervariasi bergantung pada wilayah Amazon S3 yang saya pilih?

Kami mengenakan biaya lebih sedikit sementara biaya kami lebih sedikit. Sebagai contoh, biaya kami lebih rendah di wilayah AS Timur (Virginia Utara) daripada di daerah AS Barat (California Utara).

T: Bagaimana saya dikenai biaya dengan menggunakan Versioning?

Tarif Amazon S3 normal berlaku untuk setiap versi objek yang disimpan atau diminta. Sebagai contoh, mari kita perhatikan skenario berikut untuk mengilustrasikan biaya penyimpanan pada saat menggunakan Versioning (mari menganggap bulan saat ini selama 31 hari):

1) Hari ke-1 bulan tersebut: Anda melakukan PUT sebesar 4 GB (4.294.967.296 byte) di bucket Anda.
2) Hari ke-16 bulan tersebut: Anda melakukan PUT sebesar 5 GB (5.368.709.120 byte) di dalam bucket yang sama dengan menggunakan kunci yang sama dengan PUT asli pada Hari ke-1.

Pada saat menganalisis biaya penyimpanan dari operasi di atas, mohon perhatikan bahwa objek 4 GB dari Hari ke-1 tidak dihapus dari bucket pada saat objek 5 GB ditulis pada Hari ke-15. Namun, objek 4 GB dipertahankan sebagai versi yang lebih lama dan objek 5 GB menjadi versi objek tertulis yang terbaru di dalam bucket Anda. Pada akhir bulan:

Total penggunaan Byte-Jam
[4.294.967.296 byte x 31 hari x (24 jam/hari)] + [5.368.709.120 byte x 16 hari x (24 jam/hari)] = 5.257.039.970.304 Byte-Jam.

Konversi ke GB-Bulan Total
5.257.039.970.304 Byte-Jam x (1 GB/1.073.741.824 byte) x (1 bulan/744 jam) = 6,581 GB-Bulan

Biaya dikalkulasi berdasarkan pada tarif terakhir pada wilayah Anda pada Halaman Harga Amazon S3.

T:  Bagaimana saya dikenakan biaya karena mengakses Amazon S3 melalui AWS Management Console?

Harga Amazon S3 normal berlaku pada saat mengakses layanan melalui AWS Management Console. Untuk memberikan pengalaman yang optimal, AWS Management Console secara proaktif dapat menjalankan permintaan. Selain itu, beberapa operasi interaktif mengakibatkan lebih dari satu permintaan pada layanan.

T:  Bagaimana saya dikenai tagihan jika bucket Amazon S3 saya diakses dari akun AWS lain?

Harga Amazon S3 normal berlaku apabila penyimpanan Anda diakses oleh Akun AWS berbeda. Atau, Anda dapat memilih untuk mengonfigurasi bucket Anda sebagai bucket Peminta Membayar, yang dalam kasus ini peminta akan membayar biaya permintaan dan unduhan data Amazon S3 Anda.

Anda dapat menemukan informasi selengkapnya tentang konfigurasi bucket Peminta Membayar di Dokumentasi Amazon S3.

T:  Apakah harga tersebut termasuk potongan pajak?

Kecuali dinyatakan lain, harga tersebut tidak termasuk pajak dan beban biaya yang berlaku, termasuk PPN dan pajak penjualan yang berlaku. Untuk pelanggan dengan alamat tagihan Jepang, penggunaan layanan AWS tunduk pada Pajak Konsumsi Jepang.

Pelajari selengkapnya terkait pajak pada Produk AWS »

Keamanan

T:  Seberapa aman data saya di dalam Amazon S3?     

Amazon S3 aman secara default. Dalam pembuatan, hanya pemilik sumber daya yang memiliki akses ke sumber daya Amazon S3 yang dibuat. Amazon S3 mendukung autentikasi pengguna untuk mengontrol akses ke data. Anda dapat menggunakan mekanisme kontrol akses seperti kebijakan bucket dan Access Control List (ACL) untuk secara selektif memberikan izin kepada pengguna dan grup pengguna. Konsol Amazon S3 menyoroti bucket Anda yang dapat diakses secara publik, menunjukkan sumber aksesibilitas publik, dan juga memperingatkan Anda jika perubahan pada kebijakan bucket atau ACL bucket akan membuat bucket Anda dapat diakses secara publik. Anda harus mengaktifkan Akses Publik Blok untuk semua akun dan bucket yang Anda tidak ingin untuk dapat diakses oleh publik.

Anda dapat dengan aman mengunggah/mengunduh data Anda ke Amazon S3 melalui titik akhir SSL dengan menggunakan protokol HTTPS. Jika Anda memerlukan keamanan ekstra, Anda dapat menggunakan opsi Server-Side Encryption (SSE) untuk mengenkripsi data yang disimpan dan tidak digunakan. Anda dapat mengonfigurasikan bucket Amazon S3 Anda untuk mengenkripsi objek secara otomatis sebelum menyimpannya jika permintaan penyimpanan yang masuk tidak memiliki informasi enkripsi apa pun. Sebagai alternatif, Anda dapat menggunakan perpustakaan enkripsi Anda untuk mengenkripsi data sebelum menyimpannya di Amazon S3.

T:  Bagaimana cara saya mengontrol akses ke data saya yang disimpan di Amazon S3?

Pelanggan dapat menggunakan empat mekanisme untuk mengontrol akses ke sumber Amazon S3: kebijakan Identity and Access Management (IAM), kebijakan bucket, Access Control List (ACL), dan autentikasi string kueri. IAM memungkinkan organisasi dengan banyak pegawai untuk membuat dan mengelola berbagai pengguna di bawah akun AWS tunggal. Dengan kebijakan IAM, pelanggan dapat memberikan pengguna IAM kontrol ketat ke bucket atau objek Amazon S3 mereka sementara juga mempertahankan kontrol penuh pada semua hal yang dilakukan pengguna tersebut. Dengan kebijakan bucket, pelanggan dapat menentukan aturan yang berlaku secara luas pada semua permintaan ke sumber Amazon S3 mereka, seperti memberi keistimewaan tertulis ke serangkaian sumber Amazon S3. Pelanggan juga dapat membatasi akses berdasarkan pada aspek permintaan, seperti pengacu HTTP dan alamat IP. Dengan ACL, pelanggan dapat memberikan izin spesifik (yaitu BACA, TULIS, FULL_CONTROL) kepada pengguna spesifik untuk bucket atau objek individu. Dengan autentikasi string kueri, pelanggan dapat membuat URL ke objek Amazon S3 yang hanya valid untuk selama waktu yang terbatas. Untuk informasi selengkapnya tentang kebijakan kontrol akses yang tersedia di Amazon S3, silakan lihat topik Kontrol Akses di Pedoman Pengembang Amazon S3.

T:  Apakah Amazon S3 mendukung audit akses data?

Ya, pelanggan secara opsional dapat mengonfigurasikan bucket Amazon S3 untuk membuat catatan log akses untuk semua permintaan yang dilakukan terhadapnya. Secara alternatif, pelanggan yang perlu mencuplik informasi identitas IAM/pengguna di dalam log, dapat mengonfigurasi Kejadian Data AWS CloudTrail.

Catatan log akses ini dapat digunakan untuk tujuan audit dan mengandung detail tentang permintaan, seperti tipe permintaan, sumber yang dijelaskan dalam permintaan, dan waktu dan tanggal pemrosesan permintaan.

T:  Opsi apa yang saya miliki untuk mengenkripsi data di Amazon S3?

Anda dapat memilih untuk mengenkripsi data dengan menggunakan SSE-S3, SSE-C, SSE-KMS, atau perpustakaan klien seperti Klien Enkripsi Amazon S3. Keempatnya memungkinkan Anda untuk menyimpan data sensitif yang dienkripsi sebagai tidak ditransfer di Amazon S3.

SSE-S3 memberikan solusi terintegrasi di mana Amazon menangani manajemen kunci dan proteksi kunci dengan menggunakan berbagai lapisan keamanan. Anda sebaiknya memilih SSE-S3 jika lebih memilih agar Amazon mengelola kunci Anda.

SSE-C memungkinkan Anda untuk mendorong Amazon S3 untuk melakukan enkripsi dan dekripsi objek Anda sementara tetap mempertahankan kontrol kunci yang digunakan untuk mengenkripsi objek. Dengan SSE-C, Anda tidak perlu menerapkan atau menggunakan perpustakaan klien samping untuk melakukan enkripsi dan dekripsi objek yang Anda simpan di Amazon S3, tetapi Anda perlu mengelola kunci yang Anda kirimkan ke Amazon S3 untuk mengenkripsi dan mendekripsi objek. Gunakan SSE-C jika Anda ingin mengelola kunci enkripsi Anda sendiri, tetapi tidak ingin menerapkan atau mendorong perpustakaan enkripsi klien samping.

SSE-KMS memungkinkan Anda untuk menggunakan AWS Key Management Service (AWS KMS) untuk mengelola kunci enkripsi Anda sendiri. Dengan menggunakan AWS KMS untuk mengelola kunci Anda memberikan beberapa manfaat tambahan. Dengan AWS KMS, terdapat izin terpisah untuk penggunaan kunci master, yang memberikan lapisan kontrol tambahan serta proteksi terhadap akses yang tidak diotorisasi pada objek Anda yang disimpan di Amazon S3. AWS KMS memberikan pelacakan audit sehingga Anda dapat mengetahui siapa yang menggunakan kunci Anda untuk mengakses objek mana dan kapan, serta melihat upaya yang gagal dalam mengakses data dari pengguna yang tanpa izin mendekripsi data. Selain itu, AWS KMS memberikan kontrol keamanan tambahan untuk mendukung upaya pelanggan untuk patuh dengan syarat-syarat industri PCI-DSS, HIPAA/HITECH, dan FedRAMP.

Dengan menggunakan perpustakaan klien enkripsi, seperti Klien Enkripsi Amazon S3, Anda tetap mempertahankan kontrol kunci dan menyelesaikan enkripsi dan dekripsi klien samping objek dengan menggunakan perpustakaan enkripsi pilihan Anda. Beberapa pelanggan lebih memilih kontrol enkripsi dan dekripsi objek dua pihak; dengan demikian, hanya objek yang terenkripsi yang ditransmisikan melalui Internet ke Amazon S3. Gunakan perpustakaan klien samping jika Anda ingin tetap mempertahankan kontrol kunci enkripsi Anda, mampu menerapkan atau menggunakan perpustakaan enkripsi klien samping, dan membutuhkan agar objek Anda terenkripsi sebelum dikirimkan ke Amazon S3 untuk disimpan.

Untuk informasi selengkapnya tentang penggunaan Amazon S3 SSE-S3, SSE-C, atau SSE-KMS, silakan lihat topik pada Menggunakan Enkripsi di Pedoman Pengembang Amazon S3.

T:  Dapatkah saya mematuhi peraturan privasi EU dengan menggunakan Amazon S3?

Pelanggan dapat memilih untuk menyimpan semua data di EU dengan menggunakan wilayah EU (Frankfurt), EU (Irlandia), EU (London), atau EU (Paris). Merupakan tanggung jawab Anda untuk memastikan bahwa Anda mematuhi hukum privasi EU. Silakan lihat Pusat GDPR AWS untuk informasi selengkapnya.

T:  Di mana saya dapat menemukan informasi tentang keamanan di AWS?

Untuk informasi selengkapnya tentang keamanan AWS, silakan lihat dokumen Amazon Web Services: Gambaran Umum Proses Keamanan kami.

T:  Apa itu Titik Akhir VPC Amazon untuk Amazon S3?

Titik Akhir VPC Amazon untuk Amazon S3 adalah entitas logis dalam VPC yang memungkinkan konektivitas ke S3 saja. Titik Akhir VPC merute permintaan ke S3 dan merute respons kembali ke VPC. Untuk informasi selengkapnya tentang Titik Akhir VPC, baca Menggunakan Titik Akhir VPC.

T:  Dapatkah saya mengizinkan akses Titik Akhir VPC Amazon khusus ke bucket Amazon S3 saya?

Anda dapat membatasi akses ke bucket Anda dari Titik Akhir VPC Amazon khusus atau serangkaian titik akhir dengan menggunakan kebijakan bucket Amazon S3. Kebijakan bucket S3 saat ini mendukung suatu kondisi, aws:sourceVpce, yang dapat Anda gunakan untuk membatasi akses. Untuk detail dan kebijakan contoh selengkapnya, baca Menggunakan Titik Akhir VPC.

T: Apa itu Amazon Macie?

Amazon Macie adalah layanan keamanan didukung AI yang membantu Anda mencegah kehilangan data dengan secara otomatis mencari, mengelompokkan, dan memproteksi data sensitif yang disimpan di Amazon S3. Amazon Macie menggunakan machine learning untuk mengenali data sensitif seperti informasi yang dapat diidentifikasi secara pribadi (PII) atau kekayaan intelektual, menetapkan nilai bisnis, dan memberikan visibilitas pada lokasi di mana data ini disimpan dan bagaimana data ini digunakan di organisasi Anda. Amazon Macie secara terus menerus memantau aktivitas akses data untuk anomali, dan menyampaikan peringatan apabila mendeteksi risiko akses tanpa otorisasi atau kebocoran data yang tidak disengaja.

Q:  Apa yang dapat saya lakukan dengan Amazon Macie?

Anda dapat menggunakan Amazon Macie untuk melindungi data dari ancaman keamanan dengan secara terus menerus memantau data dan kredensial akun Anda. Amazon Macie memberi Anda touch way otomatis dan rendah untuk mencari dan mengelompokkan data bisnis Anda. Amazon Macie memberikan kontrol melalui fungsi Lambda bertemplate untuk menolak akses atau memicu kebijakan pengaturan ulang kata kunci pada saat dijumpai perilaku mencurigakan atau akses data tanpa otorisasi ke entitas atau aplikasi pihak ketiga. Ketika peringatan didapatkan, Anda dapat menggunakan Amazon Macie untuk respons terhadap insiden, dengan menggunakan Amazon CloudWatch Events untuk mengambil tindakan secara cepat untuk memproteksi data Anda.

T:  Bagaimana cara Amazon Macie mengamankan data Anda?

Sebagai bagian dari proses klasifikasi data, Amazon Macie mengidentifikasi objek pelanggan pada bucket S3 mereka, dan mengalirkan konten objek ke memori untuk dianalisis. Apabila analisis lebih lanjut diperlukan untuk format file yang kompleks, Amazon Macie akan mengunduh salinan objek penuh, hanya menyimpannya untuk jangka pendek untuk menganalisis objek sepenuhnya. Sesaat setelah Amazon Macie menganalisis konten file untuk klasifikasi data, Amazon Macie akan menghapus konten yang disimpan dan hanya mempertahankan metadata yang diperlukan untuk analisis di waktu mendatang. Setiap saat, pelanggan dapat menolak akses Amazon Macie ke data di bucket Amazon S3. Untuk informasi selengkapnya, kunjungi Pedoman Pengguna Amazon Macie.

Daya Tahan & Perlindungan Data

T:  Seberapa tahan lama Amazon S3 itu?

Amazon S3 Standar, IA-Standar S3, IA-Satu Zona S3, dan S3 Glacier semuanya dirancang untuk memberikan daya tahan 99,999999999% objek selama tahun yang ditetapkan. Level daya tahan ini sesuai dengan kehilangan terprediksi tahunan rata-rata sebesar 0,000000001% objek. Sebagai contoh, jika Anda menyimpan 10.000.000 objek dengan Amazon S3, dalam rata-rata Anda dapat memperkirakan akan mengalami kehilangan objek tunggal sekali setiap 10.000 tahun. Sebagai tambahan, Standar Amazon S3, IA-Standar S3, dan S3 Glacier, semuanya dirancang untuk menjaga data terhadap terjadinya kehilangan seluruh Availability Zone S3.

Dalam berbagai lingkungan, praktik terbaiknya adalah memiliki cadangan dan memberlakukan pengamanan yang tepat terhadap kesalahan penghapusan yang tidak disengaja dan tidak diinginkan. Untuk data S3, praktik terbaik tersebut mencakup izin akses yang aman, Replikasi Lintas Wilayah, versioning dan pemfungsian, cadangan yang diuji secara teratur. 

T:  Bagaimana Amazon S3 dan Amazon S3 Glacier dirancang untuk mengarsipkan daya tahan 99,999999999%?

Kelas penyimpanan Amazon S3 Standar, IA-Standar S3, dan S3 Glacier secara redundan menyimpan objek Anda pada banyak perangkat di sekitar setidaknya tiga Availability Zone (AZ) di Wilayah Amazon S3 sebelum mengembalikan SUCCESS. Kelas penyimpanan IA-Satu Zona S3 menyimpan data secara redundan di berbagai perangkat dalam AZ tunggal. Produk ini dirancang untuk menahan kegagalan perangkat secara berulang dengan secara cepat mendeteksi dan memperbaiki segala redundansi, dan juga secara reguler memverifikasi integritas data Anda menggunakan checksum.

T:  Checksum apa yang digunakan oleh Amazon S3 untuk mendeteksi perusakan data?

Amazon S3 menggunakan kombinasi checksum Content-MD5 dan pemeriksaan redundansi bersiklus (CRC) untuk mendeteksi perusakan data. Amazon S3 melakukan checksum ini pada data yang tidak digunakan dan memulihkan kerusakan dengan menggunakan data yang memiliki redundansi. Selain itu, layanan menghitung checksum pada semua lalu lintas jaringan untuk mendeteksi perusakan paket data pada saat menyimpan atau mencari data.

T: Apa itu Versioning?

Versioning memungkinkan Anda mempertahankan, mencari, dan memulihkan setiap versi pada setiap objek yang disimpan di bucket Amazon S3. Setelah Anda mengaktifkan Versioning pada bucket, Amazon S3 mempertahankan objek yang ada kapan pun Anda melakukan operasi PUT, POST, COPY, atau DELETE pada objek. Secara default, permintaan GET akan mencari versi tertulis yang terbaru. Versi lebih lama pada objek yang ditimpakan atau dihapus dapat dicari dengan menentukan versi pada permintaan.

t:  Mengapa saya harus menggunakan Versioning?

Amazon S3 memberikan pelanggan infrastruktur penyimpanan yang berdaya tahan tinggi. Versioning menawarkan level proteksi tambahan dengan menyediakan metode pemulihan apabila pelanggan secara tidak sengaja menimpakan atau menghapus objek. Hal ini memungkinkan Anda untuk melakukan pemulihan dengan mudah dari tindakan pengguna yang tidak disengaja atau kegagalan aplikasi. Anda juga dapat menggunakan Versioning untuk retensi dan pengarsipan data.

T:  Bagaimana cara saya mulai menggunakan Versioning?

Anda dapat mulai menggunakan Versioning dengan mengaktifkan pengaturan pada bucket Amazon S3 Anda. Untuk informasi selengkapnya tentang cara mengaktifkan Versioning, silakan lihat Dokumentasi Teknis Amazon S3.

T:  Bagaimana cara Versioning memproteksi saya dari penghapusan objek yang tidak disengaja?

Pada saat pengguna melakukan operasi DELETE pada objek, permintaan sederhana berurutan (tanpa dilakukan versioning) tidak akan mencari objek. Namun demikian, semua versi objek tersebut akan tetap dipertahankan di bucket Amazon S3 Anda dan dapat dicari dan dipulihkan. Hanya pemilik bucket Amazon S3 saja yang dapat menghapus versi secara permanen. Anda dapat menyetel aturan Lifecycle untuk mengelola masa pakai dan biaya penyimpanan berbagai versi objek Anda.

T:  Dapatkan saya mengatur sampah, recycle bin, atau jendela rollback di objek Amazon S3 saya untuk memulihkan dari hapus dan penimpaan?

Anda dapat menggunakan aturan Lifecycle beserta Versioning untuk menerapkan jendela rollback pada objek Amazon S3 Anda. Sebagai contoh, dengan bucket Anda yang diaktifkan versioning-nya, Anda dapat menetapkan aturan yang mengarsip semua versi Anda yang sebelumnya ke kelas penyimpanan Glacier dengan biaya yang lebih rendah dan menghapusnya setelah 100 hari, memberi Anda 100 hari jendela untuk mengembalikan perubahan pada data Anda sementara mengurangi biaya penyimpanan.

T:  Bagaimana saya dapat memastikan proteksi maksimum pada versi yang saya pertahankan?

Kemampuan HapusMulti-Factor Authentication (MFA) pada Versioning dapat digunakan untuk memberikan lapisan keamanan tambahan. Secara default, semua permintaan ke bucket Amazon S3 memerlukan kredensial akun AWS Anda. Jika Anda mengaktifkan Versioning dengan Hapus MFA pada bucket Amazon S3, dua bentuk autentikasi diperlukan untuk menghapus versi objek secara permanen: kredensial akun AWS Anda dan kode enam digit yang valid serta nomor seri dari perangkat autentikasi pada kepemilikan fisik Anda. Untuk mempelajari selengkapnya tentang pengaktifan Versioning dengan Hapus MFA, termasuk cara membayar dan mengaktifkan perangkat autentikasi, silakan lihat Dokumentasi Teknis Amazon S3.

T:  Bagaimana saya dikenai biaya dengan menggunakan Versioning?

Tarif Amazon S3 normal berlaku untuk setiap versi objek yang disimpan atau diminta. Sebagai contoh, mari kita perhatikan skenario berikut untuk mengilustrasikan biaya penyimpanan pada saat menggunakan Versioning (mari menganggap bulan saat ini selama 31 hari):

1) Hari ke-1 bulan tersebut: Anda melakukan PUT sebesar 4 GB (4.294.967.296 byte) di bucket Anda.
2) Hari ke-16 bulan tersebut: Anda melakukan PUT sebesar 5 GB (5.368.709.120 byte) di dalam bucket yang sama dengan menggunakan kunci yang sama dengan PUT asli pada Hari ke-1.

Pada saat menganalisis biaya penyimpanan dari operasi di atas, mohon perhatikan bahwa objek 4 GB dari Hari ke-1 tidak dihapus dari bucket pada saat objek 5 GB ditulis pada Hari ke-15. Namun, objek 4 GB dipertahankan sebagai versi yang lebih lama dan objek 5 GB menjadi versi objek tertulis yang terbaru di dalam bucket Anda. Pada akhir bulan:

Total penggunaan Byte-Jam
[4.294.967.296 byte x 31 hari x (24 jam/hari)] + [5.368.709.120 byte x 16 hari x (24 jam/hari)] = 5.257.039.970.304 Byte-Jam.

Konversi ke GB-Bulan Total
5.257.039.970.304 Byte-Jam x (1 GB/1.073.741.824 byte) x (1 bulan/744 jam) = 6,581 GB-Bulan

Biaya dikalkulasi berdasarkan pada tarif terakhir pada wilayah Anda pada Halaman Harga Amazon S3.

S3 Intelligent-Tiering

T:  Apa itu S3 Intelligent-Tiering?

Amazon S3 Intelligent-Tiering (S3 Intelligent-Tiering) merupakan kelas penyimpanan S3 untuk data dengan pola akses tidak dikenal atau mengubah pola akses yang sulit dipelajari. Merupakan kelas penyimpanan cloud pertama yang memberikan penghematan biaya otomatis dengan memindahkan objek di antara dua tingkatan akses saat pola akses berubah. Satu tingkat dioptimalkan untuk akses yang sering dan tingkat berbiaya rendah lainnya dirancang untuk file yang jarang diakses.

Objek yang diunggah atau dialihkan ke S3 Intelligent-Tiering secara otomatis disimpan di tingkat yang sering diakses. S3 Intelligent-Tiering bekerja dengan memantau pola akses dan kemudian memindahkan objek yang belum diakses dalam 30 hari berturut-turut ke tingkat yang jarang diakses. Jika objek diakses kemudian, S3 Intelligent-Tiering memindahkan objek kembali ke tingkat akses yang sering. Ini berarti semua objek yang disimpan dalam S3 Intelligent-Tiering selalu tersedia saat diperlukan. Tidak ada biaya pengembalian, jadi Anda tidak akan melihat kenaikan tagihan penyimpanan yang tidak terduga saat pola akses berubah.

T:  Mengapa saya harus memilih untuk menggunakan S3 Intelligent-Tiering?

S3 Intelligent-Tiering untuk data dengan pola akses tidak dikenal atau mengubah pola akses yang sulit dipelajari. Ini sangat ideal untuk kumpulan data di mana Anda mungkin tidak dapat mengantisipasi pola akses. S3 Intelligent-Tiering juga dapat digunakan untuk menyimpan kumpulan data baru di mana, tak lama setelah pengunggahan, sering diakses, tetapi menurun seiring kumpulan data menjadi usang. Kemudian Anda dapat memindahkan kumpulan data ke IA-Satu Zona S3 atau mengarsipkannya ke S3 Glacier.

T:  Kinerja apa yang ditawarkan S3 Intelligent-Tiering?

S3 Intelligent-Tiering menyediakan kinerja yang sama dengan penyimpanan Standar S3.

T:  Bagaimana daya tahan dan ketersediaan S3 Intelligent-Tiering?

S3 Intelligent-Tiering dirancang untuk daya tahan 99,999999999% yang sama dengan Standar S3. S3 Intelligent-Tiering dirancang untuk ketersediaan 99,9%, dan memberlakukan persetujuan tingkat layanan yang memberikan kredit layanan jika ketersediaannya kurang dari komitmen layanan kami dalam siklus tagihan.

T:  Bagaimana cara saya memasukkan data ke S3 Intelligent-Tiering?

Terdapat dua cara untuk memasukkan data ke S3 Intelligent-Tiering. Anda dapat langsung PUT ke S3 Intelligent-Tiering dengan menentukan INTELLIGENT_TIERING di header kelas penyimpanan x-amz atau mengatur kebijakan siklus aktif ke objek transisi dari Standar S3 atau IA-Standar S3 ke S3 INTELLIGENT_TIERING.

T:  Apakah objek S3 Intelligent-Tiering saya sesuai dengan Persetujuan Tingkat Layanan Amazon S3?

Ya, S3 Intelligent-Tiering sesuai dengan Persetujuan Tingkat Layanan Amazon S3, dan pelanggan memenuhi syarat untuk kredit layanan jika ketersediaannya kurang dari komitmen layanan kami dalam siklus tagihan apa pun.

T:  Bagaimana latensi dan kinerja throughput saya terpengaruhi sebagai akibat penggunaan S3 Intelligent-Tiering

Anda harus mengharapkan latensi dan kinerja beban kerja yang sama seperti Standar S3 pada saat menggunakan S3 Intelligent-Tiering.

T:  Apakah ada durasi minimum untuk S3 Intelligent-Tiering?

S3 Intelligent-Tiering memiliki durasi penyimpanan minimum selama 30 hari, yang berarti data yang dihapus, ditimpa, atau dialihkan ke Kelas Penyimpanan S3 lain sebelum 30 hari akan dikenakan biaya penggunaan normal ditambah biaya permintaan pro-rata sesuai jumlah hari untuk sisa minimum 30 hari.  

T: Apakah ada ukuran objek minimum untuk S3 Intelligent-Tiering?

S3 Intelligent-Tiering tidak memiliki ukuran objek minimum yang dapat ditagih, tetapi objek yang lebih kecil dari 128KB tidak memenuhi syarat untuk pemasangan otomatis dan akan selalu disimpan pada tarif tingkat yang sering diakses.

T: Dapatkah saya mengatur objek dari S3 Intelligent-Tiering ke kelas penyimpanan Amazon S3 Glacier?

Ya. Selain menggunakan kebijakan siklus aktif untuk memigrasikan objek dari S3 Intelligent-Tiering ke IA-Satu Zona S3, Anda dapat juga mengatur kebijakan siklus aktif untuk mengarsipkan objek dari ke S3 Glacier.

T:  Dapatkah saya memiliki bucket yang memiliki objek berbeda dalam kelas penyimpanan yang berbeda?

Ya, Anda dapat memiliki bucket yang memiliki objek yang berbeda yang disimpan dalam Standar S3, S3 Intelligent-Tiering, IA-Standar S3, dan IA-Satu Zona S3.

T: Apakah S3 Intelligent-Tiering tersedia di semua Wilayah AWS tempat Amazon S3 beroperasi?

Ya

Penyimpanan Akses Jarang–Standar S3 (IA–Standar S3)

T:  Apa itu Akses Jarang – S3 Standard?

Akses Jarang – Standar Amazon S3 (IA – Standar S3) adalah kelas penyimpanan Amazon S3 untuk data yang tidak begitu sering diakses, tetapi memerlukan akses cepat apabila diperlukan. IA – Standar S3 menawarkan daya tahan, throughput yang tinggi, dan latensi kelas penyimpanan Standar Amazon S3 yang rendah, dengan harga penyimpanan per GB dan biaya pengambilan per GB yang rendah. Kombinasi biaya rendah dan kinerja yang tinggi ini membuat IA-Standar S3 ideal untuk penyimpanan jangka panjang, cadangan, dan sebagai penyimpanan data untuk pemulihan bencana. Kelas penyimpanan IA – Standar S3 adalah seperangkat pada tingkat objek dan dapat berada pada bucket yang sama dengan kelas penyimpanan Standar S3 atau IA – Satu Zona S3, yang memungkinkan Anda untuk menggunakan kebijakan Lifecycle S3 untuk melakukan transisi objek secara otomatis antara kelas penyimpanan tanpa pergantian aplikasi.

Q:  Mengapa saya harus memilih untuk menggunakan IA – Standar S3?

IA – Standar S3 ideal untuk data yang tidak begitu sering diakses, tetapi memerlukan akses cepat pada saat diperlukan. IA – Standar S3 secara ideal sesuai untuk penyimpanan file jangka panjang, sinkronisasi yang lebih lama dan berbagi penyimpanan, dan data yang semakin lama lainnya.

T:  Kinerja seperti apa yang ditawarkan oleh IA – Standar S3?

IA – Standar S3 memberikan kinerja yang sama dengan kelas penyimpanan Standar S3 dan IA – Satu Zona S3.


T:  Bagaimana daya tahan dan ketersediaan IA – Standar S3?

IA-Standar S3 dirancang untuk daya tahan 99,999999999% seperti kelas penyimpanan Standar S3 dan S3 Glacier. IA-Standar S3 dirancang untuk ketersediaan 99,9%, dan memberlakukan persetujuan tingkat layanan yang memberikan kredit layanan jika ketersediaannya kurang dari komitmen layanan kami dalam siklus tagihan.

T:  Bagaimana cara saya memasukkan data IA – Standar S3?

Terdapat dua cara untuk memasukkan data ke IA – Standar S3. Anda dapat secara langsung melakukan PUT ke IA – Standar S3 dengan menentukan STANDARD_IA pada header x-amz-storage-class. Anda dapat juga mengatur kebijakan Lifecycle untuk melakukan transisi objek dari kelas penyimpanan Standar S3 menjadi IA – Standar S3.

T:  Apakah objek IA – Standar S3 saya sesuai dengan Perjanjian Tingkat Layanan Amazon S3?

Ya, IA–Standar S3 sesuai dengan Perjanjian Tingkat Layanan Amazon S3, dan pelanggan memenuhi syarat untuk kredit layanan jika ketersediaannya kurang dari komitmen layanan kami dalam siklus tagihan apa pun.

T:  Bagaimana latensi dan kinerja throughput saya terpengaruhi sebagai akibat penggunaan IA – Standar S3?

Anda sebaiknya memperkirakan kinerja latensi dan throughput yang sama dengan kelas penyimpanan Standar S3 ketika menggunakan IA – Standar S3.

T:  Bagaimana saya dikenai biaya untuk menggunakan IA – Standar S3?

Silakan lihat halaman harga Amazon S3 untuk informasi umum tentang harga IA – Standar S3.

T:  Biaya apa yang akan dikenakan jika saya mengubah kelas penyimpanan objek dari IA – Standar S3 ke Standar S3 dengan permintaan salinan?

Anda akan dikenai biaya untuk permintaan COPY IA – Standar S3 dan pencarian data IA – Standar S3.

T: Apakah terdapat tagihan durasi penyimpanan minimum untuk IA – Standar S3?

IA-Standar S3 dirancang untuk data yang tahan lama, tetapi jarang diakses yang tetap disimpan selama berbulan-bulan atau bertahun-tahun. Data yang dihapus dari IA – Standar S3 dalam 30 hari akan dikenai biaya selama 30 hari penuh. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga IA – Standar S3.

T: Apakah terdapat tagihan penyimpanan objek minimum untuk IA – Standar S3?

IA – Standar S3 dirancang untuk objek yang lebih besar dan memiliki tagihan penyimpanan objek minimum sebesar 128 KB. Objek yang ukurannya lebih kecil dari 128 KB akan dikenai biaya penyimpanan seperti objek yang berukuran 128 KB. Sebagai contoh, objek berukuran 6 KB dalam IA – Standar S3 akan dikenai biaya penyimpanan IA – Standar S3 untuk 6 KB dan biaya ukuran objek minimum tambahan sama dengan 122 KB pada harga penyimpanan IA – Standar S3. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga IA – Standar S3.

T:  Dapatkah saya meningkatkan objek dari IA-Standar S3 menjadi IA-Satu Zona S3 atau S3 Glacier?

Ya. Selain menggunakan kebijakan Siklus Aktif untuk memigrasikan objek dari Standar S3 menjadi IA-Standar S3, Anda dapat juga mengatur kebijakan Siklus Aktif untuk meningkatkan objek dari IA-Standar S3 ke IA-Satu Zona S3 atau S3 Glacier.

Akses Jarang – Satu Zona S3 (IA – Satu Zona S3)

T: Apa itu kelas penyimpanan IA – Satu Zona S3?

Kelas penyimpanan Akses Jarang – Satu Zona S3 adalah kelas penyimpanan Amazon S3 yang dapat dipilih pelanggan untuk menyimpan objek dalam availability zone tunggal. IA – Satu Zona S3 secara redundan menyimpan data dalam Availability Zone tunggal untuk menghantarkan penyimpanan dengan biaya yang lebih rendah sebesar 20% dibandingkan dengan penyimpanan IA – Standar S3 redundan secara geografis, yang menyimpan data secara redundan ke banyak Availability Zone terpisah secara geografis.

IA – Satu Zona S3 menawarkan 99% SLA yang tersedia dan juga dirancang untuk daya tahan eleven 9’s dalam Availability Zone. Tetapi, tidak seperti kelas penyimpanan S3 Standard dan S3 Standar-IA, data yang disimpan dalam kelas penyimpanan S3 IA-Satu Zona akan hilang apabila terjadi kerusakan Availability Zone.

Penyimpanan IA – Satu Zona S3 menawarkan fitur Amazon S3 yang sama seperti Standar S3 dan IA – Standar S3 dan digunakan pada Amazon S3 API, CLI dan konsol. Kelas penyimpanan IA – Satu Zona S3 diatur pada tingkat objek dan dapat berada pada bucket yang sama dengan kelas penyimpanan Standar S3 dan IA – Standar S3. Anda dapat menggunakan kebijakan Lifecycle S3 untuk secara otomatis melakukan transisi objek antarkelas penyimpanan tanpa perlu berganti aplikasi.

T:  Kasus penggunaan apa yang paling sesuai untuk kelas penyimpanan IA – Satu Zona S3?

Pelanggan dapat menggunakan Akses Jarang – Satu Zona S3 untuk penyimpanan yang jarang diakses, seperti pencadangan salinan, salinan pemulihan bencana, atau data lain yang mudah dibuat ulang.

Q:  Kinerja apa yang ditawarkan oleh penyimpanan IA – Satu Zona S3?

Penyimpanan IA – Satu Zona S3 menawarkan kinerja yang serupa dengan Standar S3 dan penyimpanan Akses Jarang – Standar S3.

T:  Seberapa lama daya tahan kelas penyimpanan IA – Satu Zona S3 itu?

Kelas penyimpanan IA – Satu Zona S3 dirancang untuk 99,999999999% daya tahan dalam Availability Zone. Meski demikian, penyimpanan IA-Satu Zona S3 tidak dirancang untuk menahan dari kehilangan ketersediaan atau kerusakan total pada Availability Zone, yang mana data yang disimpan di IA-Satu Zona S3 akan hilang. Sebaliknya, penyimpanan Standar S3, S3 Standard-Infrequent Acces, dan penyimpanan S3 Glacier dirancang untuk menahan dari kehilangan ketersediaan atau kehancuran Availability Zone. IA-Satu Zona S3 dapat memberikan daya tahan dan ketersediaan yang sama atau lebih baik dibandingkan sebagian besar pusat data modern, fisik, sementara memberikan manfaat tambahan terhadap elastisitas penyimpanan dan seperangkat fitur Amazon S3.

T: Apa itu SLA ketersediaan untuk kelas penyimpanan IA – Satu Zona S3?

IA – Satu Zona S3 menawarkan 99% SLA ketersediaan. Sebagai bandingan, Standar S3 menawarkan 99,9% SLA ketersediaan dan Akses Jarang – Standar S3 menawarkan 99% SLA ketersediaan. Sama halnya dengan semua kelas penyimpanan S3, kelas penyimpanan IA-Satu Zona S3 memberlakukan perjanjian tingkat layanan yang menyediakan layanan kredit jika ketersediaan kurang dari komitmen layanan kami pada segala siklus penagihan. Lihat Perjanjian Tingkat Layanan Amazon S3.

T:  Bagaimana pengaruh penggunaan penyimpanan IA – Satu Zona S3 terhadap latensi dan throughput saya?

Anda sebaiknya memperkirakan latensi dan throughput yang sama dalam kelas penyimpanan IA – Satu Zona S3 terhadap Standar Amazon S3 dan Standar S3.

Q:  Bagaimana saya dikenai biaya untuk menggunakan kelas penyimpanan IA – Satu Zona S3?

Seperti IA – Standar S3, IA – Satu Zona S3 mengenakan biaya sejumlah penyimpanan tiap bulan, biaya bandwidht, permintaan, penghapusan awal dan objek kecil, serta biaya pengambilan data. Penyimpanan IA-Satu Zona Amazon S3 20% lebih murah dibandingkan dengan IA-Standar Amazon S3 untuk penyimpanan menurut bulan, dan berbagi harga bandwidth, permintaan, penghapusan awal dan biaya objek kecil, serta biaya pengambilan data yang sama.

Sama halnya dengan Akses Jarang–Standar S3, jika Anda menghapus objek IA–Satu Zona S3 dalam 30 hari pembuatan, Anda akan dikenai biaya penghapusan awal. Misalnya, jika Anda melakukan PUT objek dan kemudian menghapus dalam 10 hari, Anda masih dikenai biaya untuk penyimpanan selama 30 hari.

Seperti IA – Standar S3, kelas penyimpanan IA – Satu Zona S3 memiliki ukuran objek minimum sebesar 128 KB. Objek yang ukurannya lebih kecil dari 128 KB akan dikenai biaya penyimpanan seperti objek yang berukuran 128 KB. Sebagai contoh, objek berukuran 6 KB dalam kelas penyimpanan IA-Satu Zona S3 akan dikenai biaya penyimpanan 6 KB dan biaya ukuran objek minimum tambahan sama dengan 122 KB pada harga penyimpanan IA-Satu Zona S3. Silakan lihat halaman harga untuk informasi tentang harga IA – Satu Zona S3.

T: Apakah "Zona" IA – Satu Zona S3 sama dengan Availability Zone AWS?

Ya. Setiap Wilayah AWS adalah area geografis yang terpisah. Setiap wilayah memiliki banyak lokasi terisolasi yang dikenal sebagai Availability Zone. Kelas penyimpanan IA – Satu Zona Amazon S3 menggunakan Availability Zone AWS individu dalam wilayah.

T:  Apakah terdapat perbedaan antara cara Amazon EC2 dan Amazon S3 bekerja dengan sumber daya spesifik-Availability Zone?

Ya. Amazon EC2 memberikan Anda kemampuan untuk memilih AZ untuk meletakkan sumber daya, semacam instans komputasi, dalam wilayah. Ketika Anda menggunakan IA – Satu Zona S3, IA – Satu Zona S3 menetapkan Availability Zone AWS dalam wilayah sesuai dengan kapasitas yang tersedia.

Q:  Dapatkah saya memiliki bucket yang memiliki objek berbeda dalam kelas penyimpanan dan Availability Zone yang berbeda?

Ya, Anda dapat memiliki bucket yang memiliki objek yang berbeda yang disimpan dalam Standar S3, IA – Standar S3 dan IA – Satu Zona S3.

T:  Apakah IA – Satu Zona S3 tersedia di seluruh Wilayah AWS di mana S3 beroperasi?

Ya.

T: Seberapa besar perlindungan pemulihan bencana yang saya alami dengan menggunakan IA – Satu Zona S3?

Setiap Availability Zone menggunakan daya dan jaringan yang redundan. Dalam Wilayah AWS, Availability Zone berada pada dataran banjir, zona patahan gempa yang berbeda, dan dipisahkan secara geografis untuk perlindungan dari kebakaran. Kelas penyimpanan Standar S3 dan IA – Satu Zona S3 menawarkan perlindungan terhadap berbagai bencana semacam itu dengan menyimpan data Anda secara redundan dalam banyak Availability Zone. S3 IA-Satu Zona menawarkan proteksi terhadap kegagalan perlengkapan dalam Availability Zone, tetapi tidak melindungi dari kehilangan Availability Zone, yang mana data yang disimpan dalam S3 IA-Satu Zona akan hilang. Dengan menggunakan opsi IA – Satu Zona S3, Standar S3, dan IA – Standar S3, Anda dapat memilih kelas penyimpanan yang paling sesuai dengan keperluan daya tahan dan ketersediaan dari penyimpanan Anda.

Amazon S3 Glacier

T: Mengapa Amazon Glacier sekarang disebut Amazon S3 Glacier?

Pelanggan telah lama menganggap Amazon Glacier, layanan penyimpanan cadangan data dan arsip kami, sebagai kelas penyimpanan Amazon S3. Bahkan, persentase yang sangat tinggi dari data yang disimpan di Amazon Glacier saat ini berasal langsung dari pelanggan menggunakan kebijakan Siklus Aktif S3 untuk memindahkan data yang lebih dingin ke Amazon Glacier. Kini, Amazon Glacier secara resmi menjadi bagian dari S3 dan akan dikenal sebagai Amazon S3 Glacier (S3 Glacier). Semua API langsung Glacier yang ada terus berfungsi seperti selama ini berjalan, tetapi kini kami semakin mempermudah dalam menggunakan API S3 untuk menyimpan data di kelas penyimpanan S3 Glacier.

T:  Apakah Amazon S3 memberikan kemampuan untuk mengarsip objek untuk mengurangi opsi biaya penyimpanan?

Ya, Amazon S3 memungkinkan Anda untuk menggunakan layanan penyimpanan dengan biaya sangat rendah untuk pengarsipan data milik Amazon S3 Glacier. Amazon S3 Glacier menyimpan data semurah 0,004 USD per gigabyte per bulan. Untuk menjaga biaya tetap rendah namun sesuai dengan kebutuhan pengambilan yang beragam, Amazon S3 Glacier menyediakan tiga pilihan untuk akses arsip, yang berkisar dari beberapa menit hingga beberapa jam. Beberapa contoh arsip menggunakan kasus termasuk arsip media digital, catatan keuangan dan kesehatan, data pengurutan genomik mentah, cadangan basis data jangka panjang, dan data yang harus disimpan untuk kepatuhan pada hukum.

T:  Bagaimana saya dapat menyimpan data saya menggunakan kelas penyimpanan Amazon S3 Glacier?

Jika Anda memiliki penyimpanan yang harus langsung segera diarsipkan, atau jika Anda membuat keputusan bisnis khusus tentang kapan memindahkan objek ke S3 Glacier yang tidak dapat diekspresikan melalui kebijakan Siklus Aktif Amazon S3, S3 PUT untuk Glacier memungkinkan Anda untuk menggunakan API S3 untuk mengunggah ke kelas penyimpanan S3 Glacier secara objek-demi-objek. Tidak ada penundaan transisi dan Anda mengontrol waktunya. Ini juga merupakan opsi yang baik jika Anda ingin aplikasi Anda membuat keputusan kelas penyimpanan tanpa harus menetapkan kebijakan tingkat bucket.

Anda dapat menggunakan aturan Siklus Aktif untuk secara otomatis mengarsip serangkaian objek Amazon S3 ke S3 Glacier berdasarkan umur objek. Gunakan Amazon S3 Management Console, AWS SDK atau API Amazon S3 untuk menentukan aturan untuk pengarsipan. Aturan menentukan awalan dan periode waktu. Awalan (misalnya “log/”) mengidentifikasi objek tunduk pada aturan. Periode waktu menentukan apakah jumlah hari dari tanggal pembuatan objek (misalnya 180 hari) atau tanggal yang ditetapkan setelah objek harus diarsip. Objek S3 Standard, S3 IA-Standar, atau S3 One Zone-IA yang memiliki nama yang dimulai dengan awalan yang ditentukan dan yang waktunya lewat melebihi periode waktu yang ditentukan diarsipkan ke S3 Glacier. Untuk mencari data Amazon S3 yang disimpan di S3 Glacier, mulai pelaksanaan pencarian melalui API Amazon S3 atau Management Console. Setelah pekerjaan pengambilan selesai, Anda dapat mengakses data Anda melalui permintaan objek GET Amazon S3.

Untuk informasi selengkapnya tentang penggunaan aturan Siklus Aktif untuk pengarsipan ke S3 Glacier, silakan lihat topik Pengarsipan Objek di Pedoman Pengembang Amazon S3.

T:  Dapatkah saya menggunakan API Amazon S3 atau Management Console untuk mencantumkan objek yang telah diarsip ke Amazon S3 Glacier?

Ya, seperti Amazon S3, kelas penyimpanan lain (S3 Standard, S3 Standard-IA, dan S3 One Zone-IA), objek S3 Glacier yang disimpan menggunakan API atau Management Console Amazon S3 memiliki nama yang ditentukan pengguna yang diasosiasikan. Anda bisa mendapatkan daftar real-time dari semua nama objek Amazon S3 Anda, termasuk yang disimpan menggunakan kelas penyimpanan S3 Glacier, menggunakan S3 LIST API atau laporan S3 Inventory.

T: Dapatkah saya menggunakan API langsung Amazon Glacier untuk mengakses objek yang telah diarsip ke Amazon S3 Glacier?

Karena Amazon S3 tetap mempertahankan pemetaan antara nama objek yang ditentukan pengguna Anda dan pengidentifikasi yang ditentukan sistem Amazon S3 Glacier, objek Amazon S3 yang disimpan dengan menggunakan kelas penyimpanan Amazon S3 Glacier hanya dapat diakses melalui API Amazon S3 atau Amazon S3 Management Console.

T: Bagaimana saya dapat mengambil objek saya yang diarsipkan di Amazon S3 Glacier dan apakah saya akan diberi tahu saat objek dipulihkan?

Untuk mencari data Amazon S3 yang disimpan di S3 Glacier, mulai permintaan pencarian menggunakan API Amazon S3 atau Amazon S3 Management Console. Permintaan pengambilan membuat salinan temporer untuk data Anda dalam kelas penyimpanan S3 RRS atau S3 Standard-IA sekaligus menjaga data terarsip tetap utuh di S3 Glacier. Anda dapat menentukan lamanya waktu dalam satuan hari sebagai periode penyimpanan salinan sementara dalam S3. Kemudian Anda dapat mengakses salinan sementara Anda dari S3 melalui permintaan GET Amazon S3 pada objek yang diarsip.

Dengan mengembalikan pemberitahuan, Anda kini dapat diberi tahu dengan Pemberitahuan Peristiwa S3 saat suatu objek telah berhasil dipulihkan dari S3 Glacier dan salinan sementara tersedia untuk Anda. Pemilik bucket (atau orang lain, sebagaimana diizinkan oleh kebijakan IAM) dapat mengatur pemberitahuan untuk dikeluarkan ke Amazon Simple Queue Service (SQS) atau Amazon Simple Notification Service (SNS). Notifikasi juga dapat dikirimkan ke AWS Lambda untuk diproses oleh fungsi Lambda.

T: Berapa lama waktu yang dibutuhkan untuk memulihkan objek saya yang diarsipkan di S3 Glacier dan dapatkah saya meningkatkan permintaan yang sedang dalam proses ke kecepatan pemulihan yang lebih cepat?

Pada saat memproses pelaksanaan pengambilan, Amazon S3 terlebih dahulu mencari data yang diminta dari S3 Glacier, kemudian membuat salinan sementara untuk data yang diminta dalam S3 (yang biasanya memerlukan waktu beberapa menit). Waktu akses permintaan Anda bergantung pada opsi pencarian yang Anda pilih: Pengambilan Dipercepat, Standar, atau Massal. Untuk semua objek kecuali objek terbesar (250 MB+), data yang diakses dengan menggunakan pengambilan Dipercepat biasanya dilakukan dalam 1-5 menit. Objek yang dicari menggunakan pengambilan Standar biasanya selesai antara 3-5 jam. Pengambilan dalam jumlah besar biasanya selesai dalam 5-12 jam. Untuk informasi selengkapnya tentang opsi pengambilan S3 Glacier, lihat FAQ S3 Glacier.

S3 Restore Speed Upgrade adalah penimpaan dari pemulihan yang sedang berlangsung ke tingkat pemulihan yang lebih cepat ketika akses menuju data sedang mendesak. Anda dapat menggunakan S3 Restore Speed Upgrade dengan mengeluarkan permintaan pemulihan lain untuk objek yang sama dengan parameter tugas “tingkat” yang baru. Saat mengeluarkan S3 Restore Speed Upgrade, Anda harus memilih kecepatan pemulihan yang lebih cepat daripada pemulihan yang sedang berlangsung. Parameter seperti Waktu Kedaluwarsa Objek tidak akan diubah. Anda dapat memperbarui Waktu Kedaluwarsa Objek setelah pemulihan selesai. Anda membayar untuk setiap permintaan pemulihan dan biaya pengambilan per-GB untuk tingkat pemulihan yang lebih cepat. Misalnya, jika Anda mengeluarkan pemulihan tingkat Massal dan kemudian mengeluarkan permintaan S3 Restore Speed Upgrade pada tingkat Dipercepat untuk mengganti pemulihan tingkat Massal yang sedang berlangsung, Anda akan dikenai biaya untuk dua permintaan dan biaya per-GB untuk tingkat Dipercepat.

T:  Biaya apa yang dikenakan pada saya karena mengarsip objek di Amazon S3 Glacier?

Penyimpanan Amazon S3 Glacier dihargai berdasarkan kelas penyimpanan bulanan dan banyaknya permintaan transisi Siklus Aktif menjadi Amazon S3 Glacier. Objek yang diarsipkan ke Amazon S3 Glacier memiliki penyimpanan minimum 90 hari, dan objek yang dihapus sebelum 90 hari dikenakan biaya pro-rata yang sama dengan biaya penyimpanan untuk hari yang tersisa. Lihat halaman harga Amazon S3 untuk harga saat ini.

T:  Bagaimana biaya penyimpanan saya dikalkulasi untuk objek Amazon S3 yang diarsip ke Amazon S3 Glacier?

Volume penyimpanan yang ditagihkan dalam satu bulan berdasarkan pada penyimpanan rata-rata yang digunakan di sepanjang bulan tersebut, diukur dalam gigabyte-bulan (GB-Bulan). Amazon S3 menghitung ukuran objek sebagai jumlah data yang Anda simpan plus tambahan data Amazon S3 Glacier 32 KB plus data kelas tambahan penyimpanan Standar S3 8KB 8 KB. Amazon S3 Glacier memerlukan 32 KB data tambahan per objek untuk indeks dan metadata Glacier sehingga Anda dapat mengidentifikasi dan mengambil data Anda. Amazon S3 memerlukan 8 KB untuk menyimpan dan mempertahankan nama dan metadata yang ditentukan pengguna untuk objek terarsip ke Amazon S3 Glacier. Hal ini memungkinkan Anda mendapatkan daftar real-time dari semua objek Amazon S3 Anda, termasuk yang disimpan menggunakan kelas penyimpanan Amazon S3 Glacier, menggunakan Amazon S3 LIST API atau laporan S3 Inventory. Sebagai contoh, jika Anda telah mengarsip 100.000 objek yang masing-masing berukuran 1 GB, penyimpanan yang dapat ditagihkan adalah:

1,000032 gigabyte untuk masing-masing objek x 100.000 objek = 100.003,2 gigabyte dari penyimpanan Amazon S3 Glacier.
0,000008 gigabyte untuk masing-masing objek x 100.000 objek = 0,8 gigabyte dari penyimpanan Amazon S3 Standard.

Biaya dikalkulasi berdasarkan pada tarif terakhir untuk Wilayah AWS Anda pada Halaman Harga Amazon S3.

T:  Seberapa banyak data yang dapat saya peroleh dari Amazon S3 Glacier secara gratis?

Anda dapat mengambil 10 GB dari data Amazon S3 Glacier Anda tiap bulan secara gratis dengan tingkat gratis AWS. Fasilitas tingkat gratis dapat digunakan kapan pun selama bulan tersebut dan berlaku untuk pengambilan Amazon S3 Glacier Standar.

T:  Bagaimana perhitungan biaya untuk saya karena menghapus objek dari Amazon S3 Glacier yang kurang dari 90 hari?

Amazon S3 Glacier dirancang pada kasus-kasus penggunaan yang mana data disimpan selama berbulan-bulan, bertahun-tahun, atau berpuluh tahun. Menghapus data yang diarsip ke Amazon S3 Glacier gratis jika objek yang dihapus telah diarsip di Amazon S3 Glacier selama 90 hari atau lebih. Jika objek yang diarsip di Amazon S3 Glacier dihapus atau ditimpakan dalam waktu 90 hari pengarsipan, maka akan ada biaya penghapusan awal. Biaya ini sesuai dengan perbandingan. Jika Anda menghapus 1 GB data 30 hari setelah mengunggahnya, Anda akan dikenakan biaya penghapusan awal selama 60 bulan penyimpanan Amazon S3 Glacier. Jika Anda menghapus 1 GB data setelah 60 hari, Anda akan dikenakan biaya penyimpanan Amazon S3 Glacier selama 30 hari.

T:  Berapa biaya untuk mengambil data dari Amazon S3 Glacier? 

Terdapat tiga cara untuk pemulihan data dari Amazon S3 Glacier – Pengambilan Dipercepat, Standar, dan Massal– dan masing-masing memiliki biaya pencarian per-GB dan biaya permintaan per-arsip (yaitu meminta satu hitungan arsip sebagai satu permintaan) yang berbeda. Untuk harga S3 Glacier terperinci oleh Wilayah AWS, silakan kunjungi halaman harga Amazon S3 Glacier.

T: Apa itu infrastruktur backend yang mendukung kelas penyimpanan S3 Glacier?

Pada umumnya, AWS tidak mengungkapkan infrastruktur dan arsitektur backend untuk komputasi, jaringan, dan layanan penyimpanan kami, karena kami lebih berfokus pada kinerja, ketahanan, ketersediaan, dan keamanan hasil pelanggan. Namun, pertanyaan ini sering diajukan oleh pelanggan. Kami menggunakan sejumlah teknologi berbeda yang memungkinkan kami menawarkan harga kepada pelanggan. Layanan kami dibuat menggunakan teknologi penyimpanan data umum yang secara khusus dirakit menjadi sistem yang dibuat sesuai tujuan dengan biaya yang dioptimalkan menggunakan perangkat lunak yang dikembangkan oleh AWS. S3 Glacier mendapat manfaat dari kemampuan kami dalam mengoptimalkan rangkaian input dan output untuk memaksimalkan efisiensi pengaksesan penyimpanan yang mendasar.

Amazon S3 Glacier Deep Archive

T: Apa itu S3 Glacier Deep Archive?

S3 Glacier Deep Archive adalah kelas penyimpanan Amazon S3 baru yang memberikan penyimpanan objek yang aman dan tahan lama untuk penyimpanan data jangka panjang yang diakses satu atau dua kali setahun. Dari hanya 0,00099 USD per GB-bulan (kurang dari sepersepuluh dari satu sen, atau sekitar 1 USD per TB-bulan), S3 Glacier Deep Archive menawarkan penyimpanan di cloud berbiaya terendah, dengan harga yang secara signifikan lebih rendah daripada penyimpanan dan pemeliharaan data di pustaka tape magnetis di lokasi atau pengarsipan data di luar situs.

T: Kasus penggunaan apa yang paling sesuai untuk S3 Glacier Deep Archive?

S3 Glacier Deep Archive adalah kelas penyimpanan ideal untuk memberikan perlindungan offline pada sebagian besar aset data penting perusahaan Anda, atau ketika penyimpanan data jangka panjang diperlukan untuk persyaratan kebijakan perusahaan, kontraktual, atau kepatuhan terhadap peraturan. Pelanggan merasa S3 Glacier Deep Archive menjadi pilihan menarik untuk melindungi properti intelektual inti, rekaman keuangan dan medis, hasil riset, dokumen hukum, penelitian eksplorasi seismik, dan cadangan jangka panjang, khususnya di industri yang diatur secara ketat seperti Layanan Keuangan, Layanan Kesehatan, Minyak & Gas, dan Sektor Publik. Selain itu, terdapat organisasi seperti perusahaan media dan hiburan, yang ingin menjaga salinan cadangan properti intelektual inti. Seringkali, pelanggan yang menggunakan S3 Glacier Deep Archive dapat mengurangi atau menghentikan penggunaan pustaka tape magnetis di lokasi dan layanan kearsipan tape luar lokasi.

T: Apa perbedaan S3 Glacier Deep Archive dengan S3 Glacier?

S3 Glacier Deep Archive memperluas penawaran pengarsipan data, yang memungkinkan Anda memilih kelas penyimpanan optimal berdasarkan biaya penyimpanan dan pengambilan, serta frekuensi pengambilan. Pilih S3 Glacier ketika beberapa data terarsip Anda diperlukan setidaknya dalam 1-5 menit menggunakan pengambilan yang Dipercepat. Sebaliknya, S3 Glacier Deep Archive dirancang untuk data kurang bernilai yang kemungkinan besar tidak diakses, tetapi masih memerlukan penyimpanan jangka panjang dan tahan lama. S3 Glacier Deep Archive lebih murah 75% daripada S3 Glacier dan menyediakan pengambilan dalam 12 jam menggunakan kecepatan pengambilan Standar. Anda juga dapat mengurangi biaya pengambilan dengan memilih pengambilan Massal, yang akan mengembalikan data dalam 48 jam.

T: Bagaimana daya tahan dan ketersediaan S3 Glacier Deep Archive?

S3 Glacier Deep Archive dirancang untuk daya tahan 99,999999999% yang sama dengan kelas penyimpanan Standar S3 dan S3 Glacier. S3 Glacier Deep Archive dirancang untuk ketersediaan 99,9%, dan memberlakukan perjanjian tingkat layanan yang memberikan kredit layanan jika ketersediaannya kurang dari komitmen layanan kami dalam siklus tagihan.

T: Apakah objek S3 Glacier Deep Archive saya sesuai dengan Perjanjian Tingkat Layanan Amazon S3?

Ya, S3 Glacier Deep Archive sesuai dengan Perjanjian Tingkat Layanan Amazon S3, dan pelanggan memenuhi syarat untuk kredit layanan jika ketersediaannya kurang dari komitmen layanan kami dalam siklus tagihan apa pun.

T: Bagaimana cara mulai menggunakan S3 Glacier Deep Archive?

Cara termudah untuk menyimpan data di S3 Glacier Deep Archive adalah menggunakan API S3 untuk mengunggah data secara langsung. Cukup tentukan “S3 Glacier Deep Archive” sebagai kelas penyimpanan. Anda dapat menyelesaikan tugas ini menggunakan AWS Management Console, S3 REST API, AWS SDK, atau Antarmuka Baris Perintah AWS.

Anda juga dapat mulai menggunakan S3 Glacier Deep Archive dengan membuat kebijakan untuk memigrasikan data menggunakan Siklus Masa Pakai S3, yang memberikan kemampuan menentukan siklus masa pakai objek dan mengurangi biaya penyimpanan Anda. Kebijakan tersebut dapat diatur untuk memigrasikan objek ke S3 Glacier Deep Archive berdasarkan umur objek. Anda dapat menentukan kebijakan untuk bucket S3, atau untuk prefiks khusus. Transisi siklus masa pakai ditagih dengan harga Pengunggahan S3 Glacier Deep Archive.

Tape Gateway, fitur pustaka tape virtual berbasis cloud dari AWS Storage Gateway, kini terintegrasi dengan S3 Glacier Deep Archive, yang memungkinkan Anda menyimpan cadangan dan arsip jangka panjang yang berbasis tape virtual di S3 Glacier Deep Archive sehingga menyediakan penyimpanan berbiaya termurah untuk data ini di cloud. Untuk memulai, buat tape virtual baru menggunakan AWS Storage Gateway Console atau API AWS Storage Gateway, dan mengatur target penyimpanan kearsipan ke S3 Glacier ataupun S3 Glacier Deep Archive. Jika tape ditolak oleh aplikasi cadangan Anda, tape tersebut akan diarsipkan ke target penyimpanan terpilih.

T: Bagaimana saran Anda untuk memigrasikan data dari arsip tape yang ada ke S3 Glacier Deep Archive?

Terdapat beberapa cara untuk memigrasikan data dari arsip tape yang ada ke S3 Glacier Deep Archive. Anda dapat menggunakan AWS Tape Gateway untuk mengintregasikan dengan aplikasi cadangan yang ada menggunakan antarmuka pustaka tape (VTL). Antarmuka ini memberikan tape virtual ke aplikasi cadangan. Alat ini dapat segera digunakan untuk menyimpan data di Amazon S3, S3 Glacier, dan S3 Glacier Deep Archive.

Anda juga dapat menggunakan AWS Snowball atau Snowmobile untuk memigrasikan data. Snowball dan Snowmobile mempercepat pemindahan dari terabyte hingga petabyte data ke dalam dan ke luar AWS menggunakan perangkat penyimpanan fisik yang dirancang agar pemindahan aman. Menggunakan Snowball dapat membantu menghilangkan tantangan yang dapat dihadapi dengan transfer data skala besar, termasuk biaya jaringan yang tinggi, waktu transfer yang lama, dan masalah keamanan.

Akhirnya, Anda dapat menggunakan AWS Direct Connect untuk membuat koneksi jaringan khusus dari lokasi Anda ke AWS. Pada banyak kasus, Direct Connect dapat mengurangi biaya jaringan, meningkatkan throughput bandwidth, dan memberikan pengalaman koneksi jaringan yang lebih konsisten dibandingkan dengan koneksi berbasis Internet.

T: Bagaimana cara mengambil objek yang disimpan di S3 Glacier Deep Archive?

Untuk mengambil data yang disimpan di S3 Glacier Deep Archive, mulai permintaan “Pemulihan” menggunakan API Amazon S3 atau Amazon S3 Management Console. Pemulihan akan membuat salinan sementara data Anda di kelas penyimpanan IA-Satu Zona S3 sekaligus menjaga data terarsip tetap utuh di S3 Glacier Deep Archive. Anda dapat menentukan lamanya waktu dalam satuan hari sebagai periode penyimpanan salinan sementara dalam S3. Kemudian, Anda dapat mengakses salinan sementara dari S3 melalui permintaan GET Amazon S3 pada objek terarsip.

Ketika memulihkan objek terarsip, Anda dapat menentukan salah satu dari opsi berikut dalam elemen Tingkat pada bodi permintaan: Standar merupakan tingkat default dan memungkinkan Anda mengakses berbagai objek terarsip dalam 12 jam, dan Massal memungkinkan Anda mengambil sejumlah besar, bahkan petabyte data secara terjangkau dan biasanya selesai dalam 48 jam.

T: Bagaimana saya dikenai biaya untuk menggunakan S3 Glacier Deep Archive?

Penyimpanan S3 Glacier Deep Archive diberi harga berdasarkan jumlah data yang Anda simpan dalam satuan GB, jumlah permintaan PUT/transisi siklus masa pakai, pengambilan dalam satuan GB, dan jumlah permintaan pemulihan. Model penetapan harga ini mirip dengan S3 Glacier. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Glacier Deep Archive.

T: Bagaimana penggunaan S3 Glacier Deep Archive ditampilkan di tagihan AWS saya dan di alat Manajemen Biaya AWS?

Penggunaan dan biaya 3 Glacier Deep Archive akan ditampilkan sebagai item baris layanan mandiri di tagihan AWS bulanan Anda, terpisah dari penggunaan dan biaya Amazon S3. Namun, jika Anda menggunakan alat Manajemen Biaya AWS, penggunaan dan biaya S3 Glacier Deep Archive akan termasuk dalam penggunaan dan biaya Amazon S3 di laporan pengeluaran bulanan terperinci milik Anda, dan tidak dipecah menjadi item baris layanan yang terpisah.

 

T: Adakah durasi penyimpanan minimum dan biaya penyimpanan objek minimum untuk S3 Glacier Deep Archive?

S3 Glacier Deep Archive dirancang untuk data dengan masa pakai lama tetapi jarang diakses, yang disimpan selama 7-10 tahun atau lebih. Objek yang diarsipkan ke S3 Glacier Deep Archive memiliki minimum penyimpanan 180 hari, dan objek yang dihapus sebelum 180 hari dikenakan biaya prorata yang sama dengan biaya penyimpanan untuk hari yang tersisa. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Glacier Deep Archive.

S3 Glacier Deep Archive memiliki ukuran minimum penyimpanan objek yang dapat ditagih sebesar 40 KB. Objek yang lebih kecil dari 40 KB mungkin disimpan tetapi akan dikenakan biaya untuk penyimpanan sebesar 40 KB. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Glacier Deep Archive.

 

T: Bagaimana cara S3 Glacier Deep Archive berintegrasi dengan Layanan AWS lainnya?

Deep Archive terintegrasi dengan fitur Amazon S3 yang termasuk Analisis Kelas Penyimpanan S3, Pemberian Tag Objek S3, Kebijakan Siklus Masa Pakai S3, Objek yang dapat disusun, S3 Object Lock, dan Replikasi Lintas Wilayah S3. Dengan fitur manajemen penyimpanan S3, Anda dapat menggunakan satu bucket Amazon S3 untuk menyimpan campuran data S3 Glacier Deep Archive, Standar S3, IA-Standar S3, IA-Satu Zona S3, dan S3 Glacier. Hal ini memungkinkan administrator penyimpanan membuat keputusan berdasarkan sifat alami data dan pola akses data. Pelanggan dapat menggunakan kebijakan Siklus Masa Pakai Amazon S3 untuk memigrasikan data secara otomatis ke kelas penyimpanan berbiaya lebih rendah seraya usia data bertambah, atau kebijakan Replikasi Lintas Wilayah S3 untuk mereplikasi data ke wilayah lainnya.

Layanan AWS Storage Gateway mengintegrasikan Tape Gateway dengan kelas penyimpanan S3 Glacier Deep Archive, yang memungkinkan Anda menyimpan tape virtual di kelas penyimpanan Amazon S3 berbiaya terendah sehingga mengurangi biaya bulanan untuk menyimpan data jangka panjang Anda di cloud hingga 75%. Dengan fitur ini, Tape Gateway mendukung pengarsipan tape virtual baru Anda secara langsung ke S3 Glacier dan S3 Glacier Deep Archive, yang membantu Anda memenuhi persyaratan pencadangan, pengarsipan, dan pemulihan. Tape Gateway membantu Anda memindahkan cadangan berbasis tape ke AWS tanpa membuat berbagai perubahan ke alur kerja cadangan yang ada. Tape Gateway mendukung sebagian besar aplikasi cadangan terkemuka seperti Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (di Windows OS), dan Manajer Perlindungan Data Microsoft.

T: Apa itu infrastruktur backend mendukung kelas penyimpanan S3 Glacier Deep Archive?

Pada umumnya, AWS tidak mengungkapkan infrastruktur dan arsitektur backend untuk komputasi, jaringan, dan layanan penyimpanan kami, karena kami lebih berfokus pada kinerja, ketahanan, ketersediaan, dan keamanan hasil pelanggan. Namun, pertanyaan ini sering diajukan oleh pelanggan. Kami menggunakan sejumlah teknologi berbeda yang memungkinkan kami menawarkan harga kepada pelanggan. Layanan kami dibuat menggunakan teknologi penyimpanan data umum yang secara khusus dirakit menjadi sistem yang dibuat sesuai tujuan dengan biaya yang dioptimalkan menggunakan perangkat lunak yang dikembangkan oleh AWS. S3 Glacier Deep Archive mendapat manfaat dari kemampuan kami dalam mengoptimalkan urutan input dan output untuk memaksimalkan efisiensi pengaksesan penyimpanan yang mendasar.

Kueri yang Siap Digunakan

T:  Apa itu fungsionalitas "Kueri yang Siap Digunakan"?

Amazon S3 memungkinkan konsumen untuk menjalankan kueri yang canggih terhadap data yang disimpan tanpa perlu memindahkan data ke dalam platform analisis terpisah. Kemampuan untuk melakukan kueri data yang siap digunakan di Amazon S3 secara signifikan dapat meningkatkan kinerja dan mengurangi biaya solusi analisis yang mendorong S3 sebagai kumpulan data. S3 menawarkan berbagai opsi kueri yang siap digunakan, termasuk S3 Select, Amazon Athena, dan Amazon Redshift Spectrum, yang memungkinkan Anda untuk memilih satu opsi terbaik yang sesuai dengan penggunaan Anda. Anda bahkan dapat menggunakan Amazon S3 Select dengan AWS Lambda untuk membuat aplikasi tanpa server yang dapat memanfaatkan kemampuan pemrosesan yang siap digunakan yang diberikan oleh S3 Select.

Q:  Apa itu S3 Select?

S3 Select adalah fitur Amazon S3 yang memudahkan pencarian data spesifik dari konten objek dengan menggunakan ekspresi SQL sederhana tanpa harus mencari seluruh objek. Anda dapat menggunakan S3 Select untuk mengambil subset data menggunakan klausa SQL, seperti SELECT dan WHERE, dari objek yang disimpan dalam format CSV, JSON, atau Apache Parquet. S3 Select juga bekerja dengan objek yang dikompresi dengan GZIP atau BZIP2 (khusus untuk objek CSV dan JSON), dan objek terenkripsi sisi server.

T:  Apa yang dapat saya lakukan dengan S3 Select?

Anda dapat menggunakan S3 Select untuk mencari rangkaian data tertarget berukuran lebih kecil dari objek menggunakan pernyataan SQL sederhana. Anda dapat menggunakan S3 Select dengan AWS Lambda untuk membuat aplikasi tanpa server yang menggunakan S3 Select untuk mencari data secara efisien dan mudah dari Amazon S3, bukan mencari dan memproses seluruh objek. Anda juga dapat menggunakan S3 Select dengan kerangka kerja Big Data, seperti Presto, Apache Hive, dan Apache Spark untuk memindai dan memfilter data di Amazon S3.

T:  Mengapa saya harus menggunakan S3 Select?

S3 Select memberikan cara baru untuk mencari data spesifik dengan menggunakan pernyataan SQL dari konten objek yang disimpan di Amazon S3 tanpa harus mencari seluruh objek. S3 Select menyederhanakan dan meningkatkan kinerja pemindaian dan pemfilteran konten objek menjadi rangkaian data tertarget berukuran lebih kecil hingga 400%. Dengan S3 Select, Anda juga dapat melakukan investigasi operasional pada file log di Amazon S3 tanpa perlu mengoperasikan dan mengelola klaster komputasi.

T:  Apa itu Amazon Athena?

Amazon Athena adalah layanan query interaktif yang memudahkan analisis data di Amazon S3 dengan menggunakan kueri SQL standar. Athena tanpa server, sehingga tidak ada infrastruktur yang harus ditetapkan atau dikelola, dan Anda dapat memulai menganalisis data secepatnya. Anda bahkan tidak perlu memuat data Anda ke Athena, karena secara langsung berfungsi dengan data yang disimpan di segala kelas penyimpanan S3. Untuk memulai, cukup masuk ke Athena Management Console, tentukan skema Anda, dan mulai lakukan kueri. Amazon Athena menggunakan Presto dengan dukungan SQL standar penuh dan berfungsi dengan berbagai format data standar, termasuk CSV, JSON, ORC, Apache Parquet dan Avro. Sementara Athena ideal untuk kueri ad-hok yang cepat dan berintegrasi dengan Amazon QuickSight untuk visualisasi yang mudah, juga dapat menangani analisis kompleks, termasuk gabung, fungsi jendela, dan larik dalam jumlah banyak.

T:  Apa itu Amazon Redshift Spectrum?

Amazon Redshift Spectrum adalah fitur Amazon Redshift yang memungkinkan Anda menjalankan kueri terhadap exabyte data yang tidak terstruktur di Amazon S3 tanpa memerlukan pemuatan atau ETL. Ketika Anda menerbitkan kueri, kueri pergi ke titik ujung Amazon RedShift SQL, yang menghasilkan dan mengoptimalkan rencana kueri. Amazon Redshift menentukan data apa yang lokal dan apa yang ada di Amazon S3, membuat rencana untuk meminimalkan jumlah data Amazon S3 yang perlu dibaca, meminta pekerja Redshift Spectrum dari kumpulan sumber yang dibagikan untuk membaca dan memproses data dari Amazon S3.

Redshift Spectrum menskala dari ribuan contoh jika diperlukan, sehingga kueri berjalan dengan cepat tanpa terpengaruh dengan ukuran data. Dan, Anda dapat menggunakan SQL yang benar-benar sama untuk data Amazon S3 seperti yang Anda gunakan untuk kueri Amazon Redshift Anda hari ini dan terhubung ke hasil akhir Amazon Redshift yang sama dengan menggunakan alat BI yang sama. Redshift Spectrum membolehkan Anda untuk memisahkan penyimpanan dan komputasi, yang memungkinkan Anda untuk menskala keduanya secara independen. Anda dapat menetapkan klaster Amazon Redshift sebanyak yang Anda perlukan untuk melakukan kueri kumpulan data Amazon S3 Anda, yang memberikan ketersediaan yang tinggi dan konkurensi tanpa batas. Redshift Spectrum memberi Anda kebebasan menyimpan data di mana pun yang Anda inginkan, dalam format yang Anda inginkan, dan membuatnya tersedia untuk pemrosesan saat Anda membutuhkannya.

Pemberitahuan Kejadian

T: Apa itu pemberitahuan kejadian Amazon S3?

Pemberitahuan kejadian Amazon S3 dapat dikirimkan sebagai respons untuk kejadian pada Amazon S3 seperti PUT, POST, COPY, atau DELETE. Pesan pemberitahuan dapat dikirimkan melalui Amazon SNS, Amazon SQS, atau secara langsung ke AWS Lambda.

T:  Apa yang bisa saya lakukan dengan pemberitahuan kejadian Amazon S3?

Pemberitahuan kejadian S3 memungkinkan Anda untuk menjalankan alur kerja, mengirimkan peringatan, atau melakukan tindakan lain sebagai respons terhadap perubahan pada objek yang disimpan di Amazon S3.  Anda dapat menggunakan pemberitahuan kejadian S3 untuk mengatur pemicuan untuk mengambil tindakan termasuk transkoding file media saat sedang diunggah, memproses file data saat tersedia, dan menyinkronkan objek S3 dengan penyimpanan data lain. Anda juga dapat mengatur pemberitahuan kejadian berdasarkan prefiks dan sufiks nama objek. Misalnya, Anda dapat memilih untuk menerima pemberitahuan tentang nama objek yang dimulai dengan “images/".

T:  Apa saja yang termasuk dalam pemberitahuan kejadian Amazon S3?

Untuk uraian selengkapnya mengenai informasi yang termasuk dalam pesan pemberitahuan kejadian Amazon S3, lihat pada topik Mengonfigurasi Pemberitahuan Kejadian Amazon S3 pada Panduan Pengembang Amazon S3.

T: Bagaimana cara mengatur pemberitahuan kejadian Amazon S3?

Untuk uraian selengkapnya mengenai cara mengatur pemberitahuan kejadian, lihat pada topik Mengonfigurasi pemberitahuan kejadian Amazon S3 pada Panduan Pengembang Amazon S3. Anda dapat mempelajari lebih lanjut tentang layanan perpesanan AWS di Dokumentasi Amazon SNS dan Dokumentasi Amazon SQS.

T:  Apakah menggunakan pemberitahuan kejadian Amazon S3 dikenai biaya?

Tidak ada biaya tambahan jika menggunakan Amazon S3 untuk pemberitahuan kejadian. Anda hanya membayar penggunaan Amazon SNS atau Amazon SQS untuk mengirimkan pemberitahuan kejadian, atau untuk biaya menjalankan fungsi AWS Lambda. Kunjungi halaman harga Amazon SNS, Amazon SQS, atau AWS Lambda untuk melihat detail harga untuk layanan tersebut.

Amazon S3 Transfer Acceleration

T:  Apa itu S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration memungkinkan transfer file yang cepat, mudah, dan aman dalam jarak jauh antara klien Anda dan bucket Amazon S3. S3 Transfer Acceleration memanfaatkan Lokasi Edge AWS yang tersebar secara global dari Amazon CloudFront. Saat data sampai pada Lokasi Edge AWS, data diarahkan ke bucket Amazon S3 melalui jalur jaringan yang dioptimisasi.

T:   Bagaimana saya memulai dengan S3 Transfer Acceleration?

Untuk memulai dengan S3 Transfer Acceleration aktifkan S3 Transfer Acceleration pada bucket S3 menggunakan konsol Amazon S3, API Amazon S3, atau AWS CLI. Setelah S3 Transfer Acceleration diaktifkan, Anda dapat menunjuk permintaan Amazon S3 PUT dan GET ke nama domain s3-accelerate endpoint. Aplikasi transfer data Anda harus menggunakan salah satu dari dua jenis titik akhir berikut ini untuk mengakses bucket dengan transfer data yang lebih cepat: .s3-accelerate.amazonaws.com atau .s3-accelerate.dualstack.amazonaws.com untuk titik akhir “dual-stack”. Jika Anda ingin menggunakan transfer data standar, Anda dapat terus menggunakan titik akhir reguler.

Terdapat batasan tertentu ketika bucket akan mendukung S3 Transfer Acceleration. Untuk detail selengkapnya, silakan lihat panduan pengembang Amazon S3.

Q:   Seberapa cepat S3 Transfer Acceleration?

S3 Transfer Acceleration membantu Anda menggunakan bandwith secara penuh, meminimalisir pengaruh jarak pada throughput, dan dirancang untuk memastikan transfer data yang cepat secara konsisten ke Amazon S3 terlepas dari lokasi klien Anda. Jumlah akselerasi utamanya bergantung pada bandwith yang tersedia, jarak antara sumber dan tujuan, dan tingkat kehilangan paket pada jalur jaringan. Secara umum, Anda akan mendapatkan akselerasi lebih saat sumbernya lebih jauh dari tujuan, saat tidak ada lagi bandwith yang tersedia, dan/atau ukuran objek lebih besar.

Satu pelanggan mengukur 50% reduksi dalam rata-rata waktu untuk mengirimkan file 300 MB dari basis pengguna global di AS, Eropa, dan daerah Asia ke bucket di wilayah Asia Pasifik (Sydney). Pelanggan lain mengamati kasus ketika kinerja meningkat lebih baik 500% untuk pengguna di Asia Tenggara dan Australia saat mengunggah file 250 MB (dalam bagian-bagian 50 MB) ke bucket S3 di wilayah AS Timur (Virginia U.).

Coba alat pembanding kecepatan untuk mendapatkan pratinjau manfaat kinerja dari lokasi Anda!

T: Siapa yang perlu menggunakan S3 Transfer Acceleration?

S3 Transfer Acceleration dirancang untuk mengoptimalkan kecepatan transfer dari seluruh dunia ke bucket S3. Jika Anda mengunggah ke bucket terpusat dari lokasi yang tersebar secara geografis, atau jika Anda secara rutin mentransfer data berukuran GB atau TB melewati benua, Anda dapat menghemat berjam-jam atau berhari-hari waktu transfer data dengan S3 Transfer Acceleration.

T:   Seberapa amankah S3 Transfer Acceleration?

S3 Transfer Acceleration memberikan keamanan yang sama dengan transfer reguler ke Amazon S3. Semua fitur keamanan Amazon S3, seperti pembatasan akses berdasarkan pada alamat IP klien, juga didukung. S3 Transfer Acceleration berkomunikasi dengan klien melalui TCP standar dan tidak memerlukan perubahan firewall. Tidak ada data yang disimpan di Lokasi Edge AWS.

T:    Bagaimana jika S3 Transfer Acceleration tidak lebih cepat dibandingkan Amazon S3 transfer reguler?

Setiap kali Anda menggunakan S3 Transfer Acceleration untuk mengunggah objek, kami akan memeriksa apakah S3 Transfer Acceleration lebih cepat dari transfer Amazon S3 reguler. Jika kami menentukan bahwa S3 Transfer Acceleration tidak mungkin lebih cepat dari transfer Amazon S3 reguler dari objek yang sama ke Wilayah AWS tujuan yang sama, kami tidak akan mengenakan biaya untuk penggunaan S3 Transfer Acceleration bagi transfer tersebut, dan dapat melewati sistem S3 Transfer Acceleration untuk pengunggahan itu.

T:     Apakah saya dapat menggunakan S3 Transfer Acceleration dengan pengunggahan multi-bagian?

Ya, S3 Transfer Acceleration mendukung semua fitur di tingkat bucket termasuk pengunggahan multi-bagian.

T:      Bagaimana saya harus memilih antara S3 Transfer Acceleration dan PUT/POST Amazon CloudFront?

S3 Transfer Acceleration mengoptimalkan protokol TCP dan menambahkan inteligensi tambahan antara klien dan bucket S3, membuat S3 Transfer Acceleration pilihan yang lebih baik jika throughput yang lebih tinggi diinginkan. Jika Anda memiliki objek yang lebih kecil dari 1GB atau jika data set ukurannya kurang dari 1GB, Anda perlu mempertimbangkan untuk menggunakan perintah PUT/POST Amazon CloudFront untuk kinerja yang optimal.

T:      Bagaimana sebaiknya saya memilih antara S3 Transfer Acceleration dan AWS Snow Family (Snowball, Snowball Edge, dan Snowmobile)?

AWS Snow Family ideal untuk pelanggan yang memindahkan batch data yang besar sekaligus. AWS Snowball memiliki waktu layanan yang biasanya 5-7 hari. Sederhananya, S3 Transfer Acceleration melalui jalur 1 Gbps yang digunakan secara penuh dapat mentransfer hingga 75 TB pada periode waktu yang bersamaan. Secara umum, jika memerlukan waktu lebih dari satu minggu untuk mentransfer melalui internet, atau terdapat pekerjaan transfer yang berulang dan terdapat lebih dari 25 Mbps bandwith yang tersedia, S3 Transfer Acceleration merupakan pilihan yang bagus. Pilihan lainnya adalah menggunakan keduanya: lakukan perpindahan awal yang berat dengan AWS Snowball (atau seri AWS Snowball) dan kemudian transfer perubahan berjalan yang meningkat dengan S3 Transfer Acceleration.

T:      Apakah S3 Transfer Acceleration dapat melengkapi AWS Direct Connect?

AWS Direct Connect merupakan pilihan yang bagus bagi pelanggan yang memiliki persyaratan jaringan pribadi atau memiliki akses ke pertukaran AWS Direct Connect. S3 Transfer Acceleration paling cocok untuk mengirimkan data dari lokasi klien yang tersebar di internet publik, atau ketika kondisi jaringan yang beragam membuat throughput buruk. Beberapa pelanggan AWS Direct Connect menggunakan S3 Transfer Acceleration untuk membantu transfer kantor jarak jauh, yang mungkin memiliki kinerja internet yang buruk.

T:      Apakah S3 Transfer Acceleration dapat melengkapi AWS Storage Gateway atau gateway pihak ke-3?

Jika Anda mengonfigurasi tujuan bucket di gateway pihak ke-3 untuk menggunakan nama domain titik akhir Transfer Acceleration S3, Anda akan melihat manfaatnya.

Kunjungi Bagian file FAQ Storage Gateway ini untuk memahami implementasi AWS lebih jauh.

T:     Apakah S3 Transfer Acceleration dapat melengkapi software yang terintegrasi pihak ke-3?

Ya. Paket perangkat lunak yang membangun hubungan langsung ke Amazon S3 dapat memanfaatkan S3 Transfer Acceleration ketika mengirimkan pekerjaan mereka ke Amazon S3.

Pelajari selengkapnya tentang Storage Partner Solutions»

Q:      Apakah S3 Transfer Acceleration HIPAA memenuhi syarat?

Ya, AWS telah memperluas program kepatuhan HIPAA untuk mencakup Amazon S3 Transfer Acceleration sebagai layanan HIPAA yang memenuhi syarat. Jika Anda memiliki Business Associate Agreement (BAA) yang dijalankan dengan AWS, Anda dapat menggunakan Amazon S3 Transfer Acceleration untuk mengaktifkan transfer file yang cepat, mudah, dan aman termasuk informasi kesehatan terlindungi (PHI) melalui jarak jauh antara klien Anda dan bucket Amazon S3.

Pelajari selengkapnya tentang Kepatuhan HIPAA »

Pengelolaan Penyimpanan

Pemberian Tag Objek S3

Q:  T: Apa itu Tag Objek S3?

Tag Objek S3 adalah pasangan nilai kunci yang diterapkan pada objek S3 yang dapat dibuat, diperbarui atau dihapus kapan saja selama objek tersebut ada. Dengan ini, Anda akan memiliki kemampuan untuk membuat kebijakan Identity and Access Management (IAM), mengatur kebijakan Siklus Aktif S3, dan menyesuaikan metrik penyimpanan. Tag pada tingkat objek ini kemudian dapat mengelola transisi antara kelas penyimpanan dan mengakhiri objek di latar belakang.

Q:  Bagaimana saya menerapkan Tag Objek ke objek saya?

Anda dapat menambahkan tag ke objek baru saat mengunggahnya atau menambahkannya pada objek yang sudah ada. Hingga sepuluh tag dapat ditambahkan ke tiap objek S3 dan Anda dapat menggunakan AWS Management Console, REST API, AWS CLI, atau AWS SDK untuk menambahkan tag objek.

T:  Mengapa saya perlu menggunakan Tag Objek?

Tanda Objek merupakan alat yang dapat Anda gunakan untuk mengaktifkan pengelolaan sederhana pada penyimpanan S3 Anda. Dengan kemampuan untuk membuat, memperbarui, dan menghapus tag kapan saja selama objek Anda ada, penyimpanan dapat disesuaikan dengan kebutuhan bisnis Anda. Tag tersebut memungkinkan Anda untuk mengontrol akses ke objek yang ditandai dengan pasangan nilai kunci tertentu, memungkinkan Anda untuk lebih mengamankan data rahasia yang hanya untuk grup atau pengguna tertentu. Tanda objek juga dapat digunakan untuk melabeli objek yang termasuk dalam proyek atau unit bisnis tertentu, yang dapat digunakan bersama dengan kebijakan Siklus Aktif S3 untuk mengelola transisi ke kelas penyimpanan lainnya (S3 Standard-IA, S3 One Zone-IA, dan S3 Glacier) atau dengan S3 Replikasi Lintas Wilayah untuk secara selektif mereplikasi data antara Wilayah AWS.

Q:  Bagaimana saya memperbarui Tag Objek pada objek saya?

Tag Objek dapat diubah kapan saja selama objek S3 ada, Anda dapat menggunakan AWS Management Console, REST API, AWS CLI, atau AWS SDK untuk mengubah tag objek Anda. Perhatikan bahwa semua perubahan untuk tag di luar AWS Management Console dibuat ke set tag penuh. Jika Anda memiliki lima tag yang dipasang pada objek tertentu dan ingin menambahkan yang keenam. Anda perlu memasukkan lima tag awal ke dalam permintaan itu.

T:  Apakah Tag Objek saya akan direplikasi jika saya menggunakan Replikasi Lintas Wilayah?

Tanda Objek dapat direplikasi di semua Wilayah AWS menggunakan Replikasi Lintas Wilayah. Untuk pelanggan yang sudah mengaktifkan Replikasi Lintas Wilayah, perizinan baru diperlukan untuk mereplika tag. Untuk informasi selengkapnya tentang mengatur Replikasi Lintas Wilayah, kunjungi Bagaimana Mengatur Replikasi Lintas Wilayah di Panduan Pengembang Amazon S3.

T:  Berapa harga Tag Objek?

Tanda objek dihargai berdasarkan jumlah tanda dan biaya permintaan untuk menambahkan tanda. Permintaan yang dikaitkan dengan menambahkan dan memperbarui Tag Objek dihargai sama dengan harga permintaan yang sudah ada. Lihat Halaman Harga Amazon S3 untuk informasi selengkapnya.

Analisis Kelas Penyimpanan

T:  Apa itu Analisis Kelas Penyimpanan?

Dengan analisis kelas penyimpanan, Anda dapat menganalisis pola akses penyimpanan dan memindahkan data yang tepat ke kelas penyimpanan yang tepat. Fitur S3 yang baru ini secara otomatis mengidentifikasi pola akses yang jarang untuk membantu Anda memindahkan penyimpanan ke IA-Standar S3. Anda dapat mengonfigurasi kebijakan Analisis Kelas Penyimpanan untuk memonitor semua bucket, prefiks, atau tanda objek. Setelah pola akses yang jarang telah diamati, Anda dapat dengan mudah membuat kebijakan usia Siklus Aktif S3 yang baru berdasarkan hasil tersebut. Analisis Kelas Penyimpanan juga memberikan visualisasi harian dari penggunaan penyimpanan Anda pada AWS Management Console yang dapat Anda ekspor ke bucket S3 untuk melakukan analisis dengan menggunakan alat inteligensi bisnis pilihan Anda seperti Amazon QuickSight.

T:   Bagaimana saya memulai dengan Analisis Kelas Penyimpanan?

Anda dapat menggunakan AWS Management Console atau API Analisis S3 PUT Bucket untuk mengkonfigurasi kebijakan Analisis Kelas Penyimpanan guna mengidentifikasi penyimpanan yang jarang diakses yang dapat ditransisikan ke kelas penyimpanan S3 Standard-IA atau S3 One Zone-IA atau terarsip ke kelas penyimpanan S3 Glacier. Anda dapat bernavigasi ke tab “Pengelolaan” di S3 Console untuk mengelola Analisis Kelas Penyimpanan, S3 Inventory, dan metrik S3 CloudWatch.

T:   Bagaimana perhitungan biayanya jika saya menggunakan Analisis Kelas Penyimpanan?

Lihat halaman harga Amazon S3 untuk informasi umum tentang harga Analisis Kelas Penyimpanan.

Q:   Seberapa sering Analisis Kelas Penyimpanan diperbarui?

Analisis Kelas Penyimpanan diperbarui secara harian pada S3 Management Console. Sebagai tambahan, Anda dapat mengkonfigurasi Analisis Kelas Penyimpanan untuk mengekspor laporan Anda ke S3 bucket yang dipilih.

S3 Inventory

T:  Apa itu S3 Inventory?

Laporan S3 Inventory memberikan alternatif yang terjadwal untuk API Daftar sinkron Amazon S3. Anda dapat mengonfigurasi S3 Inventory untuk memberikan output file CSV, ORC, atau Parquet objek Anda dan metadata yang terkait pada basis harian atau mingguan untuk satu bucket atau prefiks S3. Anda dapat menyederhanakan dan mempercepat alur kerja bisnis dan pekerjaan big data dengan S3 Inventory. Anda dapat juga menggunakan inventaris S3 untuk memeriksa status enkripsi dan replikasi objek Anda untuk memenuhi kebutuhan bisnis, kepatuhan, dan regulatori. 

T: Bagaimana saya memulai dengan S3 Inventory?

Anda dapat menggunakan AWS Management Console atau PUT Bucket Inventory API untuk mengonfigurasi laporan inventaris harian atau mingguan untuk semua objek dalam bucket S3 Anda atau subset dari objek di bawah prefiks yang dibagikan. Sebagai bagian dari konfigurasi, Anda dapat menentukan tujuan bucket S3 untuk laporan Inventaris S3 Anda, format file output (CSV, ORC, atau Parquet), dan metadata objek tertentu yang penting untuk aplikasi bisnis, seperti nama objek, ukuran, tanggal dimodifikasi terakhir, kelas penyimpanan, ID versi, penanda hapus, penanda versi bukan terbaru, penanda pengunggahan multi-bagian, status replikasi, atau status enkripsi.

T:  Dapatkah file laporan Inventaris S3 dienkripsi?

Ya, Anda dapat mengonfigurasi enkripsi semua file yang ditulis oleh S3 Inventory untuk dienkripsi dengan SSE-S3 atau SSE-KMS. Untuk informasi selengkapnya, lihat panduan pengguna.

T:  Bagaimana saya menggunakan S3 Inventory?

Anda dapat menggunakan S3 Inventory sebagai input langsung ke alur kerja aplikasi atau pekerjaan big data Anda. Anda juga dapat melakukan kueri S3 Inventory menggunakan bahasa SQL Standar dengan Amazon Athena, Amazon Redshift Spectrum, dan alat lain seperti Presto, Hive, dan Spark.

Pelajari selengkapnya tentang melakukan kueri S3 Inventory dengan Athena »

T:  Bagaimana saya dikenai biaya untuk menggunakan S3 Inventory?

Lihat halaman harga Amazon S3 untuk harga S3 Inventory. Setelah Anda mengonfigurasi enkripsi menggunakan SSE-KMS, Anda akan dikenai biaya KMS untuk enkripsi, lihat halaman harga KMS untuk informasi selengkapnya.

Operasi Batch S3

T:  Apa itu Operasi Batch S3?

Operasi Batch S3 merupakan fitur yang dapat Anda gunakan untuk mengotomatiskan eksekusi, pengelolaan, dan pengauditan permintaan S3 tertentu atau fungsi Lambda di banyak objek yang disimpan di Amazon S3. Anda dapat menggunakan Operasi Batch S3 untuk mengotomatiskan penggantian kumpulan tag pada objek S3, memperbarui access control lists (ACL) untuk objek S3, menyalin penyimpanan antar bucket, memulai pemulihan dari Glacier ke S3, atau melakukan operasi khusus dengan fungsi Lambda. Operasi Batch S3 dapat digunakan dari konsol S3, atau melalui AWS CLI dan SDK.

T: Mengapa saya harus menggunakan Operasi Batch S3?

Anda harus menggunakan Operasi Batch S3 jika ingin mengotomatiskan eksekusi operasi tunggal (seperti menyalin objek, atau menjalankan fungsi AWS Lambda) di banyak objek. Dengan Operasi Batch S3, Anda dapat, dengan beberapa klik di konsol S3 atau permintaan API tunggal, membuat perubahan ke miliaran objek tanpa harus menulis kode aplikasi khusus atau menjalankan klaster komputasi untuk aplikasi manajemen penyimpanan. Selain mengelola operasi penyimpanan Anda di banyak objek, Operasi Batch S3 juga mengelola pengulangan, menampilkan kemajuan, mengirimkan pemberitahuan, menyediakan laporan penyelesaian, dan mengirim peristiwa ke AWS CloudTrail untuk semua operasi yang dilakukan pada objek target Anda. Jika Anda tertarik mempelajari lebih lanjut tentang Operasi Batch S3, kunjungi halaman fitur Amazon S3.

T:  Bagaimana cara memulai dengan Operasi Batch S3?

Anda dapat memulai Operasi Batch S3 dengan masuk ke konsol Amazon S3 atau menggunakan AWS CLI atau SDK untuk membuat pekerjaan Operasi Batch S3 pertama Anda. Tugas Operasi Batch S3 terdiri dari daftar objek untuk ditindaklanjuti dan jenis operasi yang akan dilakukan. Mulai dengan memilih laporan Inventaris S3 atau berikan daftar khusus Anda dari objek untuk Operasi Batch S3 untuk ditangani. Laporan Inventaris S3 adalah daftar file semua objek yang disimpan dalam bucket S3 atau prefiks. Selanjutnya, Anda memilih dari serangkaian operasi S3 yang didukung oleh Operasi Batch S3, seperti mengganti kumpulan tag, mengubah ACL, menyalin penyimpanan dari satu bucket ke bucket lain, atau memulai pemulihan dari Glacier ke S3. Anda kemudian dapat menyesuaikan pekerjaan Operasi Batch S3 Anda dengan parameter tertentu seperti nilai tag, penerima ACL, dan durasi pemulihan. Untuk lebih menyesuaikan tindakan penyimpanan, Anda dapat menulis fungsi Lambda Anda sendiri dan memanggil kode itu melalui Operasi Batch S3.

Setelah Anda membuat tugas Operasi Batch S3, Operasi Batch S3 akan memproses daftar objek dan mengirim pekerjaan ke status “menunggu konfirmasi” jika perlu. Setelah Anda mengonfirmasi detail pekerjaan, Operasi Batch S3 akan mulai menjalankan operasi yang Anda tentukan. Anda dapat melihat kemajuan pekerjaan Anda secara terprogram atau melalui konsol S3, menerima pemberitahuan saat selesai, dan meninjau laporan penyelesaian yang memerinci perubahan yang dilakukan pada penyimpanan Anda.

Jika Anda tertarik dalam mempelajari lebih lanjut tentang Operasi Batch S3, tonton video tutorial dan kunjungi dokumentasi.

S3 Object Lock

T: Apa itu Amazon S3 Object Lock?

Amazon S3 Object Lock merupakan fitur baru dari Amazon S3 yang memblokir penghapusan objek selama periode retensi yang ditentukan oleh pelanggan sehingga memungkinkan Anda memberlakukan kebijakan retensi sebagai lapisan perlindungan data tambahan atau untuk kepatuhan terhadap peraturan. Anda dapat memigrasikan beban kerja dari sistem write-once-read-many (WORM) yang sudah ada ke dalam Amazon S3, dan mengonfigurasikan S3 Object Lock pada objek- dan tingkat bucket untuk mencegah penghapusan versi objek sebelum Tanggal Tahan yang ditentukan atau Tanggal Kontrol Legal. Perlindungan S3 Object Lock dipertahankan terlepas dari kelas penyimpanan mana objek berada di dan sepanjang transisi Siklus Aktif S3 antara kelas penyimpanan.

T: Mengapa harus menggunakan Amazon S3 Object Lock?

Anda harus menggunakan S3 Object Lock jika Anda memiliki persyaratan peraturan yang menentukan bahwa data harus dilindungi WORM, atau jika Anda ingin menambahkan lapisan perlindungan tambahan terhadap data di Amazon S3. S3 Object Lock dapat membantu Anda memenuhi persyaratan peraturan yang menentukan bahwa data harus disimpan dalam format yang tidak berubah, dan juga dapat melindungi terhadap penghapusan tidak disengaja atau berbahaya untuk data di Amazon S3.

T: Bagaimana cara kerja Amazon S3 Object Lock?

Amazon S3 Object Lock memblokir penghapusan objek selama durasi periode retensi yang ditentukan. Ditambah dengan Versi S3, yang melindungi objek agar tidak tertimpa, Anda dapat memastikan bahwa objek tetap tidak berubah selama perlindungan WORM diterapkan. Anda dapat menerapkan perlindungan WORM dengan menetapkan Tanggal Tahan atau Tanggal Kontrol Legal ke suatu objek menggunakan SDK AWS, CLI, REST API, atau Management Console S3. Anda dapat menerapkan pengaturan retensi dalam permintaan PUT, atau menerapkannya ke objek yang ada setelah dibuat.

Tanggal Tahan menentukan lamanya waktu untuk suatu objek tetap tidak berubah. Setelah Tanggal Tahan ditetapkan ke suatu objek, objek tersebut tidak dapat dimodifikasi atau dihapus sampai Tanggal Tahan berlalu. Jika pengguna mencoba menghapus objek sebelum Tanggal Tahan, maka operasi akan ditolak.

S3 Object Lock dapat dikonfigurasi dalam salah satu dari dua Mode. Saat disebarkan dalam Mode Governance, akun AWS dengan izin IAM tertentu dapat menghapus perlindungan WORM dari objek. Jika Anda membutuhkan keteguhan yang lebih kuat untuk mematuhi peraturan, Anda dapat menggunakan Mode Kepatuhan. Dalam Mode Kepatuhan, perlindungan WORM tidak dapat dihapus oleh pengguna mana pun, termasuk akun root.

Atau, Anda dapat membuat objek dapat diubah dengan menerapkan Kontrol Legal ke objek. Kontrol Legal menempatkan perlindungan S3 Object Lock tidak terbatas pada objek, yang akan tetap sampai secara eksplisit dihapus. Untuk menempatkan dan menghapus Pengamanan Dokumen Hukum, akun AWS Anda harus memiliki izin tulis untuk tindakan PutObjectLegalHold. Pengamanan Dokumen Hukum dapat diterapkan ke objek apa pun dalam bucket S3 Object Lock aktif, baik objek tersebut dilindungi WORM berdasarkan periode retensi atau tidak.

T: Apa yang telah dinilai oleh layanan penyimpanan elektronik AWS berdasarkan peraturan layanan keuangan?

Untuk pelanggan di industri layanan keuangan, S3 Object Lock memberikan dukungan tambahan kepada penjual perantara yang harus menyimpan catatan dalam format yang tidak dapat dihapus dan tidak dapat ditulis ulang untuk memenuhi persyaratan peraturan Aturan SEC 17a-4(f), Aturan FINRA 4511, atau Peraturan CFTC 1.31. Anda dapat dengan mudah menentukan kerangka waktu retensi catatan untuk menyimpan arsip peraturan dalam bentuk aslinya selama durasi yang diperlukan, dan juga menetapkan kontrol legal untuk menyimpan data selama waktu yang tidak ditentukan sampai kontrol tersebut dihapus.

T: Dokumentasi AWS apa yang mendukung persyaratan SEC 17a-4(f)(2)(i) dan CFTC 1.31(c) untuk memberitahukan pihak pembuat peraturan saya?

Buat pemberitahuan pada pembuat peraturan atau “Designated Examining Authority (DEA)” pilihan Anda untuk menggunakan penyimpanan elektronik Amazon S3 dengan salinan Cohasset Assessment. Untuk tujuan persyaratan ini, AWS bukan pihak ketiga yang ditentukan (D3P). Pastikan untuk memilih D3P dan sertakan informasi ini dalam pemberitahuan Anda ke DEA Anda.

S3 CloudWatch Metrics

T:  Bagaimana saya memulai dengan S3 CloudWatch Metrics? 

Anda dapat menggunakan AWS Management Console untuk mengaktifkan pembuatan metrik permintaan CloudWatch 1 menit untuk bucket S3 Anda atau mengonfigurasi filter untuk metrik menggunakan prefiks atau tag objek. Sebagai alternatifnya, Anda dapat memanggil S3 PUT Bucket Metric API untuk mengaktifkan dan mengonfigurasi penerbitan metrik penyimpanan S3. Metrik Permintaan CloudWatch akan tersedia di CloudWatch dalam 15 menit setelah diaktifkan. CloudWatch Storage Metrics diaktifkan secara default untuk semua bucket, dan dilaporkan satu kali per hari.

T:  Apakah saya dapat memasukkan metrik permintaan CloudWatch ke aplikasi dan organisasi bisnis saya?

Ya, Anda dapat mengonfigurasi metrik permintaan CloudWatch untuk membuat metrik untuk bucket S3 Anda atau mengonfigurasi filter untuk metrik menggunakan prefiks atau tag objek.

T:  Alarm apa saja yang dapat saya pasang pada metrik penyimpanan?

Anda dapat menggunakan CloudWatch untuk mengatur ambang batas pada hitungan metrik penyimpanan, timer, atau tarif mana pun dan memicu tindakan saat batas terlewati. Sebagai contoh, Anda dapat mengatur batas pada persentase Respons Kesalahan 4xx dan saat setidaknya 3 poin data di atas ambang batas, memicu alarm CloudWatch untuk memperingatkan teknisi DevOps.

Q:  Bagaimana saya dikenai biaya untuk menggunakan S3 CloudWatch Metrics? 

Metrik penyimpanan CloudWatch disediakan gratis. Metrik permintaan CloudWatch dihargai sebagai metrik kustom untuk Amazon CloudWatch. Silakan lihat halaman harga Amazon CloudWatch untuk informasi umum tentang harga metrik S3 CloudWatch.

Pengelolaan Siklus Aktif S3

T:  Apa itu Pengelolaan Siklus Aktif S3?

Pengelolaan Siklus aktif S3 memberikan kemampuan untuk mendefinisikan siklus aktif objek Anda dengan kebijakan yang telah ditentukan dan mengurangi biaya penyimpanan. Anda dapat mengatur kebijakan transisi siklus aktif untuk secara otomatis memindahkan objek yang disimpan dalam kelas penyimpanan S3 Standard ke kelas penyimpanan S3 Standard-IA, S3 One Zone-IA, dan/atau S3 Glacier pada umur data. Anda juga dapat mengatur kebijakan kedaluwarsa siklus aktif untuk menghapus objek secara otomatis berdasarkan pada usia objek. Anda dapat mengatur kebijakan untuk kedaluwarsa pengunggahan multi-bagian, yang mengakhiri pengunggahan multi-bagian tak lengkap berdasarkan pada usia pengunggahan.

T:  Bagaimana saya mengatur kebijakan pengelolaan Siklus Aktif S3?

Anda dapat mengatur dan mengelola kebijakan Siklus Aktif di AWS Management Console, S3 REST API, AWS SDK, atau AWS Command Line Interface (CLI). Anda dapat menentukan kebijakan pada prefiks atau pada tingkat bucket.

Q:  Berapa biaya untuk menggunakan pengelolaan Siklus Aktif S3?

Tidak ada biaya tambahan untuk mengatur dan menggunakan kebijakan Siklus Aktif. Permintaan transisi dikenai biaya per objek saat sebuah objek memenuhi persyaratan untuk transisi berdasarkan pada aturan Siklus Aktif. Lihat pada halaman Harga S3 untuk informasi harga.

Q:  Apa yang dapat saya lakukan dengan kebijakan pengelolaan Siklus Aktif?

Seiring dengan matangnya data, data dapat menjadi kurang penting, kurang berharga dan/atau menjadi objek persyaratan kepatuhan. Amazon S3 mencakup pustaka kebijakan lengkap yang membantu Anda mengotomasi proses migrasi data di antara kelas penyimpanan. Sebagai contoh, Anda dapat mengatur agar objek yang jarang diakses dipindahkan ke kelas penyimpanan yang lebih murah (seperti IA-Standar S3 atau IA-Satu Zona S3) setelah periode waktu tertentu. Setelah periode lainnya, objek tersebut dapat dipindahkan ke Amazon S3 Glacier untuk pengarsipan dan kepatuhan. Jika kebijakan mengizinkan, Anda juga dapat menentukan kebijakan siklus aktif untuk penghapusan objek. Peraturan ini dapat menghemat biaya penyimpanan dan menyederhanakan usaha pengelolaan, walaupun tidak terlihat. Peraturan tersebut juga mencakup praktik kepengurusan yang baik untuk menghapus objek dan atribut yang tidak lagi diperlukan untuk mengelola biaya dan meningkatkan kinerja.

T:  Bagaimana saya bisa menggunakan pengelolaan Siklus Aktif Amazon S3 untuk membantu menurunkan biaya penyimpanan Amazon S3?

Dengan kebijakan Siklus Aktif Amazon S3, Anda dapat mengonfigurasi objek Anda untuk dipindahkan dari kelas penyimpanan S3 Standard ke S3 Standard-IA atau S3 One Zone-IA dan/atau diarsipkan ke S3 Glacier. Anda dapat juga menentukan kebijakan Siklus Aktif S3 untuk menghapus objek setelah periode waktu tertentu. Anda dapat menggunakan otomasi berdasarkan kebijakan ini untuk mengurangi biaya penyimpanan dengan cepat dan mudah sekaligus menghemat waktu. Di tiap peraturan, Anda dapat menentukan prefiks, periode waktu, transisi ke S3 Standard-IA, S3 One Zone-IA, atau S3 Glacier, dan/atau kedaluwarsa. Sebagai contoh, Anda dapat membuat aturan yang mengarsipkan semua objek ke S3 Glacier dengan prefiks umum “logs/” 30 hari sejak pembuatannya, dan membuat objek tersebut kedaluwarsa setelah 365 dari setelah pembuatan. Anda juga dapat membuat aturan terpisah yang hanya membuat kedaluwarsa semua objek dengan prefiks “backups/” 90 hari setelah pembuatan. Kebijakan Siklus Aktif S3 berlaku untuk objek S3 lama dan baru, yang membantu Anda mengoptimalkan penyimpanan dan memaksimalkan penghematan biaya untuk semua data saat ini dan data baru yang ditempatkan di S3 tanpa peninjauan dan migrasi data secara manual yang memakan waktu. Dalam aturan siklus aktif, bidang prefiks mengidentifikasi objek sasaran aturan. Untuk mengaplikasikan aturan ke objek individual, spesifikasikan nama kunci. Untuk mengaplikasikan aturan ke sekelompok objek, spesifikasikan prefiks yang sama (misalnya “logs/”). Anda dapat menyebutkan tindakan transisi untuk mengarsipkan objek dan tindakan kedaluwarsa untuk menghapus objek Anda. Untuk periode waktu, berikan tanggal pembuatan (misalnya 31 Januari 2015) atau jumlah hari dari tanggal pembuatan (misalnya 30 hari) yang Anda inginkan untuk mengarsipkan atau menghapus objek. Anda dapat membuat beberapa aturan untuk prefiks yang berbeda.

Q:   Bagaimana saya mengonfigurasi objek untuk dihapus setelah periode waktu tertentu?

Anda dapat mengatur kebijakan kedaluwarsa Siklus Aktif S3 untuk menghapus objek dari bucket Anda setelah jumlah hari yang ditentukan. Anda dapat mendefinisikan aturan ekspirasi untuk sepaket objek di bucket Anda melalui aturan Konfigurasi Siklus Aktif yang Anda terapkan pada bucket.

Pelajari selengkapnya tentang kebijakan kedaluwara S3 Siklus Aktif »

T:    Mengapa saya harus menggunakan kebijakan Siklus Aktif S3 untuk menghentikan pengunggahan multi-bagian yang tidak selesai?

Kebijakan Siklus Aktif S3 yang menghentikan pengunggahan multi-bagian yang tidak selesai memungkinkan Anda menghemat biaya dengan membatasi waktu simpan pengunggahan multi-bagian yang tidak selesai. Sebagai contoh, jika aplikasi Anda mengunggah beberapa bagian objek multi-bagian, tetapi tidak melaksanakannya, Anda akan tetapi dikenai biaya untuk penyimpanan tersebut. Aturan ini dapat menurunkan tagihan S3 Anda dengan menghapus secara otomatis pengunggahan multi-bagian yang tidak selesai dan penyimpanan yang terkait setelah sejumlah hari yang telah ditentukan.

Pelajari selengkapnya tentang penggunaan Siklus Aktif S3 untuk menghentikan unggahan multi-bagian yang tidak lengkap »

Replikasi Lintas Wilayah

T:  Apa itu Amazon S3 Replikasi Lintas Wilayah (CRR)?

CRR adalah fitur Amazon S3 yang secara otomatis mereplikasi data di seluruh Wilayah AWS. Dengan CRR, Anda dapat mengatur replikasi pada tingkat bucket, tingkat prefiks bersama, atau level objek menggunakan tag objek S3. Anda dapat menggunakan CRR untuk memberikan akses data dengan latensi yang lebih rendah di wilayah geografis yang berbeda. CRR juga dapat membantu jika Anda memiliki persyaratan kepatuhan untuk menyimpan salinan data yang jaraknya ratusan mil.

T:  Bagaimana cara mengaktifkan CRR?

CRR dikonfigurasikan pada tingkat S3 bucket. Anda mengaktifkan konfigurasi CRR di bucket sumber Anda dengan menentukan bucket tujuan di wilayah yang berbeda untuk replikasi. Anda dapat menggunakan AWS Management Console, REST API, AWS CLI, atau AWS SDK untuk mengaktifkan CRR. Penggunaan versi harus diaktifkan baik untuk bucket sumber maupun tujuan untuk mengaktifkan CRR. Untuk mempelajari selengkapnya, kunjungi Bagaimana Mengatur Replikasi Lintas Wilayah di Panduan Pengembang Amazon S3.

T:  Apakah saya dapat menggunakan CRR dengan aturan Siklus Aktif S3?

Ya, Anda dapat mengonfigurasi secara terpisah aturan Siklus Aktif S3 pada bucket sumber dan bucket tujuan. Sebagai contoh, Anda dapat mengkonfigurasi aturan siklus aktif untuk memindahkan data dari kelas penyimpanan S3 Standard ke kelas penyimpanan S3 Standard-IA atau S3 One Zone-IA atau mengarsipkan data ke S3 Glacier pada bucket tujuan.

Sekarang, Anda dapat menetapkan aturan S3 Cross-Region Replication untuk membuat salinan data langsung ke kelas penyimpanan S3 Glacier di wilayah yang berbeda untuk cadangan atau tujuan lain, tanpa harus mengelola kebijakan siklus aktif data.

T:   Apakah saya dapat menggunakan CRR dengan objek yang dienkripsi oleh AWS Key Management Service (KMS)?

Ya, Anda dapat mereplikasi objek yang dienkripsi KMS dengan memberikan kunci KMS tujuan dalam konfigurasi replikasi Anda.

Pelajari selengkapnya tentang replikasi objek yang dienkripsi-KMS »

T:   Apakah objek ditransfer dan dienkripsi dengan aman selama proses replikasi?

Ya, objek tetap dienkripsi selama proses CRR. Objek yang dienkripsi dikirimkan dengan aman melalui SSL dari wilayah sumber ke wilayah tujuan.

T:     Dapatkah saya menggunakan CRR di seluruh akun AWS agar terlindung dari penghapusan yang jahat atau tidak disengaja?

Ya, Anda dapat mengatur CRR di seluruh akun AWS untuk menyimpan data yang direplikasi di akun yang berbeda di wilayah tujuan. Anda dapat menggunakan Penimpaan Kepemilikan CRR pada konfigurasi replikasi Anda untuk mempertahankan tumpukan kepemilikan yang berbeda antara sumber dan tujuan, dan memberikan kepemilikan akun tujuan ke penyimpanan yang direplikasi. 

T:    Berapa harga Replikasi Lintas-Wilayah S3?

Anda membayar tagihan Amazon S3 untuk penyimpanan (dalam kelas penyimpanan S3 yang dipilih), SALIN atau LETAKKAN permintaan, dan Transfer Data antarwilayah KELUAR Dari Amazon S3 untuk salinan data yang direplikasi. Permintaan SALIN dan transfer data lintas wilayah dikenai biaya berdasarkan wilayah sumber. Penyimpanan data yang direplikasi dikenai biaya berdasarkan pada wilayah tujuan. Untuk informasi selengkapnya, kunjungi halaman harga S3.

Jika objek sumber diunggah menggunakan fitur pengunggahan multi-bagian, maka objek tersebut direplikasi menggunakan jumlah bagian dan ukuran bagian yang sama. Sebagai contoh, objek 100 GB yang diunggah menggunakan fitur pengunggahan multi-bagian (800 bagian sebesar masing-masing 128 MB) akan menimbulkan biaya permintaan yang dikaitkan dengan 802 permintaan (800 permintaan Unggah + 1 permintaan Mulai Pengunggahan Multi-bagian + 1 permintaan Selesaikan Pengunggahan Multi-bagian) saat direplikasi. Anda akan dikenai biaya permintaan 0,00401 USD (802 permintaan x 0,005 USD per 1.000 permintaan) dan biaya 2,00 USD (0,020 USD per GB ditransfer x 100 GB) untuk transfer data lintas wilayah. Setelah replikasi, 100 GB tersebut akan dikenai biaya penyimpanan berdasarkan pada wilayah tujuan.

Amazon S3 dan IPv6

T: Apa itu IPv6?

Setiap server dan perangkat yang terhubung ke internet harus memiliki alamat yang unik. Internet Protocol Version 4 (IPv4) merupakan skema pengalamatan 32-bit yang asli. Namun, pertumbuhan internet yang terus-menerus berarti bahwa semua alamat IPv4 yang tersedia akan dipakai seiring berjalannya waktu. Internet Protocol Version 6 (IPv6) merupakan mekanisme pengalamatan baru yang dirancang untuk mengatasi limitasi alamat global pada IPv4.

Q:   Apa yang dapat saya lakukan dengan IPv6?

Dengan menggunakan dukungan IPv6 untuk Amazon S3, aplikasi dapat terhubung ke Amazon S3 tanpa membutuhkan perangkat lunak atau sistem penerjemahan IPv6 ke IPv4. Anda dapat memenuhi persyaratan kepatuhan, lebih mudah mengintegrasikan dengan aplikasi lokal berbasis IPv6 yang ada, dan menghilangkan kebutuhan perangkat jaringan yang mahal untuk menangani penerjemahan alamat. Sekarang Anda juga dapat menggunakan fitur pemfilteran alamat sumber di aturan IAM dan aturan bucket dengan alamat IPv6, menambah opsi Anda untuk mengamankan aplikasi yang berinteraksi dengan Amazon S3.

T:   Bagaimana saya memulai dengan IPv6 di Amazon S3?

Anda dapat memulai dengan menunjuk aplikasi Anda ke titik akhir “dual-stack” Amazon S3 yang baru, yang mendukung akses melalui IPv4 dan IPv6. Di sebagian besar kasus, konfigurasi tambahan tidak dibutuhkan untuk akses melalui IPv6 karena sebagian besar klien jaringan lebih cenderung pada alamat IPv6 secara default.

T:  Apakah saya perlu mengharapkan perubahan dalam Amazon S3 saat menggunakan IPv6?

Tidak, Anda akan melihat kinerja yang sama saat menggunakan IPv4 dan IPv6 dengan Amazon S3.

T:   Apa yang bisa saya lakukan jika klien saya terpengaruh oleh kebijakan, jaringan, atau hambatan lain dalam menggunakan IPv6 untuk Amazon S3?

Aplikasi yang terpengaruh dengan menggunakan IPv6 dapat beralih kembali ke titik akhir khusus IPv4 standar kapan saja.

T:    Apakah saya dapat menggunakan IPv6 dengan semua fitur Amazon S3?

Tidak, dukungan IPv6 saat ini tidak tersedia saat menggunakan Website Hosting dan akses melalui BitTorrent. Semua fitur lain akan bekerja sesuai harapan saat mengakses Amazon S3 menggunakan IPv6.

T:    Apakah IPv6 didukung di semua Wilayah AWS?

Anda dapat menggunakan IPv6 dengan Amazon S3 di semua wilayah komersial AWS kecuali Tiongkok (Beijing) dan Tiongkok (Ningxia). Anda juga dapat menggunakan IPv6 di wilayah AWS GovCloud (AS).

Siap untuk memulai?

Product-Page_Standard-Icons_01_Product-Features_SqInk
Cari tahu fitur produk

Pelajari selengkapnya tentang fitur untuk manajemen data, keamanan, manajemen akses, analitik, dan lainnya.

Pelajari selengkapnya 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
Daftar untuk akun gratis

Dapatkan akses secara instan ke AWS Tingkat Gratis dan mulai bereksperimen dengan Amazon S3. 

Daftar 
Product-Page_Standard-Icons_03_Start-Building_SqInk
Mulai membangun di konsol

Mulai merancang dengan Amazon S3 di Konsol AWS.

Mulai