FAQ S3 Umum

T: Apa yang dimaksud dengan Amazon S3?

Amazon S3 adalah penyimpanan objek yang dibangun untuk menyimpan dan mengambil sejumlah data dari mana pun. Amazon S3 adalah layanan penyimpanan sederhana yang menawarkan ketahanan, ketersediaan, kinerja, keamanan, dan skalabilitas hampir tanpa batas yang terkemuka di industri dengan biaya yang sangat rendah.

T: Apa yang dapat saya lakukan dengan Amazon S3?

Amazon S3 memberikan antarmuka layanan web sederhana yang dapat Anda gunakan untuk menyimpan dan mengambil sejumlah data, kapan pun, dari mana pun. Dengan menggunakan layanan ini, Anda dapat dengan mudah membangun aplikasi yang menggunakan penyimpanan cloud native. Karena Amazon S3 sangat mudah diskalakan dan Anda hanya membayar yang Anda gunakan, Anda dapat memulai dari langkah kecil dan mengembangkan aplikasi sesuai keinginan, tanpa perlu berkompromi dengan kinerja atau keandalannya.

Amazon S3 juga dirancang untuk fleksibilitas yang tinggi. Simpan data dengan tipe apa pun dan kapasitas berapa pun yang Anda inginkan; baca bagian data yang sama jutaan kali atau hanya untuk pemulihan musibah darurat; bangun aplikasi FTP sederhana, atau aplikasi web yang canggih seperti situs web retail Amazon.com. Amazon S3 membebaskan pengembang untuk fokus pada inovasi, alih-alih mencari cara bagaimana menyimpan data mereka.

T: Bagaimana cara saya mulai menggunakan Amazon S3?

Untuk mendaftar Amazon S3, klik tautan ini. Anda harus memiliki akun Amazon Web Services untuk mengakses layanan ini; jika belum memiliki akun, Anda akan diarahkan untuk membuatnya pada saat Anda memulai proses daftar ke Amazon S3. Setelah mendaftar, silakan lihat dokumentasi Amazon S3 dan kode sampel pada Pusat Sumber Daya untuk mulai menggunakan Amazon S3.

T: Apa yang dapat pengembang lakukan dengan Amazon S3 tetapi tidak dapat dilakukan dengan solusi lokal?

Amazon S3 memungkinkan pengembang mana pun untuk meningkatkan manfaat yang dimiliki Amazon dengan skala luas tanpa berkompromi dengan investasi awal atau kinerjanya. Pengembang saat ini bisa bebas berinovasi mengingat bahwa terlepas dari sesukses apa pun bisnis mereka, biayanya terjangkau dan mudah untuk memastikan data mereka dapat diakses dengan cepat, selalu tersedia, dan aman.

T: Jenis data apa yang dapat saya simpan di dalam Amazon S3?

Anda dapat menyimpan data jenis apa saja secara virtual dalam format apa pun. Silakan lihat Persetujuan Lisensi Amazon Web Services untuk detailnya.

T: Seberapa banyak data yang dapat saya simpan di dalam Amazon S3?

Volume total data dan jumlah objek yang dapat Anda simpan tidak terbatas. Objek Amazon S3 individu dapat beragam ukurannya dari minimal 0 byte hingga maksimal 5 terabyte. Objek terbesar yang dapat diunggah dalam PUT tunggal adalah sebesar 5 gigabyte. Untuk objek berukuran lebih dari 100 megabyte, pelanggan hendaknya mempertimbangkan untuk menggunakan kemampuan Unggahan Multipart.

T: Kelas penyimpanan apa yang ditawarkan oleh Amazon S3?

Amazon S3 menawarkan beragam kelas penyimpanan untuk penggunaan yang berbeda. Ini mencakup Standar S3 untuk penyimpanan umum data yang sering diakses; S3 Intelligent-Tiering untuk data dengan pola akses yang tidak diketahui atau berubah-ubah; S3 Standard-Infrequent Access (IA-Standard S3) dan S3 One Zone-Infrequent Access (IA-Satu Zona S3) untuk data yang lama disimpan atau tidak terlalu sering diakses; dan Amazon S3 Glacier (S3 Glacier) dan Amazon S3 Glacier Deep Archive (S3 Glacier Deep Archive) untuk penyimpanan arsip dan digital jangka panjang. Jika Anda memiliki persyaratan residensi data yang tidak bisa dipenuhi Wilayah AWS yang ada, Anda dapat menggunakan kelas penyimpanan S3 Outposts untuk menyimpan data S3 Anda di on-premise. Anda dapat mempelajari selengkapnya tentang keempat kelas penyimpanan di halaman Kelas Penyimpanan Amazon S3

T: Dapatkah saya memiliki bucket yang memiliki objek berbeda dalam kelas penyimpanan yang berbeda?

Ya, Anda dapat memiliki bucket yang memiliki objek yang berbeda yang disimpan dalam Standar S3, S3 Intelligent-Tiering, S3 Standard-IA, dan One Zone-IA S3.

T: Apa yang dilakukan Amazon pada data saya di Amazon S3?

Amazon akan menyimpan data Anda dan melacak penggunaannya yang terkait untuk tujuan penagihan. Amazon tidak akan mengakses data Anda untuk tujuan apa pun di luar penawaran Amazon S3, kecuali apabila perlu dilakukan oleh hukum. Silakan lihat Persetujuan Lisensi Amazon Web Services untuk detailnya.

T: Apakah Amazon menyimpan datanya di Amazon S3?

Ya. Pengembang di Amazon menggunakan Amazon S3 untuk berbagai proyek. Beberapa proyek tersebut menggunakan Amazon S3 sebagai penyimpanan data otoritatif, dan mengandalkannya untuk operasi bisnis yang penting.

T: Bagaimana data Amazon S3 dikelola?

Amazon S3 adalah penyimpanan objek berbasis kunci yang mudah. Pada saat menyimpan data, Anda menetapkan kunci objek unik yang nantinya dapat digunakan untuk mendapatkan data tersebut. Kunci dapat berupa string apa pun, dan dapat dibuat untuk menyalin atribut hierarkis. Sebagai alternatif, Anda dapat menggunakan Pemberian Tag Objek S3 untuk mengatur data Anda di seluruh bucket S3 dan/atau prefiks Anda.

T: Bagaimana saya dapat melakukan antarmuka dengan Amazon S3?

Amazon S3 memberikan antarmuka layanan web REST berbasis standar yang mudah, yang dirancang untuk bekerja dengan toolkit pengembangan Internet. Operasi tersebut sengaja dibuat sederhana agar memudahkan untuk menambahkan protokol distribusi dan lapisan fungsional baru.

T: Seberapa andal Amazon S3 itu?

Amazon S3 memberikan akses yang sama kepada pengembang mana pun ke infrastruktur penyimpanan data yang sangat mudah diskalakan, tersedia, cepat, terjangkau yang digunakan Amazon untuk menjalankan jaringan global situs webnya. Kelas penyimpanan S3 Standard dirancang untuk ketersediaan 99,99%, kelas penyimpanan S3 Standard IA dan S3 Intelligent-Tiering dirancang untuk ketersediaan 99,9%, dan kelas penyimpanan One Zone - IA S3 dirancang untuk ketersediaan 99,5%, dan kelas S3 Glacier serta S3 Glacier Deep Archive dirancang untuk ketersediaan 99,99% dengan SLA 99,9%. Seluruh kelas penyimpanan ini didukung dengan Perjanjian Tingkat Layanan Amazon S3.

T: Akan seperti apa kinerja Amazon S3 jika lalu lintas aplikasi saya melonjak tiba-tiba?

Amazon S3 dirancang dari dasar ke tingkat teratas untuk menangani lalu lintas pada aplikasi Internet apa pun. Harga bayar sesuai pemakaian dan kapasitasnya yang tidak terbatas memungkinkan agar biaya tambahan Anda tidak berubah dan layanan Anda tidak terganggu. Skala luas milik Amazon S3 memungkinkan kami untuk menyebarkan muatan secara merata, sehingga tidak ada aplikasi individu yang terpengaruh oleh melonjaknya lalu lintas.

T: Apakah Amazon S3 menawarkan Persetujuan Level Layanan (Service Level Agreement/SLA)?

Ya. SLA Amazon S3 memberikan kredit layanan jika persentase aktif bulanan pelanggan berada di bawah komitmen layanan kami pada siklus tagihan apa pun.

T: Apa yang dimaksud dengan model konsistensi untuk Amazon S3?

Amazon S3 memberikan konsistensi baca-setelah-tulis yang kuat secara otomatis, tanpa mengubah performa atau ketersediaan, tanpa mengorbankan isolasi regional untuk aplikasi, dan tanpa biaya tambahan.

Setelah berhasil menulis objek baru atau menimpa objek yang sudah ada, permintaan baca berikutnya segera menerima versi objek terbaru. S3 juga menyediakan konsistensi yang kuat untuk operasi daftar, jadi setelah menulis, Anda dapat segera melakukan cantuman objek di bucket dengan merefleksikan perubahan.

T: Mengapa konsistensi bata-setelah-tulis yang kuat membantu saya?

Konsistensi baca-setelah-tulis yang kuat membantu ketika Anda perlu segera membaca objek setelah menulis. Misalnya, konsistensi baca-setelah-tulis yang kuat ketika Anda sering membaca dan segera mencantumkan setelah menulis objek. Beban kerja komputasi berperforma tinggi juga bermanfaat saat objek ditimpa, lalu membaca berkali-kali secara terus-menerus, konsistensi baca-setelah-tulis yang kuat menjamin tulisan terbaru dibaca di seluruh baca. Aplikasi ini secara otomatis dan cepat mengambil manfaat dari konsistensi baca-setelah-tulis yang kuat. Konsistensi kuat S3 juga mengurangi biaya dengan menghilangkan kebutuhan untuk infrastruktur tambahan guna memberikan konsistensi yang kuat.  

Wilayah AWS

T:  Di mana data saya disimpan?

Anda menentukan Wilayah AWS pada saat membuat bucket Amazon S3. Untuk kelas penyimpanan Standar S3, IA-Standar S3, dan S3 Glacier, objek Anda secara otomatis disimpan di berbagai perangkat yang mencakup minimum 3 Availability Zone, yang masing-masing terpisah oleh jarak mil di seluruh Wilayah AWS. Objek yang disimpan dalam kelas penyimpanan IA-Satu Zona S3 disimpan secara redundan di satu Availability Zone di Wilayah AWS yang dipilih. Untuk S3 on Outposts, data Anda disimpan di lingkungan Outpost lokal, kecuali Anda secara manual memilih untuk mentransfernya ke suatu Wilayah AWS tertentu. Silakan lihat Produk dan Layanan Regional untuk detail ketersediaan layanan Amazon S3 menurut Wilayah AWS.

T:  Apa itu Wilayah AWS?

Wilayah AWS adalah lokasi geografis di mana AWS menyediakan banyak Availability Zone yang secara fisik terpisah dan terisolasi yang dihubungkan dengan latensi yang rendah, beban kerja yang tinggi, dan jaringan yang sangat melimpah.

T:  Apa itu Availability Zone (AZ) AWS?

AWS Availability Zone adalah lokasi yang secara fisik terisolasi dalam Wilayah AWS. Dalam tiap Wilayah AWS, S3 mengoperasikan minimum tiga AZ, masing-masing terpisah oleh jarak mil untuk melindungi dari peristiwa setempat seperti kebakaran, banjir, dll.

Kelas penyimpanan Amazon S3 Standar, Akses Jarang – Standar S3, dan Amazon S3 Glacier mereplikasi data setidaknya tiga AZ untuk melindungi dari kehilangan salah satu dari keseluruhan AZ. Ini tetap benar dalam Wilayah di mana lebih sedikit dari tiga AZ secara publik tersedia. Objek yang disimpan dalam kelas penyimpanan ini tersedia untuk akses dari semua AZ dalam Wilayah AWS.

Kelas penyimpanan Amazon S3 One Zone-IA mereplikasi data dalam AZ tunggal. Data yang disimpan dalam One Zone - IA S3 tidak tahan terhadap kehilangan fisik Availability Zone yang dihasilkan oleh bencana, seperti gempa bumi dan banjir.

T:  Bagaimana cara saya menentukan Wilayah AWS mana untuk menyimpan data saya?

Terdapat beberapa faktor untuk dipertimbangkan berdasarkan pada aplikasi spesifik Anda. Anda mungkin ingin menyimpan data Anda di Wilayah yang…

  • ...dekat dengan pelanggan, pusat data, atau sumber AWS Anda lainnya untuk mengurangi latensi akses data.
  • ...jauh dari operasi Anda lainnya karena redundansi geografis dan tujuan pemulihan musibah.
  • ...memungkinkan Anda menangani persyaratan hukum dan peraturan spesifik.
  • ...memungkinkan Anda mengurangi biaya penyimpanan. Anda dapat memilih wilayah dengan biaya yang lebih rendah untuk menghemat uang. Untuk informasi harga S3, silakan kunjungi halaman harga S3.

T:  Di mana saja Amazon S3 tersedia?

Amazon S3 tersedia dalam Wilayah AWS di seluruh dunia, dan Anda dapat menggunakan Amazon S3 terlepas di mana lokasi Anda. Anda hanya harus menentukan wilayah AWS mana yang diinginkan untuk menyimpan data Amazon S3. Lihat Tabel Ketersediaan Wilayah AWS untuk daftar wilayah AWS tempat S3 tersedia saat ini.

Penagihan

T: Berapa banyak biaya Amazon S3?

Dengan Amazon S3, Anda hanya membayar yang digunakan. Tidak ada biaya minimum. Anda dapat memperkirakan tagihan bulanan menggunakan Kalkulator Harga AWS.

Kami mengenakan biaya lebih sedikit di mana biaya kami lebih rendah. Beberapa harga berbeda-beda di seluruh Wilayah Amazon S3. Harga penagihan didasarkan pada lokasi bucket S3 Anda. Tidak dikenakan biaya Transfer Data untuk data yang ditransfer dalam Wilayah Amazon S3 melalui permintaan COPY. Data yang ditransfer melalui permintaan COPY di antara Wilayah AWS dikenai biaya sesuai tarif yang ditentukan dalam bagian harga di halaman detail Amazon S3. Tidak ada biaya Data Transfer untuk data yang ditransfer antara Amazon EC2 (atau layanan AWS apa pun) dan Amazon S3 dalam wilayah yang sama, misalnya, data yang ditransfer dalam Wilayah US East (Northern Virginia). Namun, data yang ditransfer antara Amazon EC2 (atau layanan AWS apa pun) dan Amazon S3 di seluruh wilayah lain dikenai dengan tarif yang ditentukan di halaman harga Amazon S3, misalnya, data yang ditransfer antara Amazon EC2 US East (Northern Virginia) dan Amazon S3 US West (Northern California). Untuk harga S3 di Outposts, silakan kunjungi halaman harga Outposts.

T: Bagaimana pengenaan biaya dan penagihan atas penggunaan Amazon S3 saya?

Tidak ada biaya atau komitmen terikat untuk mulai menggunakan layanan ini. Pada akhir bulan, Anda secara otomatis akan dikenai biaya atas penggunaan bulan tersebut. Anda dapat melihat tagihan biaya untuk periode tagihan terbaru kapan pun di situs web Amazon Web Services, dengan masuk ke akun Amazon Web Services Anda, dan mengeklik “konsol Manajemen Penagihan dan Biaya” di bawah “Akun Layanan Web Anda”.

Dengan AWS Tingkat Penggunaan Gratis*, Anda dapat memulai dengan Amazon S3 secara gratis di semua wilayah kecuali Wilayah AWS GovCloud. Setelah mendaftar, pelanggan AWS baru akan menerima 5 GB penyimpanan Amazon S3 Standard, 20.000 Permintaan Get, 2.000 Permintaan Put, 15 GB transfer data keluar (ke internet, wilayah AWS lainnya, atau CloudFront) setiap bulan selama satu tahun. Penggunaan bulanan yang tidak digunakan tidak akan diakumulasi ke bulan berikutnya.

Amazon S3 akan membebankan biaya kepada Anda untuk tipe penggunaan berikut. Perhatikan bahwa kalkulasi di bawah ini diasumsikan tidak terdapat Tingkat Gratis AWS yang siap digunakan.

Penyimpanan yang Digunakan:

Harga penyimpanan Amazon S3 dirangkum pada halaman Harga Amazon S3.

Volume penyimpanan yang ditagihkan dalam satu bulan berdasarkan pada penyimpanan rata-rata yang digunakan di sepanjang bulan tersebut. Ini termasuk semua data objek dan metadata yang disimpan dalam bucket yang Anda buat pada akun AWS Anda. Kami mengukur penggunaan penyimpanan Anda dalam "TimedStorage-ByteHrs," yang ditambahkan pada akhir bulan untuk mendapatkan biaya bulanan.

Contoh Penyimpanan:

Misal Anda menyimpan 100 GB (107.374.182.400 byte) data penyimpanan Amazon S3 Standar dalam bucket selama 15 hari pada bulan Maret, dan 100 TB (109.951.162.777.600 byte) data penyimpanan Amazon S3 Standar selama 16 hari terakhir pada bulan Maret.

Pada akhir bulan Maret, Anda akan memiliki penggunaan berikut ini dalam Byte-Jam: Total penggunaan Byte-Jam = [107.374.182.400 byte x 15 hari x (24 jam / hari)] + [109.951.162.777.600 byte x 16 hari x (24 jam / hari)] = 42.259.901.212.262.400 Byte-Jam. Harap hitung jam berdasarkan jumlah hari sebenarnya di bulan tertentu. Misalnya, dalam contoh kami, kami menggunakan Maret yang memiliki 31 hari atau 744 jam.

Mari lakukan konversi ini ke GB-Bulan: 42.259.901.212.262.400 Byte-Jam / 1.073.741.824 byte per GB / 744 jam per bulan = 52.900 GB-Bulan

Volume penggunaan ini melewati dua tingkat volume yang berbeda. Harga penyimpanan bulanan dikalkulasi di bawah ini dengan memisalkan data disimpan di Wilayah US East (Northern Virginia): Tingkat 50 TB: 51.200 GB x 0,023 USD = 1.177,60 USD Tingkat 50 TB ke 450 TB: 1.700 GB x 0,022 USD = 37,40 USD

Biaya Penyimpanan Total = 1.177,60 USD + 37,40 USD = 1.215,00 USD

Data Jaringan yang Ditransfer Masuk:

Harga Transfer Data Masuk Amazon S3 dirangkum pada halaman Harga Amazon S3. Ini merepresentasikan jumlah data yang dikirim ke bucket Amazon S3 Anda. 

Data Jaringan yang Ditransfer Keluar:

Harga Transfer Data Keluar Amazon S3 dirangkum pada halaman Harga Amazon S3. Untuk Amazon S3, biaya ini berlaku setiap kali data dibaca dari bucket Anda dari lokasi di luar Wilayah Amazon S3 yang ditetapkan.

Tarif harga Transfer Data Keluar mempertimbangkan Transfer Data Keluar agregat Anda dari wilayah yang ditetapkan ke Internet melalui Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS, dan Amazon VPC. Tingkat ini tidak berlaku untuk Transfer Data Keluar dari Amazon S3 dalam satu wilayah AWS ke wilayah AWS lain.

Contoh Transfer Data Keluar:
Misal Anda mentransfer 1TB data Amazon S3 keluar dari Wilayah AS Timur (Virginia Utara) ke Internet setiap hari selama satu bulan sebanyak 31 hari yang telah ditetapkan. Misal Anda juga mentransfer 1TB data instans Amazon EC2 keluar dari wilayah yang sama ke Internet selama satu bulan sebanyak 31 hari yang sama.

Transfer Data agregat Anda sebesar 62 TB (31 TB dari Amazon S3 dan 31 TB dari Amazon EC2). Ini sama dengan 63.488 GB (62 TB * 1024 GB/TB).

Volume penggunaan ini melewati tiga tingkat volume yang berbeda. Biaya Transfer Data Keluar bulanan dikalkulasi di bawah ini dengan memisalkan Transfer Data terjadi di Wilayah US East (Northern Virginia):
Tingkat 10 TB: 10.239 GB (10×1024 GB/TB – 1 (gratis)) x 0,09 USD = 921,51 USD
Tingkat 10 TB ke 50 TB: 40.960 GB (40×1024) x 0,085 USD = 3.481,60 USD
Tingkat 50 TB ke 150 TB: 12.288 GB (sisa) x 0,070 USD = 860,16 USD

Total Biaya Transfer Data Keluar = 921,51 USD + 3.481,60 USD + 860,16 USD= 5.263,27 USD

Permintaan Data:

Harga Permintaan Amazon S3 dirangkum pada Diagram Harga Amazon S3.

Contoh Permintaan:
Misal Anda mentransfer 10.000 file ke dalam Amazon S3 dan mentransfer 20.000 file keluar dari Amazon S3 setiap hari selama bulan Maret. Kemudian, Anda menghapus 5.000 file pada tanggal 31 Maret.
Permintaan PUT Total = 10.000 permintaan x 31 hari = 310.000 permintaan
Permintaan GET Total = 20.000 permintaan x 31 hari = 620.000 permintaan
Total Permintaan DELETE = 5.000 ×1 hari = 5.000 permintaan

Misal bucket Anda berada di Wilayah US East (Northern Virginia), biaya Permintaan dikalkulasi di bawah ini:
310.000 Permintaan PUT: 310.000 permintaan x 0,005 USD/1.000 = 1,55 USD
620,000 Permintaan GET: 620.000 permintaan x 0,004 USD/10.000 = 0,25 USD
5,000 permintaan DELETE = 5.000 permintaan x 0,00 USD (tanpa biaya) = 0,00 USD

Pengambilan Data:

Harga pengambilan data Amazon S3 berlaku untuk k S3 Standard-Infrequent Access (S3 Standard-IA) dan penyimpanan S3 One Zone-IA dan dirangkum pada halaman Harga Amazon S3.

Contoh Pencarian Data:
Misal dalam satu bulan Anda mendapatkan 300GB S3 Standard-IA, dengan 100GB untuk Internet, 100GB untuk EC2 di wilayah AWS yang sama, dan 100GB untuk CloudFront di Wilayah AWS yang sama.

Biaya pengambilan data Anda selama satu bulan akan dikalkulasi 300 GB x 0,01 USD/GB = 3,00 USD. Perhatikan bahwa Anda juga akan membayar biaya transfer data jaringan untuk porsi yang keluar ke Internet.

Silakan lihat di sini untuk detail mengenai tagihan objek yang diarsip ke Amazon S3 Glacier.

* * Penggunaan tingkat gratis Anda dikalkulasi setiap bulan melalui semua wilayah kecuali Wilayah AWS GovCloud dan secara otomatis dikenakan pada tagihan Anda – penggunaan bulanan yang tidak digunakan akan hangus. Batasan yang berlaku; Lihat syarat penawaran untuk detail selengkapnya.

T:  Mengapa harganya bervariasi bergantung pada wilayah Amazon S3 yang saya pilih?

Kami mengenakan biaya lebih sedikit sementara biaya kami lebih sedikit. Sebagai contoh, biaya kami lebih rendah di wilayah AS Timur (Virginia Utara) daripada di daerah AS Barat (California Utara).

T: Bagaimana saya dikenai biaya dengan menggunakan Versioning?

Tarif Amazon S3 normal berlaku untuk setiap versi objek yang disimpan atau diminta. Sebagai contoh, mari kita perhatikan skenario berikut untuk mengilustrasikan biaya penyimpanan pada saat menggunakan Versioning (mari menganggap bulan saat ini selama 31 hari):

1) Hari ke-1 bulan tersebut: Anda melakukan PUT sebesar 4 GB (4.294.967.296 byte) di bucket Anda.
2) Hari ke-16 bulan tersebut: Anda melakukan PUT sebesar 5 GB (5.368.709.120 byte) di dalam bucket yang sama dengan menggunakan kunci yang sama dengan PUT asli pada Hari ke-1.

Pada saat menganalisis biaya penyimpanan dari operasi di atas, mohon perhatikan bahwa objek 4 GB dari Hari ke-1 tidak dihapus dari bucket pada saat objek 5 GB ditulis pada Hari ke-15. Namun, objek 4 GB dipertahankan sebagai versi yang lebih lama dan objek 5 GB menjadi versi objek tertulis yang terbaru di dalam bucket Anda. Pada akhir bulan:

Total penggunaan Byte-Jam
[4.294.967.296 byte x 31 hari x (24 jam/hari)] + [5.368.709.120 byte x 16 hari x (24 jam/hari)] = 5.257.039.970.304 Byte-Jam.

Konversi ke GB-Bulan Total
5.257.039.970.304 Byte-Jam x (1 GB/1.073.741.824 byte) x (1 bulan/744 jam) = 6,581 GB-Bulan

Biaya dikalkulasi berdasarkan tarif terakhir di wilayah Anda pada Halaman Harga Amazon S3.

T:  Bagaimana pengenaan biaya untuk mengakses Amazon S3 melalui Konsol Manajemen AWS?

Harga Amazon S3 normal berlaku pada saat mengakses layanan melalui AWS Management Console. Untuk memberikan pengalaman yang optimal, AWS Management Console secara proaktif dapat menjalankan permintaan. Selain itu, beberapa operasi interaktif mengakibatkan lebih dari satu permintaan pada layanan.

T:  Bagaimana saya dikenai tagihan jika bucket Amazon S3 saya diakses dari akun AWS lain?

Harga Amazon S3 normal berlaku apabila penyimpanan Anda diakses oleh Akun AWS berbeda. Atau, Anda dapat memilih untuk mengonfigurasi bucket Anda sebagai bucket Peminta Membayar, yang dalam kasus ini peminta akan membayar biaya permintaan dan unduhan data Amazon S3 Anda.

Anda dapat menemukan informasi selengkapnya tentang konfigurasi bucket Peminta Membayar di Dokumentasi Amazon S3.

T:  Apakah harga tersebut termasuk potongan pajak?

Kecuali dinyatakan lain, harga tersebut tidak termasuk pajak dan beban biaya yang berlaku, termasuk PPN dan pajak penjualan yang berlaku. Untuk pelanggan dengan alamat tagihan Jepang, penggunaan layanan AWS tunduk pada Pajak Konsumsi Jepang.

Pelajari selengkapnya tentang pajak pada layanan AWS »

Amazon S3 dan IPv6

T: Apa itu IPv6?

Setiap server dan perangkat yang terhubung ke internet harus memiliki alamat yang unik. Internet Protocol Version 4 (IPv4) merupakan skema pengalamatan 32-bit yang asli. Namun, pertumbuhan internet yang terus-menerus berarti bahwa semua alamat IPv4 yang tersedia akan dipakai seiring berjalannya waktu. Internet Protocol Version 6 (IPv6) merupakan mekanisme pengalamatan baru yang dirancang untuk mengatasi pembatasan alamat global pada IPv4.

T:   Apa yang dapat saya lakukan dengan IPv6?

Dengan menggunakan dukungan IPv6 untuk Amazon S3, aplikasi dapat terhubung ke Amazon S3 tanpa membutuhkan perangkat lunak atau sistem penerjemahan IPv6 ke IPv4. Anda dapat memenuhi persyaratan kepatuhan, lebih mudah mengintegrasikan dengan aplikasi lokal berbasis IPv6 yang ada, dan menghilangkan kebutuhan perangkat jaringan yang mahal untuk menangani penerjemahan alamat. Sekarang Anda juga dapat menggunakan fitur pemfilteran alamat sumber di aturan IAM dan aturan bucket dengan alamat IPv6, menambah opsi Anda untuk mengamankan aplikasi yang berinteraksi dengan Amazon S3.

T:   Bagaimana saya memulai dengan IPv6 di Amazon S3?

Anda dapat memulai dengan menunjuk aplikasi Anda ke titik akhir “dual-stack” Amazon S3 yang baru, yang mendukung akses melalui IPv4 dan IPv6. Di sebagian besar kasus, konfigurasi tambahan tidak dibutuhkan untuk akses melalui IPv6 karena sebagian besar klien jaringan lebih memilih alamat IPv6 secara default. Aplikasi yang terpengaruh dengan menggunakan IPv6 dapat beralih kembali ke endpoint khusus IPv4 standar kapan saja. IPv6 dengan Amazon S3 didukung di semua Wilayah AWS Komersial, termasuk Wilayah AWS GovCoud (US), Wilayah Amazon Web Services China (Beijing), dioperasikan oleh Sinnet dan Wilayah Amazon Web Services China (Ningxia), dioperasikan oleh NWCD. 

T:  Apakah saya perlu mengharapkan perubahan dalam Amazon S3 saat menggunakan IPv6?

Tidak, Anda akan melihat performa yang sama saat menggunakan IPv4 dan IPv6 dengan Amazon S3.

Pemberitahuan Peristiwa

T: Apa itu pemberitahuan kejadian Amazon S3?

Pemberitahuan kejadian Amazon S3 dapat dikirimkan sebagai respons untuk kejadian pada Amazon S3 seperti PUT, POST, COPY, atau DELETE. Pesan pemberitahuan dapat dikirimkan melalui Amazon SNS, Amazon SQS, atau secara langsung ke AWS Lambda.

T:  Apa yang bisa saya lakukan dengan pemberitahuan kejadian Amazon S3?

Pemberitahuan kejadian S3 memungkinkan Anda untuk menjalankan alur kerja, mengirimkan peringatan, atau melakukan tindakan lain sebagai respons terhadap perubahan pada objek yang disimpan di Amazon S3.  Anda dapat menggunakan pemberitahuan kejadian S3 untuk mengatur pemicuan untuk mengambil tindakan termasuk transkoding file media saat sedang diunggah, memproses file data saat tersedia, dan menyinkronkan objek S3 dengan penyimpanan data lain. Anda juga dapat mengatur pemberitahuan kejadian berdasarkan prefiks dan sufiks nama objek. Misalnya, Anda dapat memilih untuk menerima pemberitahuan tentang nama objek yang dimulai dengan “images/".

T:  Apa saja yang termasuk dalam pemberitahuan kejadian Amazon S3?

Untuk uraian selengkapnya mengenai informasi yang termasuk dalam pesan pemberitahuan kejadian Amazon S3, lihat pada topik Mengonfigurasi Pemberitahuan Kejadian Amazon S3 pada Panduan Pengembang Amazon S3.

T: Bagaimana cara mengatur pemberitahuan kejadian Amazon S3?

Untuk uraian selengkapnya mengenai cara mengatur pemberitahuan kejadian, lihat pada topik Mengonfigurasi pemberitahuan kejadian Amazon S3 pada Panduan Pengembang Amazon S3. Anda dapat mempelajari lebih lanjut tentang layanan perpesanan AWS di Dokumentasi Amazon SNS dan Dokumentasi Amazon SQS.

T:  Apakah menggunakan pemberitahuan kejadian Amazon S3 dikenai biaya?

Tidak ada biaya tambahan jika menggunakan Amazon S3 untuk pemberitahuan kejadian. Anda hanya membayar penggunaan Amazon SNS atau Amazon SQS untuk mengirimkan pemberitahuan kejadian, atau untuk biaya menjalankan fungsi AWS Lambda. Kunjungi halaman harga Amazon SNS, Amazon SQS, atau AWS Lambda untuk melihat detail harga untuk layanan tersebut.

Amazon S3 Transfer Acceleration

T:  Apa itu S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration memungkinkan transfer file yang cepat, mudah, dan aman dalam jarak jauh antara klien Anda dan bucket Amazon S3. S3 Transfer Acceleration memanfaatkan Lokasi Edge AWS yang tersebar secara global dari Amazon CloudFront. Saat data sampai pada Lokasi Edge AWS, data diarahkan ke bucket Amazon S3 melalui jalur jaringan yang dioptimisasi.

T:   Bagaimana saya memulai dengan S3 Transfer Acceleration?

Untuk memulai dengan S3 Transfer Acceleration aktifkan S3 Transfer Acceleration pada bucket S3 menggunakan konsol Amazon S3, API Amazon S3, atau AWS CLI. Setelah S3 Transfer Acceleration diaktifkan, Anda dapat menunjuk permintaan Amazon S3 PUT dan GET ke nama domain s3-accelerate endpoint. Aplikasi transfer data Anda harus menggunakan salah satu dari dua jenis titik akhir berikut ini untuk mengakses bucket dengan transfer data yang lebih cepat: .s3-accelerate.amazonaws.com atau .s3-accelerate.dualstack.amazonaws.com untuk titik akhir “dual-stack”. Jika Anda ingin menggunakan transfer data standar, Anda dapat terus menggunakan titik akhir reguler.

Terdapat batasan tertentu ketika bucket akan mendukung S3 Transfer Acceleration. Untuk detail selengkapnya, silakan lihat panduan pengembang Amazon S3.

T:   Seberapa cepat S3 Transfer Acceleration?

S3 Transfer Acceleration membantu Anda menggunakan bandwith secara penuh, meminimalisir pengaruh jarak pada throughput, dan dirancang untuk memastikan transfer data yang cepat secara konsisten ke Amazon S3 terlepas dari lokasi klien Anda. Jumlah akselerasi utamanya bergantung pada bandwith yang tersedia, jarak antara sumber dan tujuan, dan tingkat kehilangan paket pada jalur jaringan. Secara umum, Anda akan mendapatkan akselerasi lebih saat sumbernya lebih jauh dari tujuan, saat tidak ada lagi bandwith yang tersedia, dan/atau ukuran objek lebih besar.

Satu pelanggan mengukur 50% reduksi dalam rata-rata waktu untuk mengirimkan file 300 MB dari basis pengguna global di AS, Eropa, dan daerah Asia ke bucket di wilayah Asia Pasifik (Sydney). Pelanggan lain mengamati kasus ketika kinerja meningkat lebih baik 500% untuk pengguna di Asia Tenggara dan Australia saat mengunggah file 250 MB (dalam bagian-bagian 50 MB) ke bucket S3 di wilayah AS Timur (Virginia U.).

Coba alat pembanding kecepatan untuk mendapatkan pratinjau manfaat kinerja dari lokasi Anda!

T: Siapa yang perlu menggunakan S3 Transfer Acceleration?

S3 Transfer Acceleration dirancang untuk mengoptimalkan kecepatan transfer dari seluruh dunia ke bucket S3. Jika Anda mengunggah ke bucket terpusat dari lokasi yang tersebar secara geografis, atau jika Anda secara rutin mentransfer data berukuran GB atau TB melewati benua, Anda dapat menghemat berjam-jam atau berhari-hari waktu transfer data dengan S3 Transfer Acceleration.

T:   Seberapa amankah S3 Transfer Acceleration?

S3 Transfer Acceleration memberikan keamanan yang sama dengan transfer reguler ke Amazon S3. Semua fitur keamanan Amazon S3, seperti pembatasan akses berdasarkan pada alamat IP klien, juga didukung. S3 Transfer Acceleration berkomunikasi dengan klien melalui TCP standar dan tidak memerlukan perubahan firewall. Tidak ada data yang disimpan di Lokasi Edge AWS.

T:    Bagaimana jika S3 Transfer Acceleration tidak lebih cepat dibandingkan Amazon S3 transfer reguler?

Setiap kali Anda menggunakan S3 Transfer Acceleration untuk mengunggah objek, kami akan memeriksa apakah S3 Transfer Acceleration lebih cepat dari transfer Amazon S3 reguler. Jika kami menentukan bahwa S3 Transfer Acceleration tidak mungkin lebih cepat dari transfer Amazon S3 reguler dari objek yang sama ke Wilayah AWS tujuan yang sama, kami tidak akan mengenakan biaya untuk penggunaan S3 Transfer Acceleration bagi transfer tersebut, dan dapat melewati sistem S3 Transfer Acceleration untuk pengunggahan itu.

T:     Apakah saya dapat menggunakan S3 Transfer Acceleration dengan pengunggahan multi-bagian?

Ya, S3 Transfer Acceleration mendukung semua fitur di tingkat bucket termasuk pengunggahan multi-bagian.

T:      Bagaimana saya harus memilih antara S3 Transfer Acceleration dan PUT/POST Amazon CloudFront?

S3 Transfer Acceleration mengoptimalkan protokol TCP dan menambahkan inteligensi tambahan antara klien dan bucket S3, membuat S3 Transfer Acceleration pilihan yang lebih baik jika throughput yang lebih tinggi diinginkan. Jika Anda memiliki objek yang lebih kecil dari 1GB atau jika data set ukurannya kurang dari 1GB, Anda perlu mempertimbangkan untuk menggunakan perintah PUT/POST Amazon CloudFront untuk kinerja yang optimal.

T:      Bagaimana sebaiknya saya memilih antara S3 Transfer Acceleration dan AWS Snow Family (Snowball, Snowball Edge, dan Snowmobile)?

AWS Snow Family ideal untuk pelanggan yang memindahkan batch data yang besar sekaligus. AWS Snowball memiliki waktu layanan yang biasanya 5-7 hari. Sederhananya, S3 Transfer Acceleration melalui jalur 1 Gbps yang digunakan secara penuh dapat mentransfer hingga 75 TB pada periode waktu yang bersamaan. Secara umum, jika memerlukan waktu lebih dari satu minggu untuk mentransfer melalui internet, atau terdapat pekerjaan transfer yang berulang dan terdapat lebih dari 25 Mbps bandwith yang tersedia, S3 Transfer Acceleration merupakan pilihan yang bagus. Pilihan lainnya adalah menggunakan keduanya: lakukan perpindahan awal yang berat dengan AWS Snowball (atau seri AWS Snowball) dan kemudian transfer perubahan berjalan yang meningkat dengan S3 Transfer Acceleration.

T:      Apakah S3 Transfer Acceleration dapat melengkapi AWS Direct Connect?

AWS Direct Connect merupakan pilihan yang bagus bagi pelanggan yang memiliki persyaratan jaringan pribadi atau memiliki akses ke pertukaran AWS Direct Connect. S3 Transfer Acceleration paling cocok untuk mengirimkan data dari lokasi klien yang tersebar di internet publik, atau ketika kondisi jaringan yang beragam membuat throughput buruk. Beberapa pelanggan AWS Direct Connect menggunakan S3 Transfer Acceleration untuk membantu transfer kantor jarak jauh, yang mungkin memiliki kinerja internet yang buruk.

T:      Apakah S3 Transfer Acceleration dapat melengkapi AWS Storage Gateway atau gateway pihak ke-3?

Jika Anda mengonfigurasi tujuan bucket di gateway pihak ke-3 untuk menggunakan nama domain titik akhir Transfer Acceleration S3, Anda akan melihat manfaatnya.

Kunjungi Bagian file FAQ Storage Gateway ini untuk memahami implementasi AWS lebih jauh.

T:     Apakah S3 Transfer Acceleration dapat melengkapi software yang terintegrasi pihak ke-3?

Ya. Paket perangkat lunak yang membangun hubungan langsung ke Amazon S3 dapat memanfaatkan S3 Transfer Acceleration ketika mengirimkan pekerjaan mereka ke Amazon S3.

Pelajari selengkapnya tentang Storage Partner Solutions»

T:      Apakah S3 Transfer Acceleration HIPAA memenuhi syarat?

Ya, AWS telah memperluas program kepatuhan HIPAA untuk mencakup Amazon S3 Transfer Acceleration sebagai layanan HIPAA yang memenuhi syarat. Jika Anda memiliki Business Associate Agreement (BAA) yang dijalankan dengan AWS, Anda dapat menggunakan Amazon S3 Transfer Acceleration untuk mengaktifkan transfer file yang cepat, mudah, dan aman termasuk informasi kesehatan terlindungi (PHI) melalui jarak jauh antara klien Anda dan bucket Amazon S3.

Pelajari selengkapnya tentang Kepatuhan HIPAA »

Keamanan

T:  Seberapa aman data saya di dalam Amazon S3?     

Amazon S3 aman secara default. Dalam pembuatan, hanya pemilik sumber daya yang memiliki akses ke sumber daya Amazon S3 yang dibuat. Amazon S3 mendukung autentikasi pengguna untuk mengontrol akses ke data. Anda dapat menggunakan mekanisme kontrol akses seperti kebijakan bucket dan Access Control List (ACL) untuk secara selektif memberikan izin kepada pengguna dan grup pengguna. Konsol Amazon S3 menyoroti bucket Anda yang dapat diakses secara publik, menunjukkan sumber aksesibilitas publik, dan juga memperingatkan Anda jika perubahan pada kebijakan bucket atau ACL bucket akan membuat bucket Anda dapat diakses secara publik. Blok Akses Publik sebaiknya Anda aktifkan untuk semua akun dan bucket untuk mencegah akses oleh publik. 

Anda dapat dengan aman mengunggah/mengunduh data Anda ke Amazon S3 melalui endpoint SSL menggunakan protokol HTTPS. Jika Anda memerlukan keamanan ekstra, Anda dapat menggunakan opsi Server-Side Encryption (Enkripsi Sisi Klien/SSE) untuk mengenkripsi data yang disimpan saat istirahat. Anda dapat mengonfigurasikan bucket Amazon S3 Anda untuk mengenkripsi objek secara otomatis sebelum menyimpannya jika permintaan penyimpanan yang masuk tidak memiliki informasi enkripsi apa pun. Sebagai alternatif, Anda dapat menggunakan perpustakaan enkripsi Anda untuk mengenkripsi data sebelum menyimpannya di Amazon S3.

Untuk informasi selengkapnya mengenai keamanan di AWS, lihat halaman keamanan AWS, dan untuk informasi keamanan S3, kunjungi halaman keamanan S3 atau panduan praktik terbaik keamanan S3.

T:  Bagaimana cara saya mengontrol akses ke data saya yang disimpan di Amazon S3?

Pelanggan dapat menggunakan empat mekanisme untuk mengontrol akses ke sumber Amazon S3: kebijakan Identity and Access Management (IAM), kebijakan bucket, Access Control List (ACL), dan autentikasi string kueri. IAM memungkinkan organisasi dengan banyak pegawai untuk membuat dan mengelola berbagai pengguna di bawah akun AWS tunggal. Dengan kebijakan IAM, pelanggan dapat memberikan pengguna IAM kontrol ketat ke bucket atau objek Amazon S3 mereka sementara juga mempertahankan kontrol penuh pada semua hal yang dilakukan pengguna tersebut. Dengan kebijakan bucket, pelanggan dapat menentukan aturan yang berlaku secara luas pada semua permintaan ke sumber Amazon S3 mereka, seperti memberi keistimewaan tertulis ke serangkaian sumber Amazon S3. Pelanggan juga dapat membatasi akses berdasarkan pada aspek permintaan, seperti pengacu HTTP dan alamat IP. Dengan ACL, pelanggan dapat memberikan izin spesifik (yaitu BACA, TULIS, FULL_CONTROL) kepada pengguna spesifik untuk bucket atau objek individu. Dengan autentikasi string kueri, pelanggan dapat membuat URL ke objek Amazon S3 yang hanya valid untuk selama waktu yang terbatas. Untuk informasi selengkapnya tentang kebijakan kontrol akses yang tersedia di Amazon S3, silakan lihat topik Kontrol Akses di Pedoman Pengembang Amazon S3.

T:  Apakah Amazon S3 mendukung audit akses data?

Ya, pelanggan secara opsional dapat mengonfigurasikan bucket Amazon S3 untuk membuat catatan log akses untuk semua permintaan yang dilakukan terhadapnya. Secara alternatif, pelanggan yang perlu mencuplik informasi identitas IAM/pengguna di dalam log, dapat mengonfigurasi Kejadian Data AWS CloudTrail.

Catatan log akses ini dapat digunakan untuk tujuan audit dan berisi detail tentang permintaan, seperti tipe permintaan, sumber yang dijelaskan dalam permintaan, dan waktu dan tanggal pemrosesan permintaan.

T:  Opsi apa yang saya miliki untuk mengenkripsi data di Amazon S3?

Anda dapat memilih untuk mengenkripsi data dengan menggunakan SSE-S3, SSE-C, SSE-KMS, atau perpustakaan klien seperti Klien Enkripsi Amazon S3. Keempatnya memungkinkan Anda untuk menyimpan data sensitif yang dienkripsi sebagai tidak ditransfer di Amazon S3.

SSE-S3 memberikan solusi terintegrasi di mana Amazon menangani manajemen kunci dan proteksi kunci dengan menggunakan berbagai lapisan keamanan. Anda sebaiknya memilih SSE-S3 jika lebih memilih agar Amazon mengelola kunci Anda.

SSE-C memungkinkan Anda untuk mendorong Amazon S3 untuk melakukan enkripsi dan dekripsi objek Anda sementara tetap mempertahankan kontrol kunci yang digunakan untuk mengenkripsi objek. Dengan SSE-C, Anda tidak perlu menerapkan atau menggunakan perpustakaan klien samping untuk melakukan enkripsi dan dekripsi objek yang Anda simpan di Amazon S3, tetapi Anda perlu mengelola kunci yang Anda kirimkan ke Amazon S3 untuk mengenkripsi dan mendekripsi objek. Gunakan SSE-C jika Anda ingin mengelola kunci enkripsi Anda sendiri, tetapi tidak ingin menerapkan atau mendorong perpustakaan enkripsi klien samping.

SSE-KMS memungkinkan Anda untuk menggunakan AWS Key Management Service (AWS KMS) untuk mengelola kunci enkripsi Anda sendiri. Dengan menggunakan AWS KMS untuk mengelola kunci Anda memberikan beberapa manfaat tambahan. Dengan AWS KMS, ada izin terpisah untuk penggunaan kunci KMS, memberikan lapisan kontrol tambahan serta perlindungan terhadap akses tidak diotorisasi ke objek Anda yang disimpan di Amazon S3. AWS KMS memberikan jejak audit sehingga Anda dapat mengetahui siapa yang menggunakan kunci Anda untuk mengakses objek mana dan kapan, serta melihat upaya yang gagal dalam mengakses data dari pengguna yang tanpa izin mendekripsi data. Selain itu, AWS KMS memberikan kontrol keamanan tambahan untuk mendukung upaya pelanggan untuk patuh dengan syarat-syarat industri PCI-DSS, HIPAA/HITECH, dan FedRAMP.

Dengan menggunakan pustaka klien enkripsi, seperti Klien Enkripsi Amazon S3, Anda mempertahankan kontrol kunci dan menyelesaikan enkripsi dan dekripsi klien sisi objek dengan menggunakan pustaka enkripsi pilihan Anda. Beberapa pelanggan lebih memilih kontrol enkripsi dan dekripsi objek dua pihak; dengan demikian, hanya objek yang terenkripsi yang ditransmisikan melalui Internet ke Amazon S3. Gunakan perpustakaan klien samping jika Anda ingin tetap mempertahankan kontrol kunci enkripsi Anda, mampu menerapkan atau menggunakan perpustakaan enkripsi klien samping, dan membutuhkan agar objek Anda terenkripsi sebelum dikirimkan ke Amazon S3 untuk disimpan.

Untuk informasi selengkapnya tentang penggunaan Amazon S3 SSE-S3, SSE-C, atau SSE-KMS, silakan lihat topik pada Menggunakan Enkripsi di Panduan Developer Amazon S3.

T:  Dapatkah saya mematuhi peraturan privasi EU dengan menggunakan Amazon S3?

Pelanggan dapat memilih untuk menyimpan semua data di UE dengan menggunakan wilayah UE (Frankfurt), UE (Irlandia), UE (London), atau UE (Paris). S3 on Outposts juga bisa digunakan untuk menyimpan semua data lokal Anda di Outposts, dan Anda bisa memilih untuk mentransfer data antara Outposts atau ke Wilayah AWS. Anda bertanggung jawab untuk memastikan dipatuhinya hukum privasi UE. Silakan lihat Pusat GDPR AWS untuk informasi selengkapnya. Jika ada persyaratan lokasi atau peraturan privasi data lebih spesifik lainnya yang mewajibkan Anda menyimpan data di lokasi di mana tidak ada Wilayah AWS, Anda dapat menggunakan S3 di Outposts.

T: Apa yang dimaksud VPC Endpoint Amazon untuk Amazon S3?

Titik Akhir VPC Amazon untuk Amazon S3 adalah entitas logis dalam VPC yang memungkinkan konektivitas ke S3 pada jaringan global Amazon. Ada dua jenis titik akhir VPC untuk S3 - titik akhir VPC gateway dan titik akhir VPC antarmuka. Titik akhir gateway adalah gateway yang Anda tentukan di tabel rute untuk mengakses S3 dari VPC Anda pada jaringan Amazon. Titik akhir antarmuka memperluas fungsionalitas titik akhir gateway dengan menggunakan IP privat untuk merutekan permintaan ke S3 dari dalam VPC Anda, on-premise, atau dari Wilayah AWS yang berbeda. Untuk info selengkapnya, kunjungi dokumentasi.

T: Dapatkah saya mengizinkan akses Titik Akhir VPC Amazon tertentu ke bucket Amazon S3 saya?

Anda dapat membatasi akses ke bucket Anda dari Titik Akhir VPC Amazon tertentu atau serangkaian titik akhir dengan menggunakan kebijakan bucket Amazon S3. Kebijakan bucket S3 saat ini mendukung suatu kondisi, aws:sourceVpce, yang dapat Anda gunakan untuk membatasi akses. Untuk detail lebih lanjut dan contoh kebijakan, baca Menggunakan Titik Akhir VPC.

T: Apa itu AWS PrivateLink untuk Amazon S3?

AWS PrivateLink untuk S3 menyediakan konektivitas pribadi antara Amazon S3 dan on-premise. Anda dapat menyediakan titik akhir VPC antarmuka untuk S3 di VPC Anda untuk menghubungkan aplikasi on-premise Anda secara langsung ke S3 melalui AWS Direct Connect atau AWS VPN. Anda tidak perlu lagi menggunakan IP publik, mengubah aturan firewall, atau mengonfigurasi gateway internet untuk mengakses S3 dari on-premise. Untuk mempelajari selengkapnya, kunjungi dokumentasi.

T: Bagaimana cara memulai VPC endpoint antarmuka untuk S3?

Anda dapat membuat titik akhir VPC antarmuka menggunakan Konsol AWS VPC Management, AWS CLI, AWS SDK, atau API. Untuk mempelajari selengkapnya, kunjungi dokumentasi.

T: Kapan saya harus memilih titik akhir VPC gateway terhadap titik akhir VPC antarmuka berbasis AWS PrivateLink?

Kami sarankan Anda menggunakan titik akhir VPC antarmuka untuk mengakses S3 dari on-premise atau dari VPC di Wilayah AWS lain. Untuk sumber daya yang mengakses S3 dari VPC di Wilayah AWS yang sama dengan S3, sebaiknya gunakan titik akhir VPC gateway karena tidak ditagih. Untuk mempelajari selengkapnya, kunjungi dokumentasi.

T: Dapatkah saya menggunakan Titik Akhir Antarmuka dan Titik Akhir Gateway untuk S3 di VPC yang sama?

Ya. Jika Anda sudah memiliki titik akhir VPC gateway, buat titik akhir VPC antarmuka di VPC Anda dan perbarui aplikasi klien Anda dengan nama titik akhir yang spesifik titik akhir VPC. Misalnya, jika id titik akhir VPC titik akhir antarmuka Anda adalah vpce-0fe5b17a0707d6abc-29p5708s di Wilayah us-east-1, maka nama DNS spesifik titik akhir Anda adalah vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com. Dalam hal ini, hanya permintaan ke nama spesifik titik akhir VPC yang akan dirutekan melalui titik akhir VPC Antarmuka ke S3 sedangkan semua permintaan lainnya akan terus dirutekan melalui titik akhir VPC gateway. Untuk mempelajari selengkapnya, kunjungi dokumentasi.

T: Apa yang dimaksud Amazon Macie dan bagaimana saya dapat menggunakannya untuk mengamankan data saya?

Amazon Macie adalah layanan keamanan didukung AI yang membantu Anda mencegah kehilangan data dengan secara otomatis mencari, mengelompokkan, dan memproteksi data sensitif yang disimpan di Amazon S3. Amazon Macie menggunakan machine learning untuk mengenali data sensitif seperti informasi yang dapat diidentifikasi secara pribadi (PII) atau kekayaan intelektual, menetapkan nilai bisnis, dan memberikan visibilitas pada lokasi di mana data ini disimpan dan bagaimana data ini digunakan di organisasi Anda. Amazon Macie secara terus menerus memantau aktivitas akses data untuk anomali, dan menyampaikan peringatan apabila mendeteksi risiko akses tanpa otorisasi atau kebocoran data yang tidak disengaja.

Anda dapat menggunakan Amazon Macie untuk melindungi data dari ancaman keamanan dengan secara terus menerus memantau data dan kredensial akun Anda. Amazon Macie memberi Anda touch way otomatis dan rendah untuk mencari dan mengelompokkan data bisnis Anda. Amazon Macie memberikan kontrol melalui fungsi Lambda bertemplate untuk menolak akses atau memicu kebijakan pengaturan ulang kata kunci pada saat dijumpai perilaku mencurigakan atau akses data tanpa otorisasi ke entitas atau aplikasi pihak ketiga. Ketika peringatan dihasilkan, Anda dapat menggunakan Amazon Macie untuk respons terhadap insiden, dengan menggunakan Amazon CloudWatch Events untuk mengambil tindakan secara cepat guna memproteksi data Anda. Untuk informasi selengkapnya, buka Panduan Pengguna Amazon Macie.

T. Apa yang dimaksud Access Analyzer for S3 dan bagaimana cara kerjanya?

Access Analyzer untuk S3 adalah fitur baru yang memantau kebijakan akses Anda, memastikan bahwa kebijakan hanya menyediakan akses yang diinginkan ke sumber daya S3 Anda. Access Analyzer untuk S3 mengevaluasi kebijakan akses bucket Anda dan memungkinkan Anda menemukan dan dengan cepat memulihkan bucket dengan akses yang mungkin tidak diinginkan.

Access Analyzer for S3 memberi tahu Anda jika ada bucket yang dikonfigurasi untuk memungkinkan akses ke siapa pun di internet atau yang dibagikan dengan akun AWS lainnya. Anda menerima wawasan atau ‘temuan’ ke sumber dan tingkat akses publik atau bersama. Misalnya, Access Analyzer untuk S3 akan secara proaktif memberi tahu Anda jika akses baca atau tulis tidak sengaja diberikan melalui Access Control List (ACL) atau kebijakan bucket. Dengan wawasan ini, Anda dapat segera menetapkan atau mengembalikan kebijakan akses yang dimaksud.

Saat meninjau hasil yang menunjukkan potensi akses bersama ke bucket, Anda dapat mem-Blok Semua Akses Publik ke bucket dengan satu klik di konsol Manajemen S3. Anda juga dapat menelusuri pengaturan izin tingkat bucket untuk mengonfigurasi tingkat akses granular. Untuk tujuan audit, temuan Access Analyzer untuk S3 dapat diunduh sebagai laporan CSV. Untuk informasi selengkapnya, buka IAM Access Analyzer.

S3 Access Points

T: Apa itu Amazon S3 Access Points?

Kini, pelanggan mengelola akses ke bucket S3 dengan menggunakan satu kebijakan bucket yang mengontrol akses untuk ratusan aplikasi dengan berbagai tingkat izin.

Amazon S3 Access Points memudahkan Anda mengelola akses sesuai skala untuk aplikasi yang menggunakan set data bersama di S3. Dengan S3 Access Points, Anda kini dapat dengan mudah membuat ratusan titik akses per bucket, yang menjadi cara baru penyediaan akses ke set data bersama. Access Points menyediakan jalur khusus ke bucket, dengan nama host unik dan kebijakan akses yang memberlakukan izin khusus dan kontrol jaringan untuk setiap permintaan yang dibuat melalui titik akses. Pelajari selengkapnya di halaman S3 Access Points dan panduan pengguna.

T: Mengapa saya perlu menggunakan titik akses?

S3 Access Points menyederhanakan cara Anda mengelola akses data untuk aplikasi yang diatur untuk data set bersama di S3. Anda tidak perlu lagi mengelola kebijakan bucket tunggal yang rumit dengan ratusan aturan izin berbeda yang perlu ditulis, dibaca, dilacak, dan diaudit. Dengan S3 Access Points, Anda kini dapat membuat titik akses khusus aplikasi yang mengizinkan akses ke set data bersama dengan kebijakan yang disesuaikan dengan aplikasi tertentu.

Menggunakan Access Points, Anda dapat mengurai satu kebijakan bucket besar menjadi kebijakan individu dan terpisah untuk setiap aplikasi yang perlu mengakses set data bersama. Ini memudahkan untuk fokus pada merancang kebijakan akses yang tepat untuk aplikasi, sekaligus tidak perlu khawatir mengganggu jalannya aplikasi lain di dalam set data bersama. Anda juga dapat membuat Service Control Policy (SCP) dan meminta agar semua titik akses dibatasi ke Virtual Private Cloud (VPC), membuat firewall bagi data Anda di jaringan pribadi. 

T: Bagaimana cara kerja S3 Access Points?

Setiap S3 Access Point dikonfigurasikan dengan kebijakan akses khusus untuk kasus penggunaan atau aplikasi, dan satu bucket dapat memiliki ratusan titik akses. Misalnya, Anda dapat membuat titik akses untuk bucket S3 Anda yang mengizinkan akses untuk grup pengguna atau aplikasi untuk danau data Anda. Sebuah Access Point dapat mendukung satu pengguna atau aplikasi, atau grup pengguna atau aplikasi di dalam dan di seluruh akun, sehingga manajemen dapat dilakukan terpisah untuk setiap titik akses. 

Setiap titik akses dikaitkan dengan bucket tunggal dan berisi kontrol asal jaringan, serta kontrol Blok Akses Publik. Anda dapat membuat titik akses dengan kontrol asal jaringan yang hanya mengizinkan akses penyimpanan dari Virtual Private Cloud Anda, yaitu bagian yang diisolasi logis di AWS Cloud. Anda juga dapat membuat titik akses dengan kebijakan titik akses yang dikonfigurasi untuk hanya memungkinkan akses ke objek dengan prefiks yang ditentukan atau ke objek dengan tanda spesifik.

Anda dapat mengakses data di bucket bersama melalui titik akses dalam satu dari dua cara. Untuk operasi objek S3, Anda dapat menggunakan ARN titik akses di tempat nama bucket. Untuk permintaan yang membutuhkan nama bucket dalam format nama bucket S3 standar, Anda dapat menggunakan titik akses alias sebagai gantinya. Alias untuk S3 Access Points secara otomatis dihasilkan dan dapat dipertukarkan dengan nama Bucket S3 di mana pun Anda menggunakan nama bucket untuk akses data. Setiap kali Anda membuat titik akses untuk bucket, S3 secara otomatis menghasilkan Alias Titik Akses baru. Untuk set penuh operasi yang kompatibel dan layanan AWS, kunjungi Dokumentasi S3.

T: Apakah ada kuota berapa banyak titik akses yang bisa saya buat?

Secara default, Anda dapat membuat 1000 titik akses per wilayah per akun. Tidak seperti bucket S3, tidak ada batas keras untuk jumlah titik akses per akun AWS. Silakan kunjungi Kuota Layanan AWS untuk meminta kenaikan kuota ini.

T: Saat menggunakan titik akses, bagaimana cara mengizinkan permintaan?

Titik akses S3 memiliki kebijakan titik akses IAM-nya sendiri. Anda menulis kebijakan titik akses seperti halnya kebijakan bucket, menggunakan ARN titik akses sebagai sumber daya. Kebijakan titik akses dapat memberikan atau membatasi akses ke data S3 yang diminta melalui titik akses. Amazon S3 mengevaluasi semua kebijakan terkait, termasuk kebijakan pengguna, bucket, titik akses, Titik akhir VPC, dan kebijakan kontrol layanan serta Daftar Kontrol Akses, untuk memutuskan apakah akan mengizinkan permintaan.

T: Bagaimana cara menulis kebijakan titik akses?

Anda dapat menulis kebijakan titik akses seperti kebijakan bucket, dengan menggunakan aturan IAM untuk mengelola izin dan ARN titik akses pada dokumen kebijakan.

T: Apa perbedaan antara membatasi akses ke VPC tertentu dengan kontrol asal jaringan di titik akses dan membatasi akses ke VPC dengan kebijakan bucket?

Anda dapat tetap menggunakan kebijakan bucket untuk membatasi akses bucket ke VPC tertentu. Titik akses menyediakan cara yang lebih mudah dan teraudit untuk mengunci semua atau subset data dalam set data bersama ke trafik khusus-VPC untuk semua aplikasi di organisasi Anda dengan menggunakan kontrol API. Anda dapat menggunakan Kebijakan Kontrol Layanan (SCP) AWS Organizations untuk mewajibkan agar setiap titik akses yang dibuat di organisasi Anda mengatur nilai parameter API “kontrol asal jaringan” menjadi “vpc”. Kemudian, setiap titik akses baru yang dibuat secara otomatis akan membatasi akses data ke trafik khusus-VPC. Tidak diperlukan kebijakan akses lainnya untuk memastikan bahwa permintaan data diproses hanya dari VPC yang ditentukan.

T: Dapatkah saya menerapkan kebijakan “Tidak ada akses data Internet” untuk semua titik akses di organisasi saya?

Ya. Untuk menerapkan kebijakan “Tidak ada akses data Internet” untuk titik akses di organisasi Anda, sebaiknya pastikan semua titik akses memberlakukan akses khusus VPC. Untuk itu, Anda harus menulis SCP AWS yang hanya mendukung nilai “vpc” untuk parameter “kontrol asal jaringan” pada API create_access_point(). Jika titik akses yang sebelumnya Anda buat menghadapi Internet, maka dapat dihapus. Kebijakan bucket di tiap bucket Anda harus dimodifikasi untuk lebih membatasi akses Internet secara langsung ke bucket Anda melalui nama host bucket. Karena layanan AWS lain mungkin secara langsung mengakses bucket Anda, pastikan Anda mengatur akses untuk mengizinkan layanan AWS yang Anda inginkan dengan memodifikasi kebijakan untuk mengizinkan layanan AWS ini. Lihat dokumentasi S3 untuk contoh cara melakukannya.

T: Bisakah saya sepenuhnya menonaktifkan akses langsung ke bucket yang menggunakan nama host bucket?

Saat ini tidak, tetapi Anda dapat melampirkan kebijakan bucket yang menolak permintaan yang tidak dilakukan dengan menggunakan titik akses. Lihat Dokumentasi S3 untuk detail selengkapnya.

T: Bisakah saya mengganti atau menghapus titik akses dari bucket?

Ya. Saat Anda menghapus titik akses, akses apa pun ke bucket terkait melalui titik akses lainnya, dan melalui nama host bucket, tidak akan terganggu.

T: Berapa biaya Amazon S3 Access Points?

Tidak ada biaya tambahan untuk titik akses atau bucket yang menggunakan titik akses. Berlaku tarif permintaan Amazon S3 biasa.

T: Bagaimana cara memulai S3 Access Points?

Anda dapat mulai membuat S3 Access Points di bucket baru dan bucket yang sudah ada melalui Konsol Manajemen AWS, AWS Command Line Interface (CLI), Application Programming Interface (API), dan klien AWS Software Development Kit (SDK). Untuk mempelajari selengkapnya mengenai S3 Access Points, kunjungi panduan pengguna.

Ketahanan & Perlindungan Data

T:  Sejauh mana durabilitas Amazon S3?

Amazon S3 Standard, S3 Standard–IA, S3 Intelligent-Tiering, One Zone-IA S3, S3 Glacier, dan S3 Glacier Deep Archive semuanya dirancang untuk menyediakan ketahanan data 99,999999999% (11 9's) objek selama tahun tertentu. Tingkat durabilitas ini sesuai dengan kehilangan terprediksi tahunan rata-rata sebesar 0,000000001% objek. Sebagai contoh, jika Anda menyimpan 10.000.000 objek dengan Amazon S3, Anda dapat rata-rata memperkirakan akan mengalami kehilangan satu objek sekali setiap 10.000 tahun. S3 on Outposts dirancang untuk durabilitas dan redundansi penyimpanan data di beragam perangkat dan server di Outpost Anda. Selain itu, Standar Amazon S3, IA-Standar S3, S3 Glacier, dan S3 Glacier Deep Archive semuanya dirancang untuk menjaga kelangsungan data jika terjadi kehilangan seluruh Availability Zone S3.

Dalam hal berbagai lingkungan, praktik terbaiknya adalah memiliki cadangan dan pengamanan yang tepat terhadap kesalahan penghapusan tak disengaja dan tak diinginkan. Untuk data S3, praktik terbaik tersebut mencakup izin akses yang aman, Replikasi Lintas Wilayah, versioning dan pemfungsian, cadangan yang diuji secara teratur. 

T:  Bagaimana Amazon S3 dan Amazon S3 Glacier dirancang untuk mengarsipkan daya tahan 99,999999999%?

Kelas penyimpanan Amazon S3 Standar, IA-Standar S3, dan S3 Glacier secara redundan menyimpan objek Anda pada banyak perangkat di sekitar setidaknya tiga Availability Zone (AZ) di Wilayah Amazon S3 sebelum mengembalikan SUCCESS. Kelas penyimpanan IA-Satu Zona S3 menyimpan data secara redundan di berbagai perangkat dalam AZ tunggal. Produk ini dirancang untuk menahan kegagalan perangkat secara berulang dengan secara cepat mendeteksi dan memperbaiki segala redundansi, dan juga secara reguler memverifikasi integritas data Anda menggunakan checksum.

T:  Checksum apa yang digunakan oleh Amazon S3 untuk mendeteksi perusakan data?

Amazon S3 menggunakan kombinasi checksum Content-MD5 dan pemeriksaan redundansi bersiklus (CRC) untuk mendeteksi perusakan data. Amazon S3 melakukan checksum ini pada data yang tidak digunakan dan memulihkan kerusakan dengan menggunakan data yang memiliki redundansi. Selain itu, layanan menghitung checksum pada semua lalu lintas jaringan untuk mendeteksi perusakan paket data pada saat menyimpan atau mencari data.

T: Apa itu Versioning?

Versioning memungkinkan Anda mempertahankan, mencari, dan memulihkan setiap versi pada setiap objek yang disimpan di bucket Amazon S3. Setelah Anda mengaktifkan Versioning pada bucket, Amazon S3 mempertahankan objek yang ada kapan pun Anda melakukan operasi PUT, POST, COPY, atau DELETE pada objek. Secara default, permintaan GET akan mencari versi tertulis yang terbaru. Versi lebih lama pada objek yang ditimpakan atau dihapus dapat dicari dengan menentukan versi pada permintaan.

t:  Mengapa saya harus menggunakan Versioning?

Amazon S3 memberikan pelanggan infrastruktur penyimpanan yang berdaya tahan tinggi. Versioning menawarkan level proteksi tambahan dengan menyediakan metode pemulihan apabila pelanggan secara tidak sengaja menimpakan atau menghapus objek. Hal ini memungkinkan Anda untuk melakukan pemulihan dengan mudah dari tindakan pengguna yang tidak disengaja atau kegagalan aplikasi. Anda juga dapat menggunakan Versioning untuk retensi dan pengarsipan data.

T:  Bagaimana cara saya mulai menggunakan Versioning?

Anda dapat mulai menggunakan Versioning dengan mengaktifkan pengaturan pada bucket Amazon S3 Anda. Untuk informasi selengkapnya tentang cara mengaktifkan Versioning, silakan lihat Dokumentasi Teknis Amazon S3.

T:  Bagaimana cara Versioning memproteksi saya dari penghapusan objek yang tidak disengaja?

Pada saat pengguna melakukan operasi DELETE pada objek, permintaan sederhana berurutan (tanpa dilakukan versioning) tidak akan mencari objek. Namun demikian, semua versi objek tersebut akan tetap dipertahankan di bucket Amazon S3 Anda dan dapat dicari dan dipulihkan. Hanya pemilik bucket Amazon S3 saja yang dapat menghapus versi secara permanen. Anda dapat menyetel aturan Lifecycle untuk mengelola masa pakai dan biaya penyimpanan berbagai versi objek Anda.

T:  Dapatkan saya mengatur sampah, recycle bin, atau jendela rollback di objek Amazon S3 saya untuk memulihkan dari hapus dan penimpaan?

Anda dapat menggunakan aturan Lifecycle beserta Versioning untuk menerapkan jendela rollback pada objek Amazon S3 Anda. Sebagai contoh, dengan bucket Anda yang diaktifkan versioning-nya, Anda dapat menetapkan aturan yang mengarsip semua versi Anda yang sebelumnya ke kelas penyimpanan Glacier dengan biaya yang lebih rendah dan menghapusnya setelah 100 hari, memberi Anda 100 hari jendela untuk mengembalikan perubahan pada data Anda sementara mengurangi biaya penyimpanan.

T:  Bagaimana saya dapat memastikan proteksi maksimum pada versi yang saya pertahankan?

Kemampuan HapusMulti-Factor Authentication (MFA) pada Versioning dapat digunakan untuk memberikan lapisan keamanan tambahan. Secara default, semua permintaan ke bucket Amazon S3 memerlukan kredensial akun AWS Anda. Jika Anda mengaktifkan Versioning dengan Hapus MFA pada bucket Amazon S3, dua bentuk autentikasi diperlukan untuk menghapus versi objek secara permanen: kredensial akun AWS Anda dan kode enam digit yang valid serta nomor seri dari perangkat autentikasi pada kepemilikan fisik Anda. Untuk mempelajari selengkapnya tentang pengaktifan Versioning dengan Hapus MFA, termasuk cara membayar dan mengaktifkan perangkat autentikasi, silakan lihat Dokumentasi Teknis Amazon S3.

T:  Bagaimana saya dikenai biaya dengan menggunakan Versioning?

Tarif Amazon S3 normal berlaku untuk setiap versi objek yang disimpan atau diminta. Sebagai contoh, mari kita perhatikan skenario berikut untuk mengilustrasikan biaya penyimpanan pada saat menggunakan Versioning (mari menganggap bulan saat ini selama 31 hari):

1) Hari ke-1 bulan tersebut: Anda melakukan PUT sebesar 4 GB (4.294.967.296 byte) di bucket Anda.
2) Hari ke-16 bulan tersebut: Anda melakukan PUT sebesar 5 GB (5.368.709.120 byte) di dalam bucket yang sama dengan menggunakan kunci yang sama dengan PUT asli pada Hari ke-1.

Pada saat menganalisis biaya penyimpanan dari operasi di atas, mohon perhatikan bahwa objek 4 GB dari Hari ke-1 tidak dihapus dari bucket pada saat objek 5 GB ditulis pada Hari ke-15. Namun, objek 4 GB dipertahankan sebagai versi yang lebih lama dan objek 5 GB menjadi versi objek tertulis yang terbaru di dalam bucket Anda. Pada akhir bulan:

Total penggunaan Byte-Jam
[4.294.967.296 byte x 31 hari x (24 jam/hari)] + [5.368.709.120 byte x 16 hari x (24 jam/hari)] = 5.257.039.970.304 Byte-Jam.

Konversi ke GB-Bulan Total
5.257.039.970.304 Byte-Jam x (1 GB/1.073.741.824 byte) x (1 bulan/744 jam) = 6,581 GB-Bulan

Biaya dikalkulasi berdasarkan tarif terakhir di wilayah Anda pada Halaman Harga Amazon S3.

Kelas Penyimpanan

S3 Intelligent-Tiering

T:  Apa itu S3 Intelligent-Tiering?

Amazon S3 Intelligent-Tiering (S3 Intelligent-Tiering) adalah kelas penyimpanan yang dirancang untuk mengoptimalkan biaya penyimpanan dengan secara otomatis memindahkan data ke tingkat akses yang paling efektif biaya, tanpa overhead operasional. Ini adalah satu-satunya kelas penyimpanan yang menghadirkan penghematan biaya otomatis dengan memindahkan data pada tingkat objek granular antara tingkat akses saat pola akses berubah. Ini adalah kelas penyimpanan yang sempurna ketika Anda ingin mengoptimalkan biaya penyimpanan untuk data yang pola aksesnya tidak diketahui atau berubah. Untuk biaya pemantauan dan otomatisasi objek bulanan yang kecil, S3 Intelligent-Tiering memantau pola akses dan memindahkan objek secara otomatis dari satu tingkat ke tingkat lainnya. Tidak ada biaya penarikan untuk S3 Intelligent-Tiering. Jika suatu objek di tingkat akses jarang diakses kemudian, maka objek tersebut secara otomatis dipindahkan kembali ke tingkat akses sering. Tidak ada biaya tiering tambahan yang berlaku saat objek dipindahkan di antara tingkat akses dalam kelas penyimpanan S3 Intelligent-Tiering.

T:  Bagaimana cara kerja S3 Intelligent-Tiering?

Kelas penyimpanan Amazon S3 Intelligent-Tiering dirancang untuk mengoptimalkan biaya penyimpanan dengan memindahkan data secara otomatis ke tingkat akses yang paling hemat biaya saat pola akses berubah. Untuk biaya pemantauan dan otomatisasi objek bulanan yang kecil, S3 Intelligent-Tiering memantau pola akses dan secara otomatis memindahkan objek yang belum diakses ke tingkat akses berbiaya lebih rendah. S3 Intelligent-Tiering memberikan penghematan biaya penyimpanan otomatis dalam dua tingkat akses latensi rendah dan throughput tinggi. Untuk data yang dapat diakses secara asinkron, pelanggan dapat memilih untuk mengaktifkan kemampuan pengarsipan otomatis dalam kelas penyimpanan S3 Intelligent-Tiering. Tidak ada biaya penarikan untuk S3 Intelligent-Tiering. Jika suatu objek di tingkat akses jarang diakses kemudian, maka secara otomatis dipindahkan kembali ke tingkat akses yang sering. Tidak ada tingkat tambahan atau biaya siklus hidup yang berlaku saat objek dipindahkan di antara tingkat akses dalam kelas penyimpanan S3 Intelligent-Tiering.

Cara kerja S3 Intelligent-Tiering adalah dengan menyimpan objek dalam empat tingkatan akses: dua tingkatan akses latensi rendah yang dioptimalkan untuk akses yang sering dan jarang, dan dua tingkatan akses arsip opt-in yang dirancang untuk akses asinkron yang dioptimalkan untuk akses jarang. Objek yang diunggah atau dialihkan ke S3 Intelligent-Tiering secara otomatis disimpan di tingkat Akses Sering. S3 Intelligent-Tiering memindahkan objek yang belum diakses dalam 30 hari berturut-turut ke tingkat Akses Jarang. Setelah mengaktifkan salah satu atau kedua tingkat akses arsip, S3 Intelligent-Tiering akan memindahkan objek yang belum diakses selama 90 hari berturut-turut ke tingkat Archive Access, lalu setelah 180 hari berturut-turut tidak ada akses ke tingkat Deep Archive Access. Jika objek yang Anda ambil disimpan dalam tingkatan Akses Archive atau Deep Archive, sebelum Anda bisa mengambil objek tersebut, Anda harus memulihkan objek terlebih dahulu menggunakan RestoreObject. Untuk informasi tentang memulihkan objek yang diarsipkan, lihat Memulihkan Objek yang Diarsipkan. Jika objek diakses kemudian, objek tersebut akan dipindahkan kembali ke Tingkat Akses Sering. Tidak ada biaya pengambilan, jadi Anda tidak akan melihat peningkatan tak terduga dalam tagihan penyimpanan saat pola akses berubah.

T:  Mengapa saya harus memilih untuk menggunakan S3 Intelligent-Tiering?

S3 Intelligent-Tiering adalah satu-satunya kelas penyimpanan di dunia dengan dua tingkat yang memungkinkan Anda mencapai throughput tinggi dan latensi rendah saat Anda memerlukan data mereka segera dengan Tingkat Akses Sering, dan dua Tingkat Arsip opsional dengan Anda membayar hanya seharga 1 USD per TB per bulan saat data tidak digunakan. S3 Intelligent-Tiering untuk data dengan pola akses yang tidak diketahui dan berubah. Untuk set data dengan pola akses berubah tempat subkumpulan objek dapat jarang diakses selama jangka waktu yang panjang, tingkat Akses Arsip makin mengurangi biaya penyimpanan Anda hingga 95%.

T:  Kinerja apa yang ditawarkan S3 Intelligent-Tiering?

Tingkat akses S3 Intelligent-Tiering sering dan jarang memberikan kinerja latensi rendah dan throughput tinggi. Tingkat Akses Arsip memiliki kinerja yang sama dengan S3 Glacier, dan tingkat Akses Arsip Mendalam memiliki kinerja yang sama dengan kelas penyimpanan S3 Glacier Deep Archive. Anda sebaiknya hanya mengaktifkan tingkat akses arsip jika objek Anda bisa diakses secara asinkron oleh aplikasi Anda. Jika objek yang Anda ambil disimpan dalam tingkatan Archive atau Deep Archive, sebelum Anda bisa mengambil objek tersebut, Anda harus memulihkan objek terlebih dahulu menggunakan RestoreObject. Untuk informasi tentang memulihkan objek yang diarsipkan, lihat Memulihkan Objek yang Diarsipkan. Objek dalam tingkat Akses Arsip dipindahkan ke tingkat Akses Sering dalam 3-5 jam dan dalam 12 jam jika berada dalam tingkat Akses Arsip Mendalam. Jika Anda memerlukan akses lebih cepat ke objek dalam tingkat Akses Arsip, Anda dapat membayar untuk pengambilan yang lebih cepat dengan menggunakan konsol untuk memilih opsi kecepatan pengambilan dipercepat.

T:  Bagaimana daya tahan dan ketersediaan S3 Intelligent-Tiering?

S3 Intelligent-Tiering dirancang untuk daya tahan 99,999999999% yang sama dengan kelas penyimpanan S3 Standar. S3 Intelligent-Tiering dirancang untuk ketersediaan 99,9%, dan memberlakukan persetujuan tingkat layanan yang memberikan kredit layanan jika ketersediaannya kurang dari komitmen layanan kami dalam siklus tagihan.

T:  Bagaimana cara saya memasukkan data ke S3 Intelligent-Tiering?

Terdapat dua cara untuk memasukkan data ke S3 Intelligent-Tiering. Anda dapat langsung PUT ke S3 Intelligent-Tiering dengan menentukan INTELLIGENT_TIERING di header kelas penyimpanan x-amz atau mengatur kebijakan siklus aktif ke objek transisi dari Standar S3 atau IA-Standar S3 ke S3 INTELLIGENT_TIERING.

T:  Bagaimana pengenaan biaya untuk S3 Intelligent-Tiering?

S3 Intelligent-Tiering akan mengenakan biaya kepada Anda untuk penyimpanan bulanan, permintaan, dan transfer data, serta mengenakan biaya bulanan yang murah untuk pemantauan dan otomatisasi per objek. Kelas penyimpanan S3 Intelligent-Tiering menyimpan objek dalam dua tingkat akses penyimpanan: tingkat Akses Sering dengan tarif penyimpanan S3 Standard, dan tingkat Akses Jarang dengan tarif penyimpanan Akses Jarang S3 Standard. S3 Intelligent-Tiering juga memiliki dua tingkat arsip opsional, tingkat Archive Access dengan harga penyimpanan S3 Glacier, dan tingkat Deep Archive Access dengan harga penyimpanan S3 Glacier Deep Archive.

Tidak ada biaya penarikan untuk S3 Intelligent-Tiering. Untuk biaya pemantauan dan otomatisasi yang murah, S3 Intelligent-Tiering memantau pola akses dan secara otomatis memindahkan objek di antara dua tingkat akses untuk mengoptimalkan biaya dan performa penyimpanan Anda, dengan dua tingkat akses arsip asinkron opsional.

Tidak ada ukuran objek minimum yang dapat ditagih di S3 Intelligent-Tiering, tetapi objek yang lebih kecil dari 128KB tidak memenuhi syarat untuk auto-tiering. Objek-objek kecil ini tidak akan dipantau dan akan selalu dikenakan biaya dengan tarif tingkat Akses Sering, tanpa biaya pemantauan dan otomatisasi. Untuk setiap objek yang diarsipkan ke tingkat Archive Access atau tingkat Deep Archive Access di S3 Intelligent-Tiering, Amazon S3 menggunakan penyimpanan 8 KB untuk nama objek dan metadata lainnya (ditagih dengan tarif penyimpanan S3 Standard) dan penyimpanan 32 KB untuk indeks dan metadata terkait (ditagih dengan kecepatan penyimpanan S3 Glacier dan S3 Glacier Deep Archive).

T: Bagaimana cara saya mengaktifkan tingkat akses arsip S3 Intelligent-Tiering?

Anda dapat mengaktifkan tingkat Akses Arsip dan tingkat Akses Arsip dengan membuat konfigurasi bucket, awalan, atau tingkat tag objek menggunakan konsol manajemen Amazon S3 API, CLI, atau S3. Anda sebaiknya hanya mengaktifkan salah satu atau kedua tingkat akses arsip jika objek Anda dapat diakses secara asinkron oleh aplikasi Anda.

T: Apakah saya dapat memperpanjang waktu sebelum objek diarsipkan dalam kelas penyimpanan S3 Intelligent-Tiering?

Ya. Dalam konfigurasi bucket, awalan, atau tingkat tag objek, Anda dapat memperpanjang waktu akses terakhir untuk pengarsipan objek dalam S3 Intelligent-Tiering. Saat diaktifkan, secara default, objek yang belum diakses selama minimum 90 hari berturut-turut akan otomatis dipindahkan ke tingkat Akses Arsip. Objek yang belum diakses selama minimum 180 hari berturut-turut otomatis dipindahkan ke tingkat Akses Arsip Mendalam. Konfigurasi default untuk hari berturut-turut sejak akses terakhir sebelum pengarsipan otomatis dalam S3 Intelligent-Tiering dapat diperpanjang selama hingga 2 hari.

T: Bagaimana cara saya mengakses objek dari tingkat Akses Arsip atau Akses Arsip Mendalam dalam kelas penyimpanan S3 Intelligent-Tiering?

Untuk mengakses objek di tingkat Akses Arsip atau Akses Arsip Mendalam, Anda harus mengeluarkan permintaan Pulihkan dan objek akan mulai dikembalikan ke tingkat Akses Sering, semua dalam kelas penyimpanan S3 Intelligent-Tiering. Objek dalam Tingkat Akses Arsip dipindahkan ke tingkat Akses Sering dalam 3-5 jam,objek dalam tingkat Akses Arsip Mendalam dipindahkan ke tingkat Akses Sering dalam 12 jam. Setelah objek di tingkat Akses Sering, Anda dapat mengeluarkan permintaan GET untuk menarik objek.

T. Bagaimana cara saya mengetahui di tingkat akses S3 Intelligent-Tiering mana objek saya disimpan?

Anda dapat menggunakan Amazon S3 Inventory untuk melaporkan tingkat akses objek yang disimpan dalam kelas penyimpanan S3 Intelligent-Tiering. Amazon S3 Inventory menyediakan file output CSV, ORC, atau Parquet yang mencantumkan objek Anda dan metadata yang sesuai per hari atau per minggu untuk bucket S3 atau awalan bersama. Anda juga dapat membuat permintaan HEAD pada objek Anda untuk melaporkan tingkat akses arsip S3 Intelligent-Tiering.

T:  Apakah ada durasi minimum untuk S3 Intelligent-Tiering?

Tidak. Kelas penyimpanan S3 Intelligent-Tiering tidak memiliki durasi penyimpanan minimum.

T: Apakah ada ukuran objek minimum yang dapat ditagih kan untuk S3 Intelligent-Tiering?

Tidak. Kelas penyimpanan S3 Intelligent-Tiering tidak memiliki ukuran objek minimum yang dapat ditagih, tetapi objek yang lebih kecil dari 128 KB tidak memenuhi syarat untuk auto-tiering. Objek-objek yang lebih kecil ini akan selalu dikenakan biaya dengan tarif tingkat Akses Sering, tanpa biaya pemantauan dan otomatisasi. Untuk setiap objek yang diarsipkan ke tingkat archive access atau tingkat Deep Archive Access di S3 Intelligent-Tiering, Amazon S3 menggunakan penyimpanan 8 KB untuk nama objek dan metadata lainnya (ditagih dengan tarif penyimpanan S3 Standard) dan penyimpanan 32 KB untuk indeks dan metadata yang berkaitan (ditagih dengan kecepatan penyimpanan S3 Glacier dan S3 Glacier Deep Archive). Untuk detail selengkapnya, kunjungi Halaman harga Amazon S3

S3 Standard-Infrequent Access (S3 Standard-IA)

T:  Apa itu Akses Jarang – S3 Standard?

Amazon S3 Standard-Infrequent Access (S3 Standard-IA) adalah kelas penyimpanan Amazon S3 untuk data yang tidak begitu sering diakses, tetapi memerlukan akses cepat. S3 Standard-IA menawarkan daya tahan tinggi, throughput, dan latensi rendah dari kelas penyimpanan Standar Amazon S3, dengan harga penyimpanan per GB yang rendah dan biaya pengambilan per GB. Kombinasi biaya rendah dan performa yang tinggi ini membuat S3 Standard-IA ideal untuk penyimpanan jangka panjang, cadangan, dan sebagai penyimpanan data untuk pemulihan bencana. Kelas penyimpanan IA – Standar S3 adalah seperangkat pada tingkat objek dan dapat berada pada bucket yang sama dengan kelas penyimpanan Standar S3 atau IA – Satu Zona S3, yang memungkinkan Anda untuk menggunakan kebijakan Lifecycle S3 untuk melakukan transisi objek secara otomatis antara kelas penyimpanan tanpa pergantian aplikasi.

T:  Mengapa saya harus memilih untuk menggunakan IA – Standar S3?

IA – Standar S3 ideal untuk data yang tidak begitu sering diakses, tetapi memerlukan akses cepat pada saat diperlukan. IA – Standar S3 secara ideal sesuai untuk penyimpanan file jangka panjang, sinkronisasi yang lebih lama dan berbagi penyimpanan, dan data yang semakin lama lainnya.

T:  Kinerja seperti apa yang ditawarkan oleh S3 Standard IA?

S3 Standard IA akan menyediakan latensi dan performa throughput yang sama dengan kelas penyimpanan S3 Standard. 

 

T:  Bagaimana cara saya memasukkan data S3 Standard IA?

Terdapat dua cara untuk memasukkan data ke IA – Standar S3. Anda dapat secara langsung melakukan PUT ke IA – Standar S3 dengan menentukan STANDARD_IA pada header x-amz-storage-class. Anda dapat juga mengatur kebijakan Siklus Hidup untuk melakukan transisi objek dari kelas penyimpanan S3 Standard menjadi S3 Standard IA.

T:  Biaya apa yang akan dikenakan jika saya mengubah kelas penyimpanan objek dari S3 Standard IA menjadi S3 Standard dengan permintaan COPY?

Anda akan dikenai biaya untuk permintaan COPY IA – Standar S3 dan pencarian data IA – Standar S3.

T: Apakah terdapat tagihan durasi penyimpanan minimum untuk IA – Standar S3?

IA-Standar S3 dirancang untuk data yang tahan lama, tetapi jarang diakses yang tetap disimpan selama berbulan-bulan atau bertahun-tahun. Data yang dihapus dari IA – Standar S3 dalam 30 hari akan dikenai biaya selama 30 hari penuh. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga IA – Standar S3.

T: Apakah terdapat tagihan penyimpanan objek minimum untuk IA – Standar S3?

IA – Standar S3 dirancang untuk objek yang lebih besar dan memiliki tagihan penyimpanan objek minimum sebesar 128 KB. Objek yang ukurannya lebih kecil dari 128 KB akan dikenai biaya penyimpanan seperti objek yang berukuran 128 KB. Misalnya, objek 6KB dalam S3 Standard-IA akan dikenakan biaya penyimpanan S3 Standard-IA sebesar 6KB dan biaya tambahan ukuran objek minimum yang setara dengan 122KB dengan harga penyimpanan S3 Standard-IA. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Standard-IA.

T:  Dapatkah saya meningkatkan objek dari IA-Standar S3 menjadi IA-Satu Zona S3 atau S3 Glacier?

Ya. Selain menggunakan kebijakan Siklus Aktif untuk memigrasikan objek dari Standar S3 menjadi IA-Standar S3, Anda dapat juga mengatur kebijakan Siklus Aktif untuk meningkatkan objek dari IA-Standar S3 ke IA-Satu Zona S3 atau S3 Glacier.

Akses Jarang – Satu Zona S3 (IA – Satu Zona S3)

T: Apa itu kelas penyimpanan IA – Satu Zona S3?

Kelas penyimpanan Akses Jarang – Satu Zona S3 adalah kelas penyimpanan Amazon S3 yang dapat dipilih pelanggan untuk menyimpan objek dalam availability zone tunggal. IA – Satu Zona S3 secara redundan menyimpan data dalam Availability Zone tunggal untuk menghantarkan penyimpanan dengan biaya yang lebih rendah sebesar 20% dibandingkan dengan penyimpanan IA – Standar S3 redundan secara geografis, yang menyimpan data secara redundan ke banyak Availability Zone terpisah secara geografis.

One Zone – IA S3 menawarkan 99% SLA yang tersedia dan juga dirancang untuk daya tahan eleven 9’s dalam Availability Zone. Namun, data di kelas penyimpanan One Zone-IA S3 tidak tahan terhadap kehilangan fisik seluruh Availability Zone.

Penyimpanan One Zone – IA S3 menawarkan fitur Amazon S3 yang sama seperti S3 Standard dan S3 Standard IA, dan digunakan pada Amazon S3 API, CLI dan konsol. Kelas penyimpanan IA – Satu Zona S3 diatur pada tingkat objek dan dapat berada pada bucket yang sama dengan kelas penyimpanan Standar S3 dan IA – Standar S3. Anda dapat menggunakan kebijakan Lifecycle S3 untuk secara otomatis melakukan transisi objek antarkelas penyimpanan tanpa perlu berganti aplikasi.

T:  Kasus penggunaan apa yang paling sesuai untuk kelas penyimpanan IA – Satu Zona S3?

Pelanggan dapat menggunakan IA-Satu Zona S3 untuk penyimpanan yang jarang diakses, seperti pencadangan salinan, salinan pemulihan bencana, atau data lain yang mudah dibuat ulang.

T: Apa saja kinerja yang ditawarkan penyimpanan One Zone - IA S3?

Kelas penyimpanan One Zone-IA S3 menawarkan latensi dan performa throughput yang sama dengan kelas penyimpanan S3 Standard dan S3 Standard-Infrequent Access.

T:  Seberapa baik daya tahan kelas penyimpanan One Zone - IA S3?

Kelas penyimpanan One Zone - IA S3 dirancang untuk 99,999999999% daya tahan dalam Availability Zone. Namun, data di kelas penyimpanan One Zone-IA S3 tidak tahan terhadap kehilangan ketersediaan atau kehilangan fisik Availability Zone. Sebaliknya, penyimpanan S3 Standard, S3 Intelligent-Tiering, S3 Standard-Infrequent Access, dan S3 Glacier dirancang untuk tahan terhadap kehilangan ketersediaan atau kehancuran Availability Zone. One Zone - IA S3 dapat memberikan daya tahan dan ketersediaan yang sama atau lebih baik dibandingkan sebagian besar pusat data modern, fisik, sementara memberikan manfaat tambahan terhadap elastisitas penyimpanan dan seperangkat fitur Amazon S3.

T: Apakah One Zone - IA S3 sama dengan Availability Zone AWS?

Ya. Setiap Wilayah AWS adalah area geografis yang terpisah. Setiap wilayah memiliki banyak lokasi terisolasi yang dikenal sebagai Availability Zone. Kelas penyimpanan One Zone - IA S3 Amazon menggunakan Availability Zone AWS individu dalam wilayah.

T: Seberapa besar perlindungan pemulihan bencana yang saya alami dengan menggunakan One Zone - IA S3?

Setiap Availability Zone menggunakan daya dan jaringan yang redundan. Dalam Wilayah AWS, Availability Zone berada pada dataran banjir, zona patahan gempa yang berbeda, dan dipisahkan secara geografis untuk perlindungan dari kebakaran. Kelas penyimpanan Standar S3 dan S3 Standard IA menawarkan perlindungan terhadap berbagai bencana semacam itu dengan menyimpan data Anda secara redundan dalam banyak Availability Zone. One Zone-IA S3 menawarkan proteksi terhadap kegagalan peralatan dalam Availability Zone, tetapi data tidak tahan terhadap kehilangan fisik Availability Zone yang diakibatkan oleh bencana, seperti gempa bumi dan banjir. Dengan menggunakan opsi One Zone-IA S3, S3 Standard, dan S3 Standard IA , Anda dapat memilih kelas penyimpanan yang paling sesuai dengan durabilitas dan ketersediaan penyimpanan Anda.

S3 on Outposts

T: Apa itu Amazon S3 on Outposts?

Amazon S3 on Outposts memberikan penyimpanan objek di lingkungan lokal Anda, menggunakan API dan kapabilitas S3 yang Anda gunakan di AWS saat ini. AWS Outposts adalah layanan terkelola penuh yang memperluas infrastruktur AWS, dan alat untuk hampir semua pusat data, ruang lokasi bersama, atau fasilitas lokal. Dengan S3 on Outposts, Anda bisa dengan aman memproses dan menyimpan data pelanggan yang dihasilkan di lokasi sebelum memindahkannya ke Wilayah AWS, mengakses data lokal untuk aplikasi yang berjalan lokal, atau menyimpan data di Outposts Anda untuk perusahaan di lokasi dengan persyaratan residensi data, dan atau industri teregulasi. Untuk mempelajari selengkapnya tentang S3 on Outposts, kunjungi halaman ikhtisar.
 

Amazon S3 Glacier

T: Apa itu Amazon S3 Glacier?

Amazon S3 Glacier adalah layanan penyimpanan yang aman, tahan lama, dan rendah biaya untuk pengarsipan data. Anda dapat secara andal menyimpan data dalam jumlah berapa pun dengan harga yang bersaing dengan atau lebih murah dari solusi on-premise. Untuk menjaga biaya tetap rendah namun sesuai dengan kebutuhan yang beragam, Amazon S3 Glacier menyediakan tiga pilihan pengembalian mulai dari beberapa menit hingga beberapa jam. Anda dapat mengunggah objek secara langsung ke Amazon S3 Glacier, atau menggunakan kebijakan Siklus Hidup S3 untuk mentransfer data dari kelas penyimpanan Amazon S3 mana pun untuk data aktif (S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, dan S3 One Zone-IA) ke S3 Glacier.

T:  Mengapa saya harus memilih untuk menggunakan Amazon S3 Glacier?

Amazon S3 Glacier cocok untuk pengarsipan data, pencadangan jangka panjang, dan kebutuhan penyimpanan data offsite. Amazon S3 Glacier merupakan opsi berbiaya rendah untuk set data arsip berumur panjang, yang dapat diakses satu atau dua kali setahun dan dapat mendukung pengambilan dalam beberapa menit hingga 12 jam. Beberapa contoh kasus penggunaan pengarsipan meliputi arsip media digital, catatan keuangan dan kesehatan, data pengurutan genomik mentah, cadangan basis data jangka panjang, dan data yang harus disimpan untuk kepatuhan terhadap peraturan.

T: Bagaimana saya dapat memasukkan data ke Amazon S3 Glacier?

Terdapat dua cara untuk memasukkan data ke Amazon S3 Glacier. Anda dapat langsung MEMASUKKAN ke Amazon S3 Glacier dengan menentukan GLACIER di header kelas x-amz-storage. Anda juga dapat menggunakan aturan Siklus Hidup S3 untuk mentransisikan objek dari salah satu kelas penyimpanan Amazon S3 untuk data aktif (S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, dan S3 One Zone-IA) ke Amazon S3 Glacier berdasarkan usia objek. Gunakan Konsol Manajemen Amazon S3, AWS SDK atau API Amazon S3 untuk secara langsung MEMASUKKAN ke Amazon S3 Glacier atau menentukan aturan untuk pengarsipan.

Catatan: Amazon S3 Glacier juga tersedia melalui API Glacier langsung asli dan melalui Konsol Manajemen Amazon S3 Glacier. Untuk pengalaman yang disempurnakan lengkap dengan akses ke set fitur S3 lengkap termasuk manajemen siklus hidup, Replikasi S3, Lensa Penyimpanan S3, dan banyak lagi, kami merekomendasikan penggunaan API S3 dan Konsol Manajemen S3 untuk menggunakan fitur S3 Glacier.

T: Bagaimana saya dapat mengambil objek saya yang diarsipkan di Amazon S3 Glacier dan apakah saya akan diberi tahu saat objek dipulihkan?

Objek yang diarsipkan di Amazon S3 Glacier diakses secara asinkron. Untuk mengambil data yang disimpan di kelas penyimpanan Amazon S3 Glacier, mulai permintaan pengambilan menggunakan API Amazon S3 atau Konsol Manajemen Amazon S3. Permintaan pengambilan membuat salinan sementara untuk data Anda dalam kelas penyimpanan S3 Standard-IA sekaligus menjaga data terarsip tetap utuh di Amazon S3 Glacier. Anda dapat menentukan lamanya waktu dalam satuan hari sebagai periode penyimpanan salinan sementara dalam Amazon S3. Kemudian, Anda dapat mengakses salinan sementara dari S3 melalui permintaan GET Amazon S3 pada objek terarsip.

Dengan mengembalikan notifikasi, Anda kini dapat diberi tahu dengan Pemberitahuan Peristiwa S3 saat objek telah berhasil dipulihkan dari S3 Glacier dan salinan sementara tersedia untuk Anda. Pemilik bucket (atau orang lain, sebagaimana diizinkan oleh kebijakan IAM) dapat mengatur notifikasi untuk dikeluarkan ke Amazon Simple Queue Service (SQS) atau Amazon Simple Notification Service (SNS). Notifikasi juga dapat dikirimkan ke AWS Lambda untuk pemrosesan oleh fungsi Lambda.

T: Berapa lama waktu yang diperlukan untuk memulihkan objek yang diarsip ke Amazon S3 Glacier?

Pada saat pemrosesan pelaksanaan pengambilan tugas, Amazon S3 terlebih dahulu mengambil data yang diminta dari Amazon S3 Glacier, kemudian membuat salinan sementara untuk data yang diminta dalam Amazon S3. Ini biasanya membutuhkan waktu beberapa menit. Waktu akses permintaan Anda bergantung pada opsi pencarian yang Anda pilih: Pengambilan Dipercepat, Standar, atau Massal. Untuk semua objek kecuali objek terbesar (250 MB+), data yang diakses dengan menggunakan pengambilan Dipercepat biasanya dilakukan dalam 1-5 menit. Objek yang dicari menggunakan pengambilan Standar biasanya selesai antara 3-5 jam. Pengambilan dalam jumlah besar biasanya selesai dalam 5-12 jam. Untuk informasi selengkapnya tentang opsi pengambilan Amazon S3 Glacier, lihat memulihkan objek yang diarsipkan di panduan pengguna S3.

Dengan unit kapasitas yang disediakan Amazon S3 Glacier, Anda dapat membayar biaya tetap di muka untuk bulan tertentu guna memastikan ketersediaan kapasitas pengambilan untuk pengambilan yang dipercepat dari Amazon S3 Glacier. Anda dapat membeli 2 unit kapasitas yang disediakan per bulan untuk meningkatkan jumlah data yang dapat Anda ambil. Setiap unit kapasitas memastikan setidaknya tiga pengambilan dipercepat dapat dilakukan setiap 5 menit dan menyediakan hingga 150 MB/dtk throughput pengambilan. Jika beban kerja Anda memerlukan akses yang sangat andal dan dapat diprediksi ke subset data Anda dalam hitungan menit, Anda harus membeli kapasitas pengambilan yang disediakan. Tanpa kapasitas yang disediakan, pengambilan yang dipercepat mungkin tidak dapat diterima selama periode permintaan tinggi. Jika Anda memerlukan akses ke pengambilan yang dipercepat dalam keadaan apa pun, kami sarankan Anda membeli kapasitas pengambilan yang disediakan.

Anda dapat membeli kapasitas yang disediakan menggunakan konsol Amazon S3, kapasitas pembelian yang disediakan REST API, AWS SDK, atau AWS CLI. Unit kapasitas yang disediakan bertahan selama satu bulan mulai dari tanggal dan waktu pembelian, yang merupakan tanggal mulai. Unit akan kedaluwarsa pada tanggal kedaluwarsa, yaitu tepat satu bulan setelah tanggal mulai hingga detik terdekat. Untuk informasi harga kapasitas yang disediakan, lihat harga Amazon S3.

T:  Bagaimana biaya penyimpanan saya dikalkulasi untuk objek Amazon S3 yang diarsip ke Amazon S3 Glacier?

Volume penyimpanan yang ditagihkan dalam satu bulan adalah berdasarkan penyimpanan rata-rata yang digunakan di sepanjang bulan tersebut, diukur dalam gigabyte-bulan (GB-Bulan). Amazon S3 menghitung ukuran objek sebagai jumlah data yang Anda simpan, plus tambahan data Amazon S3 Glacier 32 KB plus data kelas tambahan penyimpanan Amazon S3 Standard 8 KB. Amazon S3 Glacier memerlukan 32 KB data tambahan per objek untuk indeks dan metadata S3 Glacier sehingga Anda dapat mengidentifikasi dan mengambil data Anda. Amazon S3 memerlukan 8 KB untuk menyimpan dan mempertahankan nama dan metadata yang ditentukan pengguna untuk objek terarsip ke Amazon S3 Glacier. Hal ini memungkinkan Anda mendapatkan daftar waktu nyata semua objek Amazon S3 Anda, termasuk yang disimpan menggunakan kelas penyimpanan Amazon S3 Glacier, menggunakan Amazon S3 LIST API, atau laporan S3 Inventory. 

Sebagai contoh, jika Anda telah mengarsip 100.000 objek yang masing-masing berukuran 1 GB, penyimpanan yang dapat ditagihkan adalah:
1,000032 gigabyte untuk masing-masing objek x 100.000 objek = 100.003,2 gigabyte dari penyimpanan Amazon S3 Glacier.
0,000008 gigabyte untuk masing-masing objek x 100.000 objek = 0,8 gigabyte dari penyimpanan Amazon S3 Standard.

Biaya dikalkulasi berdasarkan tarif terakhir untuk Wilayah AWS Anda pada halaman harga Amazon S3. Untuk contoh harga Amazon S3 tambahan, buka FAQ penagihan S3 atau gunakan kalkulator harga AWS.

T: Adakah durasi penyimpanan minimum dan biaya penyimpanan objek minimum untuk Amazon S3 Glacier?

Amazon S3 Glacier dirancang untuk data yang tahan lama tetapi jarang diakses yang tetap disimpan selama berbulan-bulan atau bertahun-tahun. Objek yang diarsipkan ke S3 memiliki minimum penyimpanan 90 hari, dan objek yang dihapus, ditimpa, atau ditransisikan sebelum 90 hari dikenakan biaya prorata yang sama dengan biaya penyimpanan untuk hari yang tersisa. Lihat halaman harga Amazon S3 untuk informasi tentang harga Amazon S3 Glacier.

Amazon S3 Glacier memiliki ukuran penyimpanan objek yang dapat ditagih minimal 40 KB. Objek yang berukuran lebih kecil dari 40 KB dapat disimpan tetapi akan dikenakan biaya untuk penyimpanan sebesar 40 KB. 

T: Berapa biaya untuk mengambil data dari Amazon S3 Glacier?

Terdapat tiga cara untuk mengambil data dari Amazon S3 Glacier – Pengambilan Dipercepat, Standar, dan Massal - dan masing-masing memiliki biaya pengambilan per-GB dan biaya per-permintaan (yaitu Anda membayar untuk permintaan yang dibuat terhadap objek Amazon S3 Anda) yang berbeda. Untuk harga S3 Glacier detail berdasarkan Wilayah AWS, kunjungi halaman harga Amazon S3.

T:  Apakah Amazon S3 menyediakan kemampuan untuk mengarsipkan objek guna mengurangi opsi biaya penyimpanan?

Ya, dengan Amazon S3 Anda dapat memanfaatkan Amazon S3 Glacier dan Amazon S3 Glacier Deep Archive untuk penyimpanan dan pengarsipan data yang jarang diakses. Amazon S3 Glacier menyimpan data semurah 0,004 USD per gigabyte per bulan. Untuk menjaga biaya tetap rendah tetapi sesuai dengan kebutuhan pengambilan yang beragam, Amazon S3 Glacier menyediakan tiga pilihan untuk akses arsip, yang berkisar dari beberapa menit hingga beberapa jam. S3 Glacier Deep Archive adalah kelas penyimpanan berbiaya terendah Amazon S3 dan mendukung penyimpanan jangka panjang dan pelestarian digital untuk data yang dapat diakses sekali atau dua kali setahun. Beberapa contoh kasus penggunaan arsip meliputi arsip media digital, catatan keuangan dan pemeliharaan kesehatan, data pengurutan genomik mentah, cadangan basis data jangka panjang, dan data yang harus disimpan untuk kepatuhan terhadap peraturan.

T: Apa infrastruktur backend yang mendukung kelas penyimpanan S3 Glacier dan S3 Glacier Deep Archive?

Kami ingin lebih fokus pada hasil kinerja, ketahanan, ketersediaan, dan keamanan pelanggan. Namun, pertanyaan ini sering diajukan oleh pelanggan. Kami menggunakan sejumlah teknologi berbeda yang memungkinkan kami menawarkan harga kepada pelanggan. Layanan kami dibuat menggunakan teknologi penyimpanan data umum yang secara khusus dirakit menjadi sistem yang dibuat sesuai tujuan dengan biaya yang dioptimalkan menggunakan perangkat lunak yang dikembangkan oleh AWS. S3 Glacier mendapat manfaat dari kemampuan kami dalam mengoptimalkan rangkaian input dan output untuk memaksimalkan efisiensi pengaksesan penyimpanan yang mendasar.

Amazon S3 Glacier Deep Archive

T: Apa itu Amazon S3 Glacier Deep Archive?

S3 Glacier Deep Archive adalah kelas penyimpanan Amazon S3 yang menyediakan penyimpanan objek yang aman dan tahan lama untuk retensi data jangka panjang yang diakses satu atau dua kali setahun. Dari hanya 0,00099 USD per GB-bulan (kurang dari sepersepuluh dari satu sen, atau sekitar 1 USD per TB-bulan), S3 Glacier Deep Archive menawarkan penyimpanan di cloud berbiaya terendah, dengan harga yang secara signifikan lebih rendah daripada penyimpanan dan pemeliharaan data di pustaka tape magnetis di lokasi atau pengarsipan data di luar situs.

T: Kasus penggunaan apa yang paling sesuai untuk S3 Glacier Deep Archive?

S3 Glacier Deep Archive adalah kelas penyimpanan ideal untuk memberikan perlindungan offline pada sebagian besar aset data penting perusahaan Anda, atau ketika penyimpanan data jangka panjang diperlukan untuk persyaratan kebijakan perusahaan, kontraktual, atau kepatuhan terhadap peraturan. Pelanggan merasa S3 Glacier Deep Archive menjadi pilihan menarik untuk melindungi properti intelektual inti, rekaman keuangan dan medis, hasil riset, dokumen hukum, penelitian eksplorasi seismik, dan cadangan jangka panjang, khususnya di industri yang diatur secara ketat seperti Layanan Keuangan, Layanan Kesehatan, Minyak & Gas, dan Sektor Publik. Selain itu, terdapat organisasi seperti perusahaan media dan hiburan, yang ingin menjaga salinan cadangan properti intelektual inti. Seringkali, pelanggan yang menggunakan S3 Glacier Deep Archive dapat mengurangi atau menghentikan penggunaan pustaka tape magnetis di lokasi dan layanan kearsipan tape luar lokasi.

T: Apa perbedaan S3 Glacier Deep Archive dengan S3 Glacier?

S3 Glacier Deep Archive memperluas penawaran pengarsipan data, yang memungkinkan Anda memilih kelas penyimpanan optimal berdasarkan biaya penyimpanan dan pengambilan, serta frekuensi pengambilan. Pilih S3 Glacier ketika Anda perlu mengambil data yang diarsip khususnya dalam 1-5 menit menggunakan Pengambilan dipercepat. Sebaliknya, S3 Glacier Deep Archive dirancang untuk data kurang bernilai yang kemungkinan besar tidak diakses, tetapi masih memerlukan penyimpanan jangka panjang dan tahan lama. S3 Glacier Deep Archive lebih murah 75% daripada S3 Glacier dan menyediakan pengambilan dalam 12 jam menggunakan kecepatan pengambilan Standar. Anda juga dapat mengurangi biaya pengambilan dengan memilih pengambilan Massal, yang akan mengembalikan data dalam 48 jam.

T: Bagaimana cara mulai menggunakan S3 Glacier Deep Archive?

Cara termudah untuk menyimpan data di S3 Glacier Deep Archive adalah menggunakan API S3 untuk mengunggah data secara langsung. Cukup tentukan “S3 Glacier Deep Archive” sebagai kelas penyimpanan. Anda dapat menyelesaikan tugas ini menggunakan AWS Management Console, S3 REST API, AWS SDK, atau Antarmuka Baris Perintah AWS.

Anda juga dapat mulai menggunakan S3 Glacier Deep Archive dengan membuat kebijakan untuk memigrasikan data menggunakan Siklus Masa Pakai S3, yang memberikan kemampuan menentukan siklus masa pakai objek dan mengurangi biaya penyimpanan Anda. Kebijakan tersebut dapat diatur untuk memigrasikan objek ke S3 Glacier Deep Archive berdasarkan umur objek. Anda dapat menentukan kebijakan untuk bucket S3, atau untuk prefiks khusus. Transisi siklus masa pakai ditagih dengan harga Pengunggahan S3 Glacier Deep Archive.

Tape Gateway, fitur pustaka tape virtual berbasis cloud dari AWS Storage Gateway, kini terintegrasi dengan S3 Glacier Deep Archive, yang memungkinkan Anda menyimpan cadangan dan arsip jangka panjang yang berbasis tape virtual di S3 Glacier Deep Archive sehingga menyediakan penyimpanan berbiaya termurah untuk data ini di cloud. Untuk memulai, buat tape virtual baru menggunakan AWS Storage Gateway Console atau API AWS Storage Gateway, dan mengatur target penyimpanan kearsipan ke S3 Glacier ataupun S3 Glacier Deep Archive. Jika tape ditolak oleh aplikasi cadangan Anda, tape tersebut akan diarsipkan ke target penyimpanan terpilih.

T: Bagaimana saran Anda untuk memigrasikan data dari arsip tape yang ada ke S3 Glacier Deep Archive?

Terdapat beberapa cara untuk memigrasikan data dari arsip tape yang ada ke S3 Glacier Deep Archive. Anda dapat menggunakan AWS Tape Gateway untuk mengintregasikan dengan aplikasi cadangan yang ada menggunakan antarmuka pustaka tape (VTL). Antarmuka ini memberikan tape virtual ke aplikasi cadangan. Alat ini dapat segera digunakan untuk menyimpan data di Amazon S3, S3 Glacier, dan S3 Glacier Deep Archive.

Anda juga dapat menggunakan AWS Snowball atau Snowmobile untuk memigrasikan data. Snowball dan Snowmobile mempercepat pemindahan dari terabyte hingga petabyte data ke dalam dan ke luar AWS menggunakan perangkat penyimpanan fisik yang dirancang agar pemindahan aman. Menggunakan Snowball dapat membantu menghilangkan tantangan yang dapat dihadapi dengan transfer data skala besar, termasuk biaya jaringan yang tinggi, waktu transfer yang lama, dan masalah keamanan.

Akhirnya, Anda dapat menggunakan AWS Direct Connect untuk membuat koneksi jaringan khusus dari lokasi Anda ke AWS. Pada banyak kasus, Direct Connect dapat mengurangi biaya jaringan, meningkatkan throughput bandwidth, dan memberikan pengalaman koneksi jaringan yang lebih konsisten dibandingkan dengan koneksi berbasis Internet.

T: Bagaimana cara mengambil objek yang disimpan di S3 Glacier Deep Archive?

Untuk mengambil data yang disimpan di S3 Glacier Deep Archive, mulai permintaan “Pemulihan” menggunakan API Amazon S3 atau Amazon S3 Management Console. Pemulihan akan membuat salinan sementara data Anda di kelas penyimpanan IA-Satu Zona S3 sekaligus menjaga data terarsip tetap utuh di S3 Glacier Deep Archive. Anda dapat menentukan lamanya waktu dalam satuan hari sebagai periode penyimpanan salinan sementara dalam S3. Kemudian, Anda dapat mengakses salinan sementara dari S3 melalui permintaan GET Amazon S3 pada objek terarsip.

Ketika memulihkan objek terarsip, Anda dapat menentukan salah satu dari opsi berikut dalam elemen Tingkat pada bodi permintaan: Standar merupakan tingkat default dan memungkinkan Anda mengakses berbagai objek terarsip dalam 12 jam, dan Massal memungkinkan Anda mengambil sejumlah besar, bahkan petabyte data secara terjangkau dan biasanya selesai dalam 48 jam.

T: Bagaimana saya dikenai biaya untuk menggunakan S3 Glacier Deep Archive?

Penyimpanan S3 Glacier Deep Archive diberi harga berdasarkan jumlah data yang Anda simpan dalam satuan GB, jumlah permintaan PUT/transisi siklus masa pakai, pengambilan dalam satuan GB, dan jumlah permintaan pemulihan. Model penetapan harga ini mirip dengan S3 Glacier. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Glacier Deep Archive.

T: Bagaimana penggunaan S3 Glacier Deep Archive ditampilkan di tagihan AWS saya dan di alat Manajemen Biaya AWS?

Penggunaan dan biaya S3 Glacier Deep Archive akan ditampilkan sebagai item baris layanan mandiri di tagihan AWS bulanan Anda, terpisah dari penggunaan dan biaya Amazon S3. Namun, jika Anda menggunakan alat Manajemen Biaya AWS, penggunaan dan biaya S3 Glacier Deep Archive akan termasuk dalam penggunaan dan biaya Amazon S3 di laporan pengeluaran bulanan terperinci milik Anda, dan tidak dipecah menjadi item baris layanan yang terpisah.

T: Adakah durasi penyimpanan minimum dan biaya penyimpanan objek minimum untuk S3 Glacier Deep Archive?

S3 Glacier Deep Archive dirancang untuk data dengan masa pakai lama tetapi jarang diakses, yang disimpan selama 7-10 tahun atau lebih. Objek yang diarsipkan ke S3 Glacier Deep Archive memiliki minimum penyimpanan 180 hari, dan objek yang dihapus sebelum 180 hari dikenakan biaya prorata yang sama dengan biaya penyimpanan untuk hari yang tersisa. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Glacier Deep Archive.

S3 Glacier Deep Archive memiliki ukuran minimum penyimpanan objek yang dapat ditagih sebesar 40 KB. Objek yang lebih kecil dari 40 KB mungkin disimpan tetapi akan dikenakan biaya untuk penyimpanan sebesar 40 KB. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Glacier Deep Archive.

 

T: Bagaimana cara S3 Glacier Deep Archive berintegrasi dengan Layanan AWS lainnya?

S3 Glacier Deep Archive terintegrasi dengan fitur Amazon S3, termasuk S3 Object Tagging, kebijakan S3 Lifecycle, S3 Object Lock, dan S3 Replication. Dengan fitur manajemen penyimpanan S3, Anda dapat menggunakan satu bucket Amazon S3 untuk menyimpan campuran data S3 Glacier Deep Archive, S3 Standard, S3 Standard IA, One Zone - IA S, dan S3 Glacier. Hal ini memungkinkan administrator penyimpanan membuat keputusan berdasarkan sifat alami data dan pola akses data. Pelanggan dapat menggunakan kebijakan Siklus Aktif Amazon S3 untuk memigrasikan data secara otomatis ke kelas penyimpanan berbiaya lebih rendah seraya umur data bertambah, atau kebijakan Replikasi S3 Lintas Wilayah atau dalam Wilayah yang Sama untuk mereplikasi data ke wilayah yang sama atau wilayah lainnya.

Layanan AWS Storage Gateway mengintegrasikan Tape Gateway dengan kelas penyimpanan S3 Glacier Deep Archive, yang memungkinkan Anda menyimpan tape virtual di kelas penyimpanan Amazon S3 berbiaya terendah sehingga mengurangi biaya bulanan untuk menyimpan data jangka panjang Anda di cloud hingga 75%. Dengan fitur ini, Tape Gateway mendukung pengarsipan tape virtual baru Anda secara langsung ke S3 Glacier dan S3 Glacier Deep Archive, yang membantu Anda memenuhi persyaratan pencadangan, pengarsipan, dan pemulihan. Tape Gateway membantu Anda memindahkan cadangan berbasis tape ke AWS tanpa membuat berbagai perubahan ke alur kerja cadangan yang ada. Tape Gateway mendukung sebagian besar aplikasi cadangan terkemuka seperti Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (di Windows OS), dan Manajer Perlindungan Data Microsoft.

Manajemen Penyimpanan

S3 Object Tags

T:  Apa itu S3 Object Tags?

Tag Objek S3 adalah pasangan nilai kunci yang diterapkan pada objek S3 yang dapat dibuat, diperbarui, atau dihapus kapan saja selama masa aktif objek tersebut. Dengan ini, Anda akan memiliki kemampuan untuk membuat kebijakan Identity and Access Management (IAM), menyiapkan kebijakan S3 Lifecycle, dan mengkustomisasi metrik penyimpanan. Tag pada tingkat objek ini kemudian dapat mengelola transisi antara kelas penyimpanan dan mengakhiri objek di latar belakang. Anda dapat menambahkan tag ke objek baru saat mengunggahnya atau menambahkannya pada objek yang sudah ada. Hingga sepuluh tag dapat ditambahkan ke tiap objek S3 dan Anda dapat menggunakan AWS Management Console, REST API, AWS CLI, atau AWS SDK untuk menambahkan tag objek. 

Pelajari selengkapnya dengan mengunjungi panduan pengguna S3 Object Tags.

T:  Mengapa saya perlu menggunakan Tag Objek?

Tanda Objek merupakan alat yang dapat Anda gunakan untuk mengaktifkan pengelolaan sederhana pada penyimpanan S3 Anda. Dengan kemampuan untuk membuat, memperbarui, dan menghapus tag kapan saja selama objek Anda ada, penyimpanan dapat disesuaikan dengan kebutuhan bisnis Anda. Tag tersebut memungkinkan Anda untuk mengontrol akses ke objek yang ditandai dengan pasangan nilai kunci tertentu, sehingga memungkinkan Anda untuk lebih mengamankan data rahasia yang hanya untuk grup atau pengguna tertentu. Tanda objek juga dapat digunakan untuk melabeli objek yang termasuk dalam proyek atau unit bisnis tertentu, yang dapat digunakan sejalan dengan kebijakan Siklus Aktif S3 untuk mengelola transisi ke kelas penyimpanan lainnya (IA-Standar S3, IA-Satu Zona S3, dan S3 Glacier) atau dengan Replikasi S3 untuk secara selektif mereplikasi data antara Wilayah AWS.

T:  Bagaimana saya memperbarui tag objek pada objek saya?

Tag Objek dapat diubah kapan saja selama objek S3 ada, Anda dapat menggunakan AWS Management Console, REST API, AWS CLI, atau AWS SDK untuk mengubah tag objek Anda. Perhatikan bahwa semua perubahan untuk tag di luar AWS Management Console dibuat ke set tag penuh. Jika Anda memiliki lima tag yang dipasang pada objek tertentu dan ingin menambahkan yang keenam. Anda perlu memasukkan lima tag awal ke dalam permintaan itu.

T:  Berapa harga Tag Objek?

Tanda objek dihargai berdasarkan jumlah tanda dan biaya permintaan untuk menambahkan tanda. Permintaan yang dikaitkan dengan menambahkan dan memperbarui Tag Objek dihargai sama dengan harga permintaan yang sudah ada. Lihat Halaman Harga Amazon S3 untuk informasi selengkapnya.

T:   Bagaimana saya memulai dengan Analisis Kelas Penyimpanan?

Anda dapat menggunakan AWS Management Console atau API Analisis S3 PUT Bucket untuk mengkonfigurasi kebijakan Analisis Kelas Penyimpanan guna mengidentifikasi penyimpanan yang jarang diakses yang dapat ditransisikan ke kelas penyimpanan S3 Standard-IA atau S3 One Zone-IA atau terarsip ke kelas penyimpanan S3 Glacier. Anda dapat bernavigasi ke tab “Pengelolaan” di S3 Console untuk mengelola Analisis Kelas Penyimpanan, S3 Inventory, dan metrik S3 CloudWatch.

S3 Inventory

T:  Apa itu S3 Inventory?

Laporan S3 Inventory memberikan alternatif yang terjadwal untuk API Daftar sinkron Amazon S3. Anda dapat mengonfigurasi S3 Inventory untuk memberikan output file CSV, ORC, atau Parquet objek Anda dan metadata yang terkait pada basis harian atau mingguan untuk satu bucket atau prefiks S3. Anda dapat menyederhanakan dan mempercepat alur kerja bisnis dan pekerjaan big data dengan S3 Inventory. Anda dapat juga menggunakan inventaris S3 untuk memeriksa status enkripsi dan replikasi objek Anda untuk memenuhi kebutuhan bisnis, kepatuhan, dan regulatori. Pelajari selengkapnya di panduan pengguna Amazon S3 Inventory.

T: Bagaimana saya memulai dengan S3 Inventory?

Anda dapat menggunakan Konsol Manajemen AWS atau PUT Bucket Inventory API untuk mengonfigurasi laporan inventaris harian atau mingguan untuk semua objek dalam bucket S3 Anda atau subset dari objek di bawah prefiks bersama. Sebagai bagian dari konfigurasi, Anda dapat menentukan tujuan bucket S3 untuk laporan Inventaris S3 Anda, format file output (CSV, ORC, atau Parquet), dan metadata objek tertentu yang penting untuk aplikasi bisnis, seperti nama objek, ukuran, tanggal dimodifikasi terakhir, kelas penyimpanan, ID versi, penanda hapus, penanda versi bukan terbaru, penanda pengunggahan multi-bagian, status replikasi, atau status enkripsi. Anda dapat menggunakan S3 Inventory sebagai input langsung ke alur kerja aplikasi atau pekerjaan big data Anda. Anda juga dapat melakukan kueri S3 Inventory menggunakan bahasa SQL Standar dengan Amazon Athena, Amazon Redshift Spectrum, dan alat lain seperti Presto, Hive, dan Spark.

Pelajari selengkapnya di panduan pengguna Amazon S3 Inventory.

T:  Bagaimana saya dikenai biaya untuk menggunakan S3 Inventory?

Lihat halaman harga Amazon S3 untuk harga S3 Inventory. Setelah Anda mengonfigurasi enkripsi menggunakan SSE-KMS, Anda akan dikenai biaya KMS untuk enkripsi, lihat halaman harga KMS untuk informasi selengkapnya.

Operasi Batch S3

T:  Apa itu Operasi Batch S3?

Operasi Batch S3 adalah fitur yang dapat Anda gunakan untuk mengotomatiskan eksekusi operasi tunggal (seperti menyalin objek, atau menjalankan fungsi AWS Lambda) di banyak objek. Dengan Operasi Batch S3, Anda dapat, dengan beberapa klik di konsol S3 atau permintaan API tunggal, membuat perubahan ke miliaran objek tanpa harus menulis kode aplikasi khusus atau menjalankan klaster komputasi untuk aplikasi manajemen penyimpanan. Selain mengelola operasi penyimpanan Anda di banyak objek, Operasi Batch S3 juga mengelola pengulangan, menampilkan kemajuan, mengirimkan pemberitahuan, menyediakan laporan penyelesaian, dan mengirim peristiwa ke AWS CloudTrail untuk semua operasi yang dilakukan pada objek target Anda. Operasi Batch S3 dapat digunakan dari konsol S3, atau melalui AWS CLI dan SDK. 

Untuk mempelajari selengkapnya, kunjungi halaman Operasi Batch S3, atau halaman pengguna.

T:  Bagaimana cara memulai dengan Operasi Batch S3?

Anda dapat memulai Operasi Batch S3 dengan masuk ke konsol Amazon S3 atau menggunakan AWS CLI atau SDK untuk membuat pekerjaan Operasi Batch S3 pertama Anda. Tugas Operasi Batch S3 terdiri dari daftar objek yang harus ditindaklanjuti dan tipe operasi yang harus dilakukan (lihat daftar lengkap operasi yang tersedia). Mulai dengan memilih laporan Inventaris S3 atau berikan daftar khusus Anda dari objek untuk Operasi Batch S3 untuk ditangani. Laporan Inventaris S3 adalah daftar file semua objek yang disimpan dalam bucket S3 atau prefiks. Selanjutnya, Anda memilih dari serangkaian operasi S3 yang didukung oleh Operasi Batch S3, seperti mengganti kumpulan tag, mengubah ACL, menyalin penyimpanan dari satu bucket ke bucket lain, atau memulai pemulihan dari Glacier ke S3. Anda kemudian dapat menyesuaikan pekerjaan Operasi Batch S3 Anda dengan parameter tertentu seperti nilai tag, penerima ACL, dan durasi pemulihan. Untuk lebih menyesuaikan tindakan penyimpanan, Anda dapat menulis fungsi Lambda Anda sendiri dan memanggil kode itu melalui Operasi Batch S3.

Setelah Anda membuat tugas Operasi Batch S3, Operasi Batch S3 akan memproses daftar objek dan mengirim pekerjaan ke status “menunggu konfirmasi” jika perlu. Setelah Anda mengonfirmasi detail pekerjaan, Operasi Batch S3 akan mulai menjalankan operasi yang Anda tentukan. Anda dapat melihat kemajuan pekerjaan Anda secara terprogram atau melalui konsol S3, menerima pemberitahuan saat selesai, dan meninjau laporan penyelesaian yang memerinci perubahan yang dilakukan pada penyimpanan Anda.

Jika Anda tertarik dalam mempelajari lebih lanjut tentang Operasi Batch S3, tonton video tutorial dan kunjungi dokumentasi.

S3 Object Lock

T: Apa itu Amazon S3 Object Lock?

Amazon S3 Object Lock merupakan fitur Amazon S3 yang mencegah penghapusan atau penimpaan versi objek selama durasi tetap atau tanpa batasan, sehingga memungkinkan Anda memberlakukan kebijakan retensi sebagai lapisan perlindungan data tambahan atau untuk kepatuhan terhadap peraturan. Anda dapat memigrasikan beban kerja dari sistem write-once-read-many (WORM) yang ada ke Amazon S3, dan mengonfigurasikan S3 Object Lock pada objek- dan tingkat bucket untuk mencegah penghapusan versi objek sebelum Pertahankan Hingga Tanggal yang ditentukan sebelumnya atau tanpa batasan (Tanggal Kontrol Legal). Perlindungan S3 Object Lock dipertahankan terlepas dari kelas penyimpanan mana tempat objek berada dan sepanjang transisi S3 Lifecycle di antara kelas penyimpanan. 

Anda harus menggunakan S3 Object Lock jika Anda memiliki persyaratan peraturan yang menentukan bahwa data harus dilindungi WORM, atau jika Anda ingin menambahkan lapisan perlindungan tambahan terhadap data di Amazon S3. S3 Object Lock dapat membantu Anda memenuhi persyaratan peraturan yang menentukan bahwa data harus disimpan dalam format yang tidak berubah, dan juga dapat melindungi terhadap penghapusan tidak disengaja atau berbahaya untuk data di Amazon S3.

Pelajari selengkapnya dengan mengunjungi panduan pengguna S3 Object Lock.

T: Bagaimana cara kerja Amazon S3 Object Lock?

Amazon S3 Object Lock mencegah penghapusan versi objek durasi masa retensi yang ditetapkan atau tidak terhingga hingga Kontrol Legal dihapus. Dengan S3 Object Lock, Anda dapat memastikan versi objek tetap tidak berubah selama proteksi WORM diterapkan. Anda dapat menerapkan perlindungan WORM dengan menetapkan Pertahankan Hingga Tanggal atau Kontrol Legal ke suatu versi objek menggunakan SDK AWS, CLI, REST API, atau Konsol Manajemen S3. Anda dapat menerapkan pengaturan retensi dalam permintaan PUT, atau menerapkannya ke objek yang ada setelah dibuat.

Pertahankan Hingga Tanggal menentukan lamanya waktu versi objek tetap tidak berubah. Setelah Pertahankan Hingga Tanggal ditetapkan ke suatu objek, versi objek tersebut tidak dapat dimodifikasi atau dihapus hingga Pertahankan Hingga Tanggal berlalu. Jika pengguna mencoba menghapus objek Pertahankan Hingga Tanggal, operasi akan ditolak.

Atau, Anda dapat membuat objek tidak dapat diubah dengan menerapkan Kontrol Legal. Kontrol Legal mencegah versi objek dimodifikasi atau dihapus tanpa batasan hingga secara eksplisit dihapus. Untuk menempatkan dan menghapus Pengamanan Dokumen Hukum, akun AWS Anda harus memiliki izin tulis untuk tindakan PutObjectLegalHold. Pengamanan Dokumen Hukum dapat diterapkan ke objek apa pun dalam bucket S3 Object Lock aktif, baik objek tersebut dilindungi WORM berdasarkan periode retensi atau tidak.

S3 Object Lock dapat dikonfigurasi dalam salah satu dari dua Mode. Saat di-deploy dalam Mode Tata Kelola, akun AWS dengan izin IAM tertentu dapat menghapus perlindungan WORM dari versi objek. Jika Anda memerlukan imutabilitas yang lebih kuat agar memenuhi aturan, Anda dapat menggunakan Mode Kepatuhan. Dalam Mode Kepatuhan, perlindungan WORM tidak dapat dihapus oleh pengguna mana pun, termasuk akun root.

T: Apa yang telah dinilai oleh layanan penyimpanan elektronik AWS berdasarkan peraturan layanan keuangan?

Untuk pelanggan di industri layanan keuangan, S3 Object Lock memberikan dukungan tambahan kepada penjual perantara yang harus me-retain catatan dalam format yang tidak dapat dihapus dan tidak dapat ditulis ulang untuk memenuhi persyaratan peraturan Aturan SEC 17a-4(f), Aturan FINRA 4511, atau Peraturan CFTC 1.31. Anda dapat dengan mudah menentukan kerangka waktu retensi catatan untuk me-retain arsip peraturan dalam bentuk aslinya selama durasi yang diperlukan, dan juga menetapkan kontrol legal untuk me-retain data selama waktu yang tidak ditentukan sampai kontrol tersebut dihapus.

T: Dokumentasi AWS apa yang mendukung persyaratan SEC 17a-4(f)(2)(i) dan CFTC 1.31(c) untuk memberitahukan pihak pembuat peraturan saya?

Buat pemberitahuan pada pembuat peraturan atau “Designated Examining Authority (DEA)” pilihan Anda untuk menggunakan penyimpanan elektronik Amazon S3 dengan salinan Cohasset Assessment. Untuk tujuan persyaratan ini, AWS bukan pihak ketiga yang ditentukan (D3P). Pastikan untuk memilih D3P dan sertakan informasi ini dalam pemberitahuan Anda ke DEA Anda.

S3 CloudWatch Metrics

T:  Bagaimana saya memulai dengan S3 CloudWatch Metrics? 

Anda dapat menggunakan AWS Management Console untuk mengaktifkan pembuatan metrik permintaan CloudWatch 1 menit untuk bucket S3 Anda atau mengonfigurasi filter untuk metrik menggunakan prefiks atau tag objek. Sebagai alternatifnya, Anda dapat memanggil S3 PUT Bucket Metric API untuk mengaktifkan dan mengonfigurasi penerbitan metrik penyimpanan S3. Metrik Permintaan CloudWatch akan tersedia di CloudWatch dalam 15 menit setelah diaktifkan. CloudWatch Storage Metrics diaktifkan secara default untuk semua bucket, dan dilaporkan satu kali per hari. Pelajari metrik CloudWatch untuk Amazon S3 selengkapnya.

T:  Alarm apa saja yang dapat saya pasang pada metrik penyimpanan?

Anda dapat menggunakan CloudWatch untuk mengatur ambang batas pada hitungan metrik penyimpanan, timer, atau tarif mana pun dan memicu tindakan saat batas terlewati. Sebagai contoh, Anda dapat mengatur batas pada persentase Respons Kesalahan 4xx dan saat setidaknya 3 poin data di atas ambang batas, memicu alarm CloudWatch untuk memperingatkan teknisi DevOps.

T:  Bagaimana saya dikenai biaya untuk menggunakan S3 CloudWatch Metrics? 

Metrik penyimpanan CloudWatch disediakan gratis. Metrik permintaan CloudWatch dihargai sebagai metrik kustom untuk Amazon CloudWatch. Silakan lihat halaman harga Amazon CloudWatch untuk informasi umum tentang harga metrik S3 CloudWatch.

Pengelolaan Siklus Aktif S3

T:  Apa itu Pengelolaan Siklus Aktif S3?

Pengelolaan Siklus aktif S3 memberikan kemampuan untuk mendefinisikan siklus aktif objek Anda dengan kebijakan yang telah ditentukan dan mengurangi biaya penyimpanan. Anda dapat mengatur kebijakan transisi siklus aktif untuk secara otomatis memindahkan objek yang disimpan dalam kelas penyimpanan S3 Standard ke kelas penyimpanan S3 Standard-IA, S3 One Zone-IA, dan/atau S3 Glacier pada umur data. Anda juga dapat mengatur kebijakan kedaluwarsa siklus aktif untuk menghapus objek secara otomatis berdasarkan pada usia objek. Anda dapat mengatur kebijakan untuk kedaluwarsa pengunggahan multi-bagian, yang mengakhiri pengunggahan multi-bagian tak lengkap berdasarkan pada usia pengunggahan.

Pelajari selengkapnya dengan mengunjungi panduan pengguna S3 Lifecycle.

T:  Bagaimana saya mengatur kebijakan pengelolaan Siklus Aktif S3?

Anda dapat mengatur dan mengelola kebijakan Siklus Aktif di AWS Management Console, S3 REST API, AWS SDK, atau AWS Command Line Interface (CLI). Anda dapat menentukan kebijakan pada prefiks atau pada tingkat bucket.

T:  Bagaimana saya bisa menggunakan pengelolaan Siklus Aktif Amazon S3 untuk membantu menurunkan biaya penyimpanan Amazon S3?

Dengan kebijakan Siklus Aktif Amazon S3, Anda dapat mengonfigurasi objek Anda untuk dipindahkan dari kelas penyimpanan S3 Standard ke S3 Standard-IA atau S3 One Zone-IA dan/atau diarsipkan ke S3 Glacier. Anda dapat juga menentukan kebijakan Siklus Aktif S3 untuk menghapus objek setelah periode waktu tertentu. Anda dapat menggunakan otomasi berdasarkan kebijakan ini untuk mengurangi biaya penyimpanan dengan cepat dan mudah sekaligus menghemat waktu. Di tiap peraturan, Anda dapat menentukan prefiks, periode waktu, transisi ke S3 Standard-IA, S3 One Zone-IA, atau S3 Glacier, dan/atau kedaluwarsa. Sebagai contoh, Anda dapat membuat aturan yang mengarsipkan semua objek ke S3 Glacier dengan prefiks umum “logs/” 30 hari sejak pembuatannya, dan membuat objek tersebut kedaluwarsa setelah 365 dari setelah pembuatan. Anda juga dapat membuat aturan terpisah yang hanya membuat kedaluwarsa semua objek dengan prefiks “backups/” 90 hari setelah pembuatan. Kebijakan Siklus Aktif S3 berlaku untuk objek S3 lama dan baru, yang membantu Anda mengoptimalkan penyimpanan dan memaksimalkan penghematan biaya untuk semua data saat ini dan data baru yang ditempatkan di S3 tanpa peninjauan dan migrasi data secara manual yang memakan waktu. Dalam aturan siklus aktif, bidang prefiks mengidentifikasi objek sasaran aturan. Untuk mengaplikasikan aturan ke objek individual, spesifikasikan nama kunci. Untuk mengaplikasikan aturan ke sekelompok objek, spesifikasikan prefiks yang sama (misalnya “logs/”). Anda dapat menyebutkan tindakan transisi untuk mengarsipkan objek dan tindakan kedaluwarsa untuk menghapus objek Anda. Untuk periode waktu, berikan tanggal pembuatan (misalnya 31 Januari 2015) atau jumlah hari dari tanggal pembuatan (misalnya 30 hari) yang Anda inginkan untuk mengarsipkan atau menghapus objek. Anda dapat membuat beberapa aturan untuk prefiks yang berbeda.

T:  Berapa biaya untuk menggunakan pengelolaan Siklus Aktif S3?

Tidak ada biaya tambahan untuk mengatur dan menggunakan kebijakan Siklus Aktif. Permintaan transisi dikenai biaya per objek saat sebuah objek memenuhi persyaratan untuk transisi berdasarkan pada aturan Siklus Aktif. Lihat pada halaman Harga S3 untuk informasi harga.

T:    Mengapa saya harus menggunakan kebijakan Siklus Aktif S3 untuk menghentikan pengunggahan multi-bagian yang tidak selesai?

Kebijakan Siklus Aktif S3 yang menghentikan pengunggahan multi-bagian yang tidak selesai memungkinkan Anda menghemat biaya dengan membatasi waktu simpan pengunggahan multi-bagian yang tidak selesai. Sebagai contoh, jika aplikasi Anda mengunggah beberapa bagian objek multi-bagian, tetapi tidak melaksanakannya, Anda akan tetapi dikenai biaya untuk penyimpanan tersebut. Aturan ini dapat menurunkan tagihan S3 Anda dengan menghapus secara otomatis pengunggahan multi-bagian yang tidak selesai dan penyimpanan yang terkait setelah sejumlah hari yang telah ditentukan.

Pelajari selengkapnya penggunaan S3 Lifecycle untuk menghentikan unggahan multibagian yang tidak lengkap »

Analitik dan Wawasan Penyimpanan

T: Fitur apa saja yang tersedia untuk menganalisis penggunaan penyimpanan saya di Amazon S3?

S3 Storage Lens memberikan visibilitas tingkat organisasi mengenai penggunaan penyimpanan objek, tren aktivitas, dan membuat rekomendasi yang dapat ditindaklanjuti guna meningkatkan efisiensi biaya serta menerapkan praktik terbaik perlindungan data. Analisis Kelas Penyimpanan S3 memungkinkan Anda memantau pola akses di seluruh objek untuk membantu Anda memutuskan kapan mentransisikan data ke kelas penyimpanan yang tepat untuk mengoptimalkan biaya. Anda selanjutnya dapat menggunakan informasi ini untuk mengonfigurasi kebijakan Siklus Hidup S3 yang melakukan transfer data. Amazon S3 Inventory memberikan laporan objek Anda dan metadata yang terkait pada basis harian atau mingguan untuk satu bucket atau prefiks S3. Laporan ini dapat digunakan untuk membantu memenuhi kebutuhan bisnis, kepatuhan, dan regulasi dengan memverifikasi enkripsi, serta status replikasi objek Anda.

T: Apa yang dimaksud dengan Amazon S3 Storage Lens?

Amazon S3 Storage Lens memberikan visibilitas tingkat organisasi mengenai penggunaan penyimpanan objek dan tren aktivitas, serta membuat rekomendasi yang dapat ditindaklanjuti guna meningkatkan efisiensi biaya dan menerapkan praktik terbaik perlindungan data. Storage Lens menawarkan dasbor interaktif yang berisi satu tampilan penggunaan penyimpanan objek dan aktivitas Anda di puluhan atau ratusan akun dalam organisasi Anda, dengan kemampuan penelusuran untuk membuat wawasan di tingkat akun, bucket. atau bahkan prefiks. Ini mencakup metrik seperti byte, jumlah objek, dan permintaan serta metrik yang merinci penggunaan fitur S3, seperti jumlah metrik dan jumlah delete marker. S3 Storage Lens juga memberikan rekomendasi kontekstual guna menemukan Anda cara untuk mengurangi biaya penyimpanan dan menerapkan praktik terbaik perlindungan data di puluhan atau ratusan akun dan bucket.

Pelajari selengkapnya dengan mengunjungi panduan pengguna S3 Storage Lens.

T: Bagaimana cara kerja S3 Storage Lens?

S3 Storage Lens menggabungkan metrik penggunaan dan aktivitas Anda pada basis harian untuk divisualisasikan dalam dasbor interaksi S3 Storage Lens, atau tersedia sebagai ekspor metrik dalam format file CVS atau Parquet. Dasbor default dibuat untuk Anda secara otomatis di tingkat akun, dan Anda memiliki opsi untuk membuat dasbor kustom tambahan yang tercakup dalam organisasi AWS atau akun, Wilayah, atau pun bucket spesifik Anda. Saat mengonfigurasi dasbor, Anda dapat menggunakan pilihan metrik default, atau menerima metrik dan rekomendasi lanjutan untuk biaya tambahan. S3 Storage Lens memberikan rekomendasi secara kontekstual dengan metrik penyimpanan di dasbor, agar Anda dapat mengambil tindakan untuk mengoptimalkan penyimpanan berdasarkan metrik.

T: Apa pertanyaan kunci yang dapat dijawab menggunakan metrik S3 Storage Lens?

Dasbor S3 Storage Lens tersusun dari sekitar tiga tipe pertanyaan utama yang dapat dijawab terkait penyimpanan Anda. Dalam tampilan Ringkasan, pertanyaan teratas yang terkait dengan penggunaan penyimpanan dan tren aktivitas secara menyeluruh dapat dijelajahi. Misalnya, “Seberapa cepat peningkatan jumlah byte keseluruhan dan hitungan permintaan saya dari waktu ke waktu?” Dalam tampilan Efisiensi Biaya, Anda dapat menjelajahi pertanyaan yang terkait dengan pengurangan biaya penyimpanan, misalnya, “Apakah saya bisa menghemat uang dengan mempertahankan lebih sedikit versi lama?” Dalam tampilan Perlindungan Data, Anda dapat menjawab pertanyaan tentang mengamankan data Anda, misalnya, “Apakah penyimpanan saya terlindungi dari penghapusan tidak sengaja atau disengaja?” Setiap pertanyaan tersebut mewakili pertanyaan lapis pertama yang kemungkinan besar akan mengarah pada analisis penelusuran.

T: Apa metrik yang tersedia di S3 Storage Lens?

S3 Storage Lens berisi lebih dari 30 metrik, yang dikelompokkan berdasarkan metrik penggunaan (yang berasal dari snapshot objek harian dalam akun) dan metrik aktivitas (yang melacak permintaan dan byte yang diterima). Metrik tersebut diatur ke dalam tiga kategori utama, ringkasan, efisiensi biaya, dan perlindungan data. Selain itu, metrik turunan juga diberikan dengan menggabungkan metrik dasar. Misalnya, “Tingkat Pengambilan” adalah metrik yang dihitung dengan membagi “Jumlah Byte yang Diunduh” dengan “Jumlah Total Byte.” Untuk melihat daftar lengkap metrik, silakan baca dokumentasi S3 Storage Lens.

T: Apa saja opsi konfigurasi dasbor saya?

Dasbor default dikonfigurasi secara otomatis yang disediakan untuk seluruh akun Anda, dan Anda memiliki opsi untuk membuat dasbor kustom tambahan yang dapat tercakup dalam AWS organization, wilayah spesifik, atau bucket dalam akun. Anda dapat menyiapkan beberapa dasbor kustom, yang dapat bermanfaat jika Anda memerlukan beberapa pemisahan logika dalam analisis penyimpanan Anda, seperti segmentasi di bucket untuk mewakili berbagai tim internal. Secara default, dasbor Anda akan menerima metrik gratis S3 Storage Lens, tetapi Anda memiliki opsi peningkatan untuk menerima metrik dan rekomendasi lanjutan S3 Storage Lens. Selain itu, untuk setiap dasbor, Anda dapat mengaktifkan ekspor metrik, dengan opsi tambahan untuk menentukan bucket tujuan dan tipe enkripsi.

T: Seberapa banyak data historis yang tersedia di S3 Storage Lens?

Untuk metrik yang ditampilkan dalam dasbor interaktif, metrik gratis Storage Lens mempertahankan 14 hari data historis, serta metrik dan rekomendasi lanjutan mempertahankan 15 bulan data historis. Untuk ekspor metrik opsional, Anda dapat mengonfigurasi periode retensi yang Anda inginkan, dan tarif S3 storage standar akan berlaku.

T: Bagaimana saya akan ditagih untuk S3 Storage Lens?

S3 Storage Lens tersedia dalam dua tingkat metrik. Metrik gratis tersedia tanpa biaya tambahan untuk semua pelanggan. Detail harga metrik dan rekomendasi lanjutan S3 Storage Lens tersedia pada halaman harga S3. Dengan metrik gratis S3 Storage Lens, Anda menerima metrik penggunaan pada tingkat bucket, dan memberikan 14 hari data historis dalam dasbor. Dengan metrik dan rekomendasi lanjutan S3 Storage Lens, Anda menerima metrik penggunaan pada tingkat prefiks, metrik aktivitas, rekomendasi, dan memberikan 15 bulan data historis dalam dasbor.

T: Apa perbedaan antara S3 Storage Lens dan S3 Inventory?

S3 Inventory memberikan daftar objek Anda dan metadata yang terkait untuk bucket S3 atau prefiks bersama, yang dapat digunakan untuk menjalankan analisis tingkat objek untuk penyimpanan Anda. S3 Storage Lens menyediakan metrik yang dikumpulkan berdasarkan organisasi, akun, wilayah, kelas penyimpanan, bucket, dan tingkat prefiks, yang memungkinkan peningkatan visibilitas penyimpanan di seluruh organisasi Anda.

T: Apa perbedaan antara S3 Storage Lens dan Analisis Kelas Penyimpanan (SCA) S3?

Analisis Kelas Penyimpanan S3 memberikan rekomendasi untuk kelas penyimpanan yang optimal dengan membuat kelompok usia objek berdasarkan pola akses tingkat objek dalam bucket/prefiks/ tag individu selama 30-90 hari sebelumnya. S3 Storage Lens memberikan rekomendasi tingkat organisasi harian terkait cara meningkatkan efisiensi biaya dan menerapkan praktik terbaik perlindungan data, dengan rekomendasi mendetail tambahan berdasarkan akun, wilayah, kelas penyimpanan, bucket, atau prefiks.  

Analisis Kelas Penyimpanan

T:  Apa itu Analisis Kelas Penyimpanan?

Dengan Analisis Kelas Penyimpanan, Anda dapat menganalisis pola akses penyimpanan untuk menentukan kelas penyimpanan yang optimal untuk penyimpanan Anda. Fitur S3 ini secara otomatis mengidentifikasi pola akses yang jarang untuk membantu Anda memindahkan penyimpanan ke S3 Standard IA. Anda dapat mengonfigurasi kebijakan Analisis Kelas Penyimpanan untuk memonitor semua bucket, prefiks, atau tanda objek. Setelah pola akses yang jarang telah diamati, Anda dapat dengan mudah membuat kebijakan usia Siklus Aktif S3 yang baru berdasarkan hasil tersebut. Analisis Kelas Penyimpanan juga memberikan visualisasi harian dari penggunaan penyimpanan Anda pada Konsol Manajemen AWS yang dapat Anda ekspor ke bucket S3 untuk melakukan analisis dengan menggunakan alat inteligensi bisnis pilihan Anda seperti Amazon QuickSight.

Pelajari selengkapnya dan mulailah dengan mengunjungi panduan pengguna S3 Storage Class Analysis.

T:   Seberapa sering Analisis Kelas Penyimpanan diperbarui?

Analisis Kelas Penyimpanan diperbarui setiap hari di Konsol Manajemen S3, tetapi rekomendasi awal untuk transisi kelas penyimpanan disediakan setelah 30 hari.

Kueri yang Siap Digunakan

T:  Apa itu fungsionalitas "Kueri yang Siap Digunakan"?

Amazon S3 memungkinkan konsumen untuk menjalankan kueri yang canggih terhadap data yang disimpan tanpa perlu memindahkan data ke dalam platform analisis terpisah. Kemampuan untuk melakukan kueri data yang siap digunakan di Amazon S3 secara signifikan dapat meningkatkan kinerja dan mengurangi biaya solusi analisis yang mendorong S3 sebagai kumpulan data. S3 menawarkan berbagai opsi kueri yang siap digunakan, termasuk S3 Select, Amazon Athena, dan Amazon Redshift Spectrum, yang memungkinkan Anda untuk memilih satu opsi terbaik yang sesuai dengan penggunaan Anda. Anda bahkan dapat menggunakan Amazon S3 Select dengan AWS Lambda untuk membangun aplikasi tanpa server yang dapat memanfaatkan kemampuan pemrosesan yang siap digunakan yang diberikan oleh S3 Select.

T:  Apa itu S3 Select?

S3 Select adalah fitur Amazon S3 yang memudahkan pencarian data spesifik dari konten objek dengan menggunakan ekspresi SQL sederhana tanpa harus mencari seluruh objek. S3 Select menyederhanakan dan meningkatkan kinerja pemindaian dan pemfilteran konten objek menjadi rangkaian data tertarget berukuran lebih kecil hingga 400%. Dengan S3 Select, Anda juga dapat melakukan investigasi operasional pada file log di Amazon S3 tanpa perlu mengoperasikan dan mengelola klaster komputasi. 

Anda dapat menggunakan S3 Select untuk mengambil subset data menggunakan klausa SQL, seperti SELECT dan WHERE, dari objek yang disimpan dalam format CSV, JSON, atau Apache Parquet. S3 Select juga bekerja dengan objek yang dikompresi dengan GZIP atau BZIP2 (khusus untuk objek CSV dan JSON), dan objek terenkripsi sisi server.

Anda dapat menggunakan S3 Select dengan AWS Lambda untuk membangun aplikasi tanpa server yang menggunakan S3 Select untuk mencari data secara efisien dan mudah dari Amazon S3, bukan mencari dan memproses seluruh objek. Anda juga dapat menggunakan S3 Select dengan kerangka kerja Big Data, seperti Presto, Apache Hive, dan Apache Spark untuk memindai dan memfilter data di Amazon S3.

Pelajari selengkapnya dengan mengunjungi panduan pengguna S3 Select.

T:  Apa itu Amazon Athena?

Amazon Athena adalah layanan query interaktif yang memudahkan analisis data di Amazon S3 dengan menggunakan kueri SQL standar. Athena tanpa server, sehingga tidak ada infrastruktur yang harus ditetapkan atau dikelola, dan Anda dapat memulai menganalisis data secepatnya. Anda bahkan tidak perlu memuat data Anda ke Athena, karena secara langsung berfungsi dengan data yang disimpan di segala kelas penyimpanan S3. Untuk memulai, cukup masuk ke Athena Management Console, tentukan skema Anda, dan mulai lakukan kueri. Amazon Athena menggunakan Presto dengan dukungan SQL standar penuh dan berfungsi dengan berbagai format data standar, termasuk CSV, JSON, ORC, Apache Parquet dan Avro. Sementara Athena ideal untuk kueri ad-hok yang cepat dan berintegrasi dengan Amazon QuickSight untuk visualisasi yang mudah, juga dapat menangani analisis kompleks, termasuk gabung, fungsi jendela, dan larik dalam jumlah banyak.

T:  Apa itu Amazon Redshift Spectrum?

Amazon Redshift Spectrum adalah fitur Amazon Redshift yang memungkinkan Anda menjalankan kueri terhadap exabyte data yang tidak terstruktur di Amazon S3 tanpa memerlukan pemuatan atau ETL. Ketika Anda menerbitkan kueri, kueri pergi ke titik ujung Amazon Redshift SQL, yang menghasilkan dan mengoptimalkan rencana kueri. Amazon Redshift menentukan data apa yang lokal dan apa yang ada di Amazon S3, membuat rencana untuk meminimalkan jumlah data Amazon S3 yang perlu dibaca, meminta pekerja Redshift Spectrum dari kumpulan sumber yang dibagikan untuk membaca dan memproses data dari Amazon S3.

Redshift Spectrum menskala dari ribuan contoh jika diperlukan, sehingga kueri berjalan dengan cepat tanpa terpengaruh dengan ukuran data. Dan, Anda dapat menggunakan SQL yang benar-benar sama untuk data Amazon S3 seperti yang Anda gunakan untuk kueri Amazon Redshift Anda hari ini dan terhubung ke hasil akhir Amazon Redshift yang sama dengan menggunakan alat BI yang sama. Redshift Spectrum membolehkan Anda untuk memisahkan penyimpanan dan komputasi, yang memungkinkan Anda untuk menskala keduanya secara independen. Anda dapat menetapkan klaster Amazon Redshift sebanyak yang Anda perlukan untuk melakukan kueri kumpulan data Amazon S3 Anda, yang memberikan ketersediaan yang tinggi dan konkurensi tanpa batas. Redshift Spectrum memberi Anda kebebasan untuk menyimpan data di mana pun yang Anda inginkan, dalam format yang Anda inginkan, dan membuatnya tersedia untuk pemrosesan saat Anda membutuhkannya.

Replikasi

T: Apa itu Amazon S3 Replication?

Amazon S3 Replication memungkinkan penyalinan objek tidak sinkron dan otomatis di seluruh bucket Amazon S3. Bucket yang dikonfigurasi untuk replikasi objek dapat dimiliki oleh akun AWS yang sama atau berbeda. Anda dapat menyalin objek ke satu atau beberapa bucket tujuan antara Wilayah AWS yang berbeda (Lintas Wilayah Amazon S3), atau dalam Wilayah AWS yang sama (Replikasi Wilayah yang Sama S3). Pelajari selengkapnya dengan mengunjungi panduan pengguna S3 Replication.

T:   Apa yang dimaksud dengan Amazon S3 Cross-Region Replication (CRR)?

CRR adalah fitur Amazon S3 yang secara otomatis mereplikasi data antar-bucket di seluruh Wilayah AWS. Dengan CRR, Anda dapat mengatur replikasi pada tingkat bucket, tingkat prefiks bersama, atau tingkat objek menggunakan tag objek S3. Anda dapat menggunakan CRR untuk memberikan akses data dengan latensi yang lebih rendah di wilayah geografis yang berbeda. CRR juga dapat membantu jika Anda memiliki persyaratan kepatuhan untuk menyimpan salinan data yang jaraknya ratusan mil. Anda dapat menggunakan CRR untuk mengubah kepemilikan akun bagi objek yang direplikasi guna melindungi data dari penghapusan yang tidak disengaja. Untuk mempelajari selengkapnya, kunjungi panduan pengguna S3 CRR.

T:  Apa itu Replikasi Amazon S3 di Wilayah yang Sama (SRR)?

SRR adalah fitur Amazon S3 yang secara otomatis mereplikasi data antar-bucket dalam Wilayah AWS yang sama. Dengan SRR, Anda dapat mengatur replikasi pada tingkat bucket, tingkat prefiks bersama, atau tingkat objek menggunakan tag objek S3. Anda dapat menggunakan SRR untuk membuat satu atau beberapa salinan data Anda dalam Wilayah AWS yang sama. SRR membantu Anda menangani persyaratan kedaulatan dan kepatuhan data dengan menyimpan salinan data Anda di akun AWS terpisah dalam wilayah yang sama dengan aslinya. Anda dapat menggunakan SRR untuk mengubah kepemilikan akun untuk objek tereplikasi dengan tujuan melindungi data dari penghapusan yang tidak disengaja. Anda juga dapat menggunakan SRR untuk mengumpulkan log dengan mudah dari bucket S3 yang berbeda untuk pemrosesan dalam wilayah, atau untuk mengonfigurasi replikasi langsung antara lingkungan pengujian dan pengembangan. Untuk mempelajari selengkapnya, kunjungi panduan pengguna S3 SRR.

T: Bagaimana cara mengaktifkan Amazon S3 Replication (Replikasi Lintas Wilayah dan Wilayah yang Sama)?

Amazon S3 Replication (CRR dan SRR) dikonfigurasikan pada tingkat bucket, tingkat prefiks bersama, atau level objek menggunakan tag objek S3. Anda menambahkan konfigurasi replikasi pada bucket sumber Anda dengan menentukan bucket tujuan di Wilayah AWS yang sama atau berbeda untuk replikasi.

Anda dapat menggunakan S3 Management Console, API, AWS CLI, AWS SDK, atau AWS CloudFormation untuk mengaktifkan replikasi. Versioning harus diaktifkan untuk bucket sumber dan tujuan untuk mengaktifkan replikasi. Untuk mempelajari selengkapnya, kunjungi gambaran umum menyiapkan Replikasi dalam Panduan Developer Amazon S3.

T: Dapatkah saya menggunakan S3 Replication (CRR dan SRR) dengan aturan Siklus Hidup S3?

Dengan S3 Replication (CRR dan SRR), Anda dapat menetapkan aturan replikasi untuk membuat salinan objek Anda ke dalam kelas penyimpanan dalam wilayah yang sama atau berbeda. Tindakan siklus aktif tidak direplikasi, dan jika Anda menginginkan konfigurasi siklus aktif yang sama diterapkan pada bucket sumber dan tujuan, aktifkan konfigurasi siklus aktif yang sama pada keduanya. 

Sebagai contoh, Anda dapat mengkonfigurasi aturan siklus aktif untuk memindahkan data dari kelas penyimpanan S3 Standar ke kelas penyimpanan IA-Standar S3 atau IA-Satu Zona S3 atau mengarsipkan data ke S3 Glacier pada bucket tujuan.

Anda dapat memperoleh informasi selengkapnya tentang konfigurasi dan replikasi siklus hidup pada panduan developer S3 Replication. 

T: Dapatkah saya menggunakan S3 Replication untuk mereplikasi ke lebih dari satu bucket tujuan?

Ya. S3 Replication memungkinkan pelanggan mereplikasi data mereka ke beberapa bucket tujuan di Wilayah AWS yang sama atau berbeda. Saat menyiapkan, Anda cukup menentukan bucket tujuan baru di konfigurasi replikasi yang sudah ada atau membuat konfigurasi replikasi baru dengan beberapa bucket tujuan. Untuk setiap tujuan baru yang Anda tentukan, Anda memiliki fleksibilitas untuk memilih kelas penyimpanan bucket tujuan, tipe enkripsi, metrik replikasi dan notifikasi, Replication Time Control (RTC), dan properti lainnya.

T: Dapatkah saya menggunakan S3 Replication untuk menyiapkan replikasi dua arah di antara bucket S3?

Ya. Untuk menyiapkan replikasi dua arah, Anda membuat aturan replikasi dari bucket A ke bucket B dan menyiapkan aturan replikasi lainnya dari bucket B ke bucket A. Pastikan untuk mengaktifkan sinkronisasi modifikasi replika pada bucket A dan B untuk mereplikasi perubahan metadata replika seperti daftar kontrol akses (ACL) objek, tanda objek, atau kunci objek pada objek yang direplikasi.

T: Dapatkah saya menggunakan replikasi di seluruh akun AWS agar terlindung dari penghapusan yang jahat atau tidak disengaja?

Ya, untuk CRR dan SRR Anda dapat menyiapkan replikasi di seluruh akun AWS untuk menyimpan data yang direplikasi di akun yang berbeda di wilayah tujuan. Anda dapat menggunakan Penimpaan Kepemilikan dalam konfigurasi replikasi Anda untuk mempertahankan tumpukan kepemilikan yang berbeda antara sumber dan tujuan, serta memberikan kepemilikan akun tujuan ke penyimpanan yang direplikasi.

T:  Apakah Tag Objek saya akan direplikasi jika saya menggunakan Replikasi Lintas Wilayah?

Tanda Objek dapat direplikasi di semua Wilayah AWS menggunakan Replikasi Lintas Wilayah. Untuk pelanggan yang sudah mengaktifkan Replikasi Lintas Wilayah, perizinan baru diperlukan untuk mereplika tag. Untuk informasi selengkapnya tentang menyiapkan Replikasi Lintas Wilayah, kunjungi Bagaimana Mengatur Replikasi Lintas Wilayah di Panduan Developer Amazon S3.

T: Apakah saya dapat mereplikasi delete marker dari satu bucket ke bucket lainnya?

Ya, Anda dapat mereplikatkan penanda hapus dari sumber ke tujuan jika mengaktifkan replikasi penanda hapus dalam konfigurasi replikasi Anda. Saat Anda mereplikatkan penanda hapus, Amazon S3 akan berperilaku seakan objek dihapus di kedua bucket. Anda dapat mengaktifkan penanda hapus untuk aturan replikasi baru atau yang sudah ada. Anda dapat menerapkan replikasi penanda hapus ke seluruh bucket atau ke objek Amazon S3 yang memiliki awalan tertentu, dengan aturan replikasi berbasis awalan. Amazon S3 Replication tidak mendukung replikasi penanda hapus untuk aturan replikasi berbasis tag objek. Untuk mempelajari selengkapnya mengenai mengaktifkan replikasi penanda hapus, lihat Mereplikatkan penanda hapus dari satu bucket ke bucket lainnya.

T: Apakah saya dapat mereplikatkan data dari Wilayah AWS lainnya ke Cina? Apakah pelanggan dapat mereplikatkan dari satu bucket Wilayah Cina di luar Wilayah Cina?

Tidak, Amazon S3 Replication tidak tersedia antara Wilayah Cina AWS dan Wilayah AWS di luar Cina. Anda hanya bisa mereplikasi di dalam wilayah Tiongkok.

T: Berapa harga replikasi data lintas akun?

Dengan S3 Replication, Anda dapat mengonfigurasi replikasi lintas akun di mana bucket sumber dan tujuan dimiliki oleh akun AWS yang berbeda. Tidak termasuk penyimpanan S3 dan biaya pengambilan yang berlaku, pelanggan membayar permintaan PUT replikasi dan Transfer Data OUT antar wilayah dari S3 ke wilayah tujuan Anda saat menggunakan S3 Replication. Jika Anda mengaktifkan S3 Replication Time Control (S3 RTC) pada aturan replikasi Anda, Anda akan melihat Transfer Data OUT dan biaya permintaan replikasi PUT khusus untuk S3 RTC. Untuk replikasi lintas akun, akun sumber membayar untuk semua transfer data (S3 RTC dan S3 CRR) dan akun tujuan membayar untuk permintaan PUT replikasi. Biaya transfer data hanya berlaku untuk S3 Cross Region Replication (S3 CRR) dan S3 Replication Time Control (S3 RTC), tidak ada biaya transfer data untuk S3 Same Region Replication (S3 SRR). Kunjungi halaman harga S3 untuk detail selengkapnya tentang harga S3 Replication.

S3 Replication Time Control

T:   Apa yang dimaksud dengan Amazon S3 Replication Time Control?

Amazon S3 Replication Time Control menyediakan performa replikasi yang dapat diprediksi dan membantu Anda memenuhi persyaratan kepatuhan atau bisnis. S3 Replication Time Control dirancang untuk mereplikasi sebagian besar objek dalam hitungan detik, 99% objek dalam 5 menit, dan 99,99% objek dalam 15 menit. Kontrol Waktu S3 Replication didukung oleh komitmen Perjanjian Tingkat Layanan (SLA) yang mana 99,9% objek akan direplikasi dalam 15 menit untuk setiap pasangan wilayah replikasi selama bulan tagihan mana pun. Waktu Replikasi dapat berfungsi dengan semua fitur S3 Replication. Untuk mempelajari selengkapnya, kunjungi panduan pengembang replikasi.

T: Bagaimana cara mengaktifkan Amazon S3 Replication Time Control?

Amazon S3 Replication Time Control diaktifkan sebagai opsi untuk setiap aturan replikasi. Anda dapat membuat kebijakan S3 Replication baru dengan S3 Replication Time Control, atau mengaktifkan fitur pada kebijakan yang ada saat ini.

Anda dapat menggunakan S3 Management Console, API, AWS CLI, AWS SDK, atau AWS CloudFormation untuk mengonfigurasi replikasi. Untuk mempelajari selengkapnya, kunjungi ikhtisar menyiapkan Replikasi dalam Panduan Developer Amazon S3.

T: Apa yang dimaksud dengan metrik dan kejadian Amazon S3 Replication?

Metrik dan kejadian Amazon S3 Replication menyediakan visibilitas atas Amazon S3 Replication. Dengan metrik S3 Replication, Anda dapat memantau total jumlah operasi dan ukuran objek yang menunda replikasi, serta latensi replikasi antara bucket sumber dan tujuan untuk setiap aturan S3 Replication. Metrik replikasi tersedia melalui Konsol Manajemen Amazon S3 dan melalui Amazon CloudWatch. Kejadian S3 Replication akan memberitahu Anda mengenai kegagalan replikasi agar Anda dapat dengan cepat mendiagnosis dan memperbaiki masalah. Jika Anda mengaktifkan Kontrol Waktu S3 Replication (S3 RTC), Anda juga akan menerima pemberitahuan saat sebuah objek memerlukan lebih dari 15 menit untuk direplikatkan, dan saat objek berhasil direplikatkan ke tujuannya. Seperti kejadian Amazon S3 lainnya, kejadian S3 Replication tersedia melalui Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS), atau AWS Lambda.

T: Bagaimana cara mengaktifkan metrik dan kejadian Amazon S3 Replication?

Metrik dan kejadian Amazon S3 Replication dapat diaktifkan untuk setiap aturan replikasi baru atau yang sudah ada, dan diaktifkan secara default untuk aturan yang didukung S3 Replication Time Control. Anda dapat mengakses metrik S3 Replication melalui Amazon S3 Management Console dan Amazon CloudWatch. Seperti kejadian Amazon S3 lainnya, kejadian S3 Replication tersedia melalui Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS), atau AWS Lambda. Untuk mempelajari selengkapnya, kunjungi Memantau kemajuan dengan metrik replikasi dan pemberitahuan kejadian Amazon S3 di panduan Pengembang Amazon S3.

T: Apa yang dimaksud dengan Perjanjian Tingkat Layanan (SLA) Kontrol Waktu Amazon S3?

Kontrol Waktu Amazon S3 Replication dirancang untuk mereplikasi 99,99% objek Anda dalam 15 menit, dan didukung dengan perjanjian tingkat layanan. Jika dalam 15 menit objek Anda yang tereplikasi kurang dari 99,9% untuk setiap pasangan wilayah replikasi dalam siklus penagihan bulanan, S3 RTC SLA menyediakan kredit layanan untuk objek yang mereplikasi lebih dari 15 menit. Kredit layanan mencakup persentase dari semua biaya terkait replikasi yang terkait dengan objek yang tidak memenuhi SLA, termasuk biaya RTC, bandwidth replikasi dan biaya permintaan, serta biaya yang terkait dengan penyimpanan replika Anda di wilayah tujuan dalam tagihan bulanan siklus terpengaruh. Untuk mempelajari selengkapnya, baca SLA S3 Replication Time Control.

T: Berapa harga untuk S3 Replication dan S3 Replication Time Control?

Untuk S3 Replication (Replikasi Lintas Wilayah dan Replikasi Wilayah yang Sama), Anda membayar biaya S3 untuk penyimpanan di kelas penyimpanan S3 tujuan yang dipilih, biaya penyimpanan untuk salinan utama, permintaan PUT replikasi, dan biaya pengambilan penyimpanan akses jarang yang berlaku. Untuk CRR, Anda juga membayar untuk Transfer Data KELUAR Dari S3 ke wilayah tujuan Anda. Metrik S3 Replication ditagih dengan tarif yang sama dengan metrik kustom Amazon CloudWatch. Selain itu, saat menggunakan S3 Replication Time Control, Anda juga membayar biaya Transfer Data Replication Time Control. Untuk informasi selengkapnya, silakan kunjungi halaman harga S3.

Jika objek sumber diunggah menggunakan fitur pengunggahan multi-bagian, maka objek tersebut direplikasi menggunakan jumlah bagian dan ukuran bagian yang sama. Sebagai contoh, objek 100 GB yang diunggah menggunakan fitur pengunggahan multi-bagian (800 bagian sebesar masing-masing 128 MB) akan menimbulkan biaya permintaan yang dikaitkan dengan 802 permintaan (800 permintaan Unggah + 1 permintaan Mulai Pengunggahan Multi-bagian + 1 permintaan Selesaikan Pengunggahan Multi-bagian) saat direplikasi. Anda akan dikenai biaya permintaan 0,00401 USD (802 permintaan x 0,005 USD per 1.000 permintaan) dan (jika replikasi dilakukan di antara wilayah AWS yang berbeda) dikenai biaya 2,00 USD (0,020 USD per GB ditransfer x 100 GB) untuk transfer data lintas wilayah. Setelah replikasi, 100 GB tersebut akan dikenai biaya penyimpanan berdasarkan wilayah tujuan.

Titik Akses Multi-Wilayah S3

T: Apa itu Titik Akses Multi-Wilayah S3?

Titik Akses Multi-Wilayah Amazon S3 mempercepat performa hingga 60% saat mengakses set data yang direplikasi di beberapa Wilayah AWS. Berdasarkan AWS Global Accelerator, Titik Akses Multi-Wilayah S3 mempertimbangkan faktor-faktor seperti kemacetan jaringan dan lokasi aplikasi yang meminta untuk merutekan permintaan Anda secara dinamis melalui jaringan AWS ke salinan data Anda dengan latensi terendah. Perutean otomatis ini memungkinkan Anda memanfaatkan infrastruktur global AWS sambil mempertahankan arsitektur aplikasi sederhana.

T: Mengapa saya harus menggunakan Titik Akses Multi-Wilayah S3?

Titik Akses Multi-Wilayah S3 mempercepat dan menyederhanakan penyimpanan untuk aplikasi multi-wilayah Anda. Dengan merutekan permintaan S3 secara dinamis ke set data yang direplikasi, Titik Akses Multi-wilayah S3 mengurangi latensi permintaan, sehingga aplikasi berjalan hingga 60% lebih cepat. Selain itu, Anda dapat memanfaatkan infrastruktur global AWS, sambil mempertahankan arsitektur agnostik kawasan sederhana untuk aplikasi Anda.

T: Bagaimana cara kerja Titik Akses Multi-Wilayah S3?

Poin Akses multi-wilayah secara dinamis mengarahkan permintaan klien ke satu atau beberapa bucket S3 yang mendasarinya. Anda dapat mengonfigurasi Titik Akses Multi-wilayah Anda untuk merutekan melintasi satu bucket per Wilayah AWS, di hingga 20 Wilayah AWS. Ketika Anda membuat Titik Akses Multi-wilayah, S3 secara otomatis menghasilkan nama yang kompatibel dengan DNS. Nama ini digunakan sebagai titik akhir global yang dapat digunakan oleh klien Anda. Saat klien Anda membuat permintaan ke titik akhir ini, S3 akan secara dinamis merutekan permintaan tersebut ke salah satu bucket dasar yang ditentukan dalam konfigurasi Titik Akses Multi-Wilayah Anda.

Secara default, Titik Akses Multi-Wilayah S3 merutekan permintaan ke bucket pokok yang paling dekat dengan klien, berdasarkan latensi jaringan. Misalnya, Anda dapat mengonfigurasi Titik Akses Multi-wilayah dengan bucket yang mendasarinya di US-EAST-1 dan di AP-SOUTH-1. Dengan konfigurasi ini, klien Anda di North America akan merutekan ke US-EAST-1, dan klien Anda di Asia akan merutekan ke AP-SOUTH-1. Konfigurasi ini menurunkan latensi untuk permintaan Anda yang dibuat ke S3, sehingga meningkatkan performa aplikasi Anda.

Jika aplikasi Anda mengakses S3 melalui internet, maka performa akan lebih ditingkatkan dengan Poin Akses Multi-wilayah S3, karena S3 akan merutekan permintaan Anda melalui Lokasi AWS terdekat ke klien Anda, lalu melalui jaringan AWS privat global ke S3. Permintaan akan menghindari segmen jaringan yang padat di Internet, yang akan mengurangi latensi dan jitter jaringan, sekaligus meningkatkan performa.

T: Bagaimana cara saya memulai Titik Akses Multi-Wilayah S3?

Konsol Manajemen S3 menyediakan alur kerja terpandu sederhana yang memungkinkan Anda dengan cepat menyiapkan semua yang Anda butuhkan untuk menjalankan penyimpanan multi-wilayah di S3, hanya dalam tiga langkah sederhana. Pertama, nama host global unik untuk Poin Akses Multi-Wilayah Anda akan dibuat secara otomatis untuk Anda. Anda dapat menghubungkan klien dan aplikasi Anda tanpa harus menentukan Wilayah AWS. Kedua, Anda akan memilih satu atau beberapa bucket di S3 yang ingin Anda rutekan di belakang nama host baru ini. Anda dapat memilih bucket yang ada atau memutuskan untuk membuat bucket baru untuk Anda. Ketiga, Anda akan menentukan aturan S3 Cross-Region Replication.

Atau, Anda dapat menggunakan CloudFormation untuk mengotomatisasi konfigurasi penyimpanan multi-wilayah Anda. Semua blok penyusun yang diperlukan untuk menyiapkan penyimpanan Multi-Wilayah di S3, termasuk Titik Akses Multi-Wilayah S3, didukung oleh CloudFormation, mengizinkan Anda untuk dengan mudah mengotomatisasi proses penyiapan berulang di luar Konsol Manajemen S3.

T: Apa perbedaan antara S3 Cross-Region Replication (S3 CRR) dan Titik Akses Multi-Wilayah S3?

S3 CRR dan S3 Multi-Region Access Points adalah fitur pelengkap yang bekerja sama untuk mereplikasi data di seluruh Wilayah AWS, lalu secara otomatis mengarahkan permintaan ke salinan yang direplikasi dengan latensi terendah. Titik Akses Multi-Wilayah S3 S3 membantu Anda mengelola permintaan di seluruh Wilayah AWS, sementara CRR memungkinkan Anda memindahkan data di seluruh Wilayah AWS untuk membuat replika yang terisolasi. Anda menggunakan Titik Akses Multi-Wilayah S3 dan CRR bersama-sama untuk membuat set data multiwilayah yang direplikasi yang dapat dialamatkan oleh satu titik akhir global.

T: Berapa biaya Titik Akses Multi-Wilayah S3?

Saat Anda menggunakan Titik Akses Multi-Wilayah S3 untuk merutekan permintaan dalam AWS, Anda membayar biaya perutean data per GB yang rendah untuk setiap gigabita (GB) yang diproses, serta biaya standar untuk permintaan, penyimpanan, transfer data, dan replikasi S3. Jika aplikasi Anda berjalan di luar AWS dan mengakses S3 melalui internet, Titik Akses Multi-Wilayah S3 meningkatkan performa dengan merutekan permintaan Anda secara otomatis melalui lokasi edge AWS, melalui jaringan AWS privat global, ke salinan terdekat dari data Anda berdasarkan akses latensi. Saat Anda mempercepat permintaan yang dibuat melalui internet, Anda membayar biaya perutean data dan biaya percepatan internet. Harga akselerasi internet Titik Akses Multi-Wilayah S3 bervariasi berdasarkan apakah klien sumber berada di lokasi yang sama atau berbeda dengan Wilayah AWS tujuan, dan merupakan tambahan dari harga transfer data S3 standar. Lihat halaman harga S3 dan tab transfer data untuk informasi harga selengkapnya.

T: Apa perbedaan S3 Transfer Acceleration dengan Titik Akses Multi-Wilayah S3?

Anda dapat menggunakan S3 Transfer Acceleration untuk mempercepat transfer konten ke dan dari satu bucket S3 terpusat menggunakan jaringan global AWS. Ini sangat membantu untuk transfer jarak jauh dari objek yang lebih besar atau menghapus aplikasi web atau seluler. Dengan Titik Akses Multi-Wilayah S3, Anda dapat melakukan transfer dipercepat yang serupa menggunakan jaringan global AWS, tetapi di banyak bucket S3 di beberapa Wilayah AWS untuk permintaan berbasis internet, berbasis VPC, dan on-premise ke dan dari S3. Saat Anda menggabungkan Titik Akses Multi-Wilayah S3 dengan Replikasi Silang S3, Anda memberikan kemampuan bagi Titik Akses Multi-Wilayah S3 untuk secara dinamis merutekan permintaan Anda ke salinan data Anda dengan latensi terendah untuk aplikasi dari klien di beberapa lokasi.

Pemrosesan data

Object Lambda

T: Apa itu S3 Object Lambda?

S3 Object Lambda memungkinkan Anda menambahkan kode Anda sendiri ke permintaan GET S3 untuk mengubah dan memproses data saat dikembalikan ke aplikasi. Untuk pertama kalinya, Anda dapat menggunakan kode kustom untuk mengubah data yang dikembalikan oleh permintaan GET S3 standar untuk memfilter baris, mengubah ukuran gambar secara dinamis, meredaksi data rahasia, dan banyak lagi. S3 Object Lambda membantu Anda memenuhi persyaratan format data aplikasi dengan mudah tanpa harus membangun dan mengoperasikan infrastruktur tambahan, seperti lapisan proxy, atau harus membuat dan memelihara beberapa turunan salinan data Anda. S3 Object Lambda menggunakan fungsi AWS Lambda untuk memproses hasil permintaan GET S3 standar secara otomatis. AWS Lambda adalah layanan komputasi tanpa server yang menjalankan kode yang ditetapkan pelanggan tanpa memerlukan manajemen sumber daya komputasi mendasar. 

Dengan hanya beberapa klik di Konsol Manajemen AWS, Anda dapat mengonfigurasi fungsi Lambda dan melampirkannya ke endpoint S3 Object Lambda. Mulai dari titik tersebut, S3 akan secara otomatis memanggil fungsi Lambda Anda untuk memproses data apa pun yang diambil melalui endpoint S3 Object Lambda, mengembalikan hasil yang ditransformasikan ke aplikasi. Anda dapat menulis dan menjalankan fungsi Lambda kustom Anda sendiri, menyesuaikan transformasi data S3 Object Lambda dengan kasus penggunaan spesifik Anda.

Untuk memulai S3 Object Lambda, Anda dapat menggunakan Konsol Manajemen S3, SDK, atau API. Pelajari selengkapnya di halaman S3 Object Lambda, atau panduan pengguna S3 Object Lambda.

T: Mengapa saya harus menggunakan S3 Object Lambda?

Anda harus menggunakan S3 Object Lambda untuk membagikan satu salinan data Anda di banyak aplikasi, menghindari kebutuhan untuk membangun dan mengoperasikan infrastruktur pemrosesan kustom, atau untuk menyimpan turunan salinan data Anda. Misalnya, dengan menggunakan S3 Object Lambda untuk memproses permintaan GET S3 normal, Anda dapat menyembunyikan data sensitif untuk tujuan kepatuhan, merestrukturisasi data mentah dengan tujuan menjadikannya kompatibel dengan aplikasi machine learning, memfilter data untuk membatasi akses ke konten spesifik di dalam objek S3, atau untuk menangani berbagai macam kasus penggunaan tambahan. S3 Object Lambda dapat disiapkan hanya dengan beberapa klik di Konsol Manajemen Amazon S3. Baca panduan pengguna untuk mempelajari selengkapnya.

T: Bagaimana cara kerja S3 Object Lambda?

S3 Object Lambda menggunakan fungsi Lambda yang Anda tentukan untuk memproses hasil permintaan GET standar. Setelah Anda menentukan fungsi Lambda untuk memproses data yang diminta, Anda dapat melampirkan fungsi tersebut ke titik akses S3 Object Lambda. Permintaan GET yang dibuat melalui titik akses S3 Object Lambda sekarang akan memanggil fungsi Lambda yang ditentukan. Lambda selanjutnya akan mengambil objek S3 yang diminta oleh klien dan memproses objek tersebut. Setelah pemrosesan selesai, Lambda akan mengalirkan kembali objek yang diproses ke klien yang memanggil. Baca panduan pengguna S3 Object Lambda untuk mempelajari selengkapnya.

T: Bagaimana cara saya memulai S3 Object Lambda?

S3 Object Lambda dapat disiapkan di Konsol Manajemen S3, dengan tiga langkah sederhana. Pertama, navigasi ke tab Object Lambda Access Point di konsol. Kedua, buat Titik Akses S3 Object Lambda dan di konfigurasinya, beri nama untuk sumber daya ini, fungsi Lambda yang dipanggil agar S3 dijalankan terhadap permintaan GET Anda dan titik akses S3 pendukung. Terdapat contoh implementasi fungsi Lambda dalam dokumentasi AWS untuk membantu Anda mencoba layanan tersebut. Terakhir, perbarui SDK dan aplikasi Anda untuk menggunakan titik akses S3 Object Lambda baru untuk mengambil data dari S3 menggunakan bahasa SDK pilihan Anda. S3 Object Lambda akan mulai memproses permintaan GET Anda. Baca panduan pengguna S3 Object Lambda untuk mempelajari selengkapnya.

T: Jenis operasi apa saja yang dapat saya jalankan dengan S3 Object Lambda?

Operasi apa pun yang didukung dalam fungsi Lambda didukung dengan S3 Object Lambda. Ini memberi Anda berbagai opsi yang tersedia untuk memproses permintaan Anda. Anda memenuhi fungsi Lambda Anda sendiri untuk menjalankan komputasi kustom terhadap permintaan GET, yang memberi Anda fleksibilitas untuk memproses data sesuai dengan kebutuhan aplikasi Anda. Waktu pemrosesan Lambda dibatasi ke maksimum 60 detik. Untuk detail selengkapnya, silakan lihat dokumentasi S3 Object Lambda di sini.

T: Tipe permintaan S3 mana yang didukung S3 Object Lambda?

S3 Object Lambda mendukung permintaan GET. Panggilan API S3 lainnya yang dibuat ke titik akses S3 Object Lambda akan mengembalikan respons API S3 standar. Pelajari selengkapnya tentang S3 Object Lambda di panduan pengguna.

T: Apa yang akan terjadi ketika fungsi S3 Object Lambda gagal?

Ketika fungsi S3 Object Lambda gagal, Anda akan menerima respons permintaan yang memerinci kegagalan tersebut. Sama seperti permintaan fungsi Lambda lainnya, AWS juga secara otomatis memantau fungsi atas nama Anda, melaporkan metrik melalui Amazon CloudWatch. Untuk membantu Anda memecahkan masalah kegagalan, Lambda mencatat semua permintaan yang diproses oleh fungsi Anda dan secara otomatis menyimpan log yang dihasilkan oleh kode Anda menggunakan Amazon CloudWatch Logs. Untuk informasi selengkapnya tentang cara mengakses CloudWatch logs untuk AWS Lambda, silakan kunjungi Dokumentasi CloudWatch.

T: Apakah S3 Object Lambda memengaruhi SLA ketersediaan S3 atau daya tahan S3?

S3 Object Lambda menghubungkan Amazon S3, AWS Lambda, dan secara opsional, layanan AWS lain yang Anda pilih untuk mengirimkan objek yang relevan dengan permintaan aplikasi. Seluruh layanan AWS yang digunakan sehubungan dengan S3 Object Lambda akan tetap dikelola oleh Perjanjian Tingkat Layanan (SLA) masing-masing. Misalnya, jika Layanan AWS tidak memenuhi Komitmen Layanannya, Anda akan berhak menerima Kredit Layanan seperti yang didokumentasikan dalam SLA layanan tersebut. Membuat Titik Akses S3 Object Lambda tidak memengaruhi daya tahan objek Anda. Namun, S3 Object Lambda memanggil fungsi AWS Lambda yang Anda tentukan dan Anda harus memastikan fungsi Lambda yang ditentukan adalah fungsi yang dimaksud dan benar. Lihat SLA Amazon S3 terbaru di sini.

T: Berapa harga S3 Object Lambda?

Ketika Anda menggunakan S3 Object Lambda, Anda membayar biaya per GB untuk tiap gigabita data yang dikembalikan ke Anda melalui S3 Object Lambda. Anda juga membayar permintaan S3 GET dan biaya komputasi AWS Lambda selama fungsi yang Anda tentukan berjalan untuk memproses data yang diminta. Untuk melihat detail harga dan contoh, baca halaman harga S3.

Siap untuk memulai?

Standard Product Icons (Features) Squid Ink
Cari tahu fitur produk

Pelajari selengkapnya tentang fitur untuk manajemen data, keamanan, manajemen akses, analitik, dan lainnya.

Pelajari selengkapnya 
Sign up for a free account
Daftar untuk akun gratis

Dapatkan akses secara instan ke AWS Tingkat Gratis dan mulai bereksperimen dengan Amazon S3. 

Daftar 
Standard Product Icons (Start Building) Squid Ink
Mulai membangun di konsol

Mulai merancang dengan Amazon S3 di Konsol AWS.

Memulai